Ashtu si të gjitha teknologjitë, chatbot-ët modernë të menaxhuar nga inteligjenca artificiale gjithashtu kanë nevojë për një periudhë ndërprerje, shkruan focus.it.
Fillimisht, në fakt, ekzistonte frika se algoritmet gjeneruese mund të përhapnin lajme të rreme midis përdoruesve, një hipotezë e vërtetuar nga studime të ndryshme.
Këto algoritme, në fakt, janë të trajnuar në oqeanin e gjerë të internetit dhe mund të mësojnë nocione të sakta dhe të pasakta.
Një studim i fundit i kryer nga një grup studiuesish nga MIT në Boston, megjithatë, e ka përmbysur këtë perspektivë.
Thomas Costello, drejtuesi i projektit, tregoi se si modelet gjuhësore që fuqizojnë chatbot si ChatGPT, Gemini (i njohur më parë si Google Bard) dhe Copilot (i lindur në Microsoft Bing AI) mund të shkallëzojnë besimet e njerëzve që besojnë në teoritë e konspiracionit, thjesht duke duke debatuar me ta.
Jo vetëm kaq, por qasja që ata përdorin sugjeron gjithashtu se cila është mënyra më e mirë për të bashkëvepruar me teoricienët e konspiracionit, një lloj personi që tregon se kanë një besim kokëfortë në atë që besojnë.
Studimi, i publikuar në PsyArXiv, përfshiu 2 190 ndjekës të teorive të konspiracionit, nga “tokësorët e sheshtë” te “hënorët” (ata që mendojnë se njeriu nuk ka qenë kurrë në Hënë), deri tek ata që besojnë se ata përzihen mes nesh jashtëtokësorët. se sulmet e 11 shtatorit 2001 u planifikuan nga qeveria amerikane dhe se me vaksina injektohen mikroçipa nën lëkurë për të kontrolluar mendjet.
Eksperimenti u zhvillua në disa faza; në të parën, pjesëmarrësit ilustruan në formë skematike një teori për të cilën ishin të bindur, në versionin më të fundit të ChatGPT (GPT-4 Turbo Large Language Model), i cili, nga ana tjetër, gjeneroi një përmbledhje për t’u dorëzuar atyre.
Në këtë pikë, chatbot filloi një diskutim të shkurtër me personin në fjalë, i cili zgjati vetëm tre shkëmbime mendimesh secili, në fund të të cilit “teoricieni i konspiracionit” duhej të riparaqiste teorinë e tij në formë skematike për herë të dytë.
Pra, në afërsisht 20% të rasteve, të ekzaminuarit e kuptuan se ku ishte gabimi, duke ndryshuar mendimin e tyre.
Në fakt, IA dukej se funksiononte më mirë se shumë njerëz, duke ndryshuar mendjen e rreth një në pesë pjesëmarrës në vetëm disa shtypje të tasteve.
“Një qasje e gjerë dhe sipërfaqësore nuk funksionon për të bindur teoricienët e konspiracionit, pasi ata priren të studiojnë në thellësi temën në të cilën besojnë, edhe nëse kuptimi i tyre mund të jetë i gabuar,” shpjegon Thomas Costello, kreu i projektit MIT.
“Rezultatet e mira të ofruara nga chatbot-et mund të varen nga fakti se, në vend që të kritikojnë, ata vendosin një dialog në të njëjtin nivel, duke përdorur argumente bindëse, duke u fokusuar në fakte dhe duke mos përdorur as emocion e as ndjeshmëri”, shtoi ai.