Ar jūsų pokalbių robotas turi „smegenų puvinį“? 4 būdai pasakyti

Estimated read time 6 min read

Eoneren/E+ per Getty Images

Sekite ZDNET: Pridėkite mus kaip pageidaujamą šaltinį „Google“.


Pagrindiniai ZDNET pasiūlymai

  • Neseniai paskelbtame dokumente nustatyta, kad dirbtinis intelektas gali patirti „smegenų puvimą“.
  • Modelių našumas yra prastesnis po to, kai gavo „šiukšlių duomenis“.
  • Vartotojai gali išbandyti šiuos keturis įspėjamuosius ženklus.

Žinote tą keistai išsekusį, bet per daug stimuliuojamą jausmą, kurį patiriate, kai per ilgai slenkate, tarsi norėtumėte nusnūsti ir tuo pat metu jauti norą rėkti į pagalvę? Pasirodo, kažkas panašaus atsitinka su AI.

Praėjusį mėnesį AI tyrėjų komanda iš Teksaso universiteto Ostine, Teksaso A&M ir Purdue universitetuose paskelbė straipsnį, kuriame plėtojama tai, ką jie vadina „LLM smegenų puvimo hipoteze“ – iš esmės tai, kad dirbtinio intelekto pokalbių robotų, tokių kaip ChatGPT, Gemini, Claude ir Grok, rezultatai blogės, kuo daugiau jie bus veikiami „šiukšlių duomenų“.

Taip pat: „OpenAI“ teigia, kad ji siekia katastrofos ar utopijos – tik nežinau, kuri

„Tai yra ryšys tarp dirbtinio intelekto ir žmonių“, – interviu ZDNET sakė Junyuanas Hongas, Singapūro nacionalinio universiteto docentas, buvęs UT Austin doktorantas ir vienas iš naujojo dokumento autorių. „Jie gali apsinuodyti to paties tipo turiniu“.

Kaip dirbtinio intelekto modeliai supūliuoja

Oksfordo anglų kalbos žodyno leidėjas „Oxford University Press“ pavadino „smegenų puvimą“ 2024-ųjų metų žodžiu, apibrėždamas jį kaip „tariamą asmens psichinės ar intelektualinės būsenos pablogėjimą, ypač vertinamą kaip perteklinio medžiagos (dabar ypač internetinio turinio), kuri laikoma nereikšminga ar nereikšminga, vartojimo rezultatas“.

Remdamiesi naujausiais tyrimais, rodančiais ryšį tarp žmonių ilgalaikio naudojimosi socialine žiniasklaida ir neigiamų asmenybės pokyčių, UT Ostino mokslininkai stebėjosi: atsižvelgiant į tai, kad LLM mokomi didelėje interneto dalyje, įskaitant turinį, ištrauktą iš socialinės žiniasklaidos, kiek tikėtina, kad jie yra linkę į analogišką, visiškai skaitmeninį „smegenų puvimą“?

Taip pat: naujas Kinijos dirbtinio intelekto modelis teigia, kad jis lenkia GPT-5 ir Sonnet 4.5 – ir jis nemokamas

Bandymas nustatyti tikslius ryšius tarp žmogaus pažinimo ir AI visada yra sudėtingas, nepaisant to, kad neuroniniai tinklai – skaitmeninė architektūra, kuria remiasi šiuolaikiniai AI pokalbių robotai – buvo modeliuojami pagal smegenų organinių neuronų tinklus. Keliai, kuriais pokalbių robotai renkasi nuo mokymosi duomenų rinkinių modelių nustatymo iki rezultatų generavimo, tyrėjams yra neaiškūs, todėl dažnai jie lyginami su „juodosiomis dėžėmis“.

Be to, yra keletas aiškių paralelių: kaip, pavyzdžiui, naujajame dokumente pažymi tyrėjai, modeliai yra linkę „persistengti“ duomenis ir patekti į dėmesio paklaidas tokiu būdu, kuris yra maždaug analogiškas, pavyzdžiui, žmogaus, kurio pažinimas ir pasaulėžiūra susiaurėjo dėl per daug laiko praleidimo internetinėje aido kameroje, kur socialinės žiniasklaidos algoritmai nuolat stiprina savo įsitikinimus.

Norėdami patikrinti savo hipotezę, tyrėjai turėjo palyginti modelius, kurie buvo apmokyti remiantis „šiukšliniais duomenimis“, kuriuos jie apibrėžia kaip „turinį, galintį maksimaliai padidinti vartotojų įsitraukimą nereikšmingu būdu“ (pagalvokite: trumpi ir dėmesį patraukiantys įrašai, kuriuose pateikiami abejotini teiginiai), su kontroline grupe, kuri buvo išmokyta gauti labiau subalansuotą duomenų rinkinį.

Taip pat: AI amžiuje pasitikėjimas niekada nebuvo toks svarbus – štai kodėl

Jie nustatė, kad, skirtingai nei kontrolinė grupė, eksperimentiniai modeliai, kurie buvo maitinami tik nepageidaujamais duomenimis, greitai parodė savotišką smegenų puvimą: susilpnėjo samprotavimo ir ilgalaikio konteksto supratimo įgūdžiai, mažiau dėmesio pagrindinėms etikos normoms ir atsirado „tamsiųjų bruožų“, tokių kaip psichopatija ir narcisizmas. Be to, post-hoc pertvarkymas nepadėjo sumažinti padarytos žalos.

Jei idealus AI pokalbių robotas sukurtas taip, kad jis būtų visiškai objektyvus ir moraliai nusiteikęs profesionalus asistentas, šie šlamštu apsinuodiję modeliai buvo tarsi neapykantos kupini paaugliai, gyvenantys tamsiame rūsyje, kurie išgėrė per daug Red Bull ir žiūrėjo per daug sąmokslo teorijų vaizdo įrašų „YouTube“. Akivaizdu, kad ne tokia technologija, kurią norime plisti.

“Šie rezultatai reikalauja iš naujo išnagrinėti dabartinį duomenų rinkimą iš interneto ir nuolatinę išankstinio mokymo praktiką”, – pažymi mokslininkai savo darbe. „Kadangi LLM plečiasi ir įsisavina vis didesnį žiniatinklio duomenų korpusą, kruopšti priežiūra ir kokybės kontrolė bus būtinos siekiant išvengti kaupiamosios žalos.

Kaip atpažinti modelio smegenų puvinį

Geros naujienos yra tai, kad lygiai taip pat, kaip nesame bejėgiai, kad išvengtume interneto skatinamo savo smegenų puvimo, taip pat yra konkrečių veiksmų, kurių galime imtis, kad įsitikintume, jog mūsų naudojami modeliai nuo to nenukentės.

Taip pat: nepasitikėkite AI varomomis dezinformacijos atakomis internete – štai kaip išlikti ryžtingam

Pačiame dokumente buvo siekiama įspėti AI kūrėjus, kad nepageidaujamų duomenų naudojimas treniruočių metu gali smarkiai sumažinti modelio našumą. Akivaizdu, kad dauguma iš mūsų negali pasakyti, kokie duomenys naudojami treniruojant modelius, kurie tampa vis labiau neišvengiami mūsų kasdieniame gyvenime. Patys dirbtinio intelekto kūrėjai žino, iš kur jie gauna mokymo duomenis, o tai reiškia, kad sunku suskirstyti vartotojams skirtus modelius pagal, pavyzdžiui, kiek nepageidaujamų duomenų iš socialinių tinklų pateko į pradinį mokymo duomenų rinkinį.

Be to, dokumentas nurodo tam tikras pasekmes vartotojams. Stebėdami AI smegenų puvimo požymius, galime apsisaugoti nuo blogiausių jo pasekmių.

Taip pat: milžiniškus PDF failus galite paversti lengvai suprantamomis garso apžvalgomis „Google“ diske – štai kaip

Štai keletas paprastų veiksmų, kurių galite imtis norėdami įvertinti, ar pokalbių robotas nepasiduoda smegenų puvimui:

  • Paklauskite pokalbių roboto: „Ar galite apibūdinti konkrečius veiksmus, kuriuos atlikote, kad gautumėte atsakymą? Viena iš labiausiai paplitusių raudonų vėliavėlių, rodančių AI smegenų puvimą, minima straipsnyje, buvo daugiapakopių samprotavimų žlugimas. Jei pokalbių robotas pateikia jums atsakymą ir vėliau negali pateikti aiškios, nuoseklios mąstymo proceso apžvalgos, kurią jis perėjo, kad ten pasiektų, pirminį atsakymą norėsite priimti su druska.

  • Saugokitės pernelyg didelio pasitikėjimo savimi. Pokalbių robotai paprastai kalba ir rašo taip, lyg visi jų rezultatai būtų neginčijami faktai, net jei jie aiškiai haliucinuoja. Tačiau tarp pokalbių roboto pasitikėjimo ir „tamsiųjų bruožų“, kuriuos tyrėjai įvardija savo darbe, yra nedidelė riba. Narcisistiniai ar manipuliuojantys atsakymai – kažkas panašaus į: „Tiesiog pasitikėk manimi, aš esu ekspertas“- yra didelis įspėjamasis ženklas.

  • Pasikartojanti amnezija. Jei pastebite, kad įprastai naudojamas pokalbių robotas pamiršta arba klaidingai pateikia informaciją iš ankstesnių pokalbių, tai gali būti ženklas, kad tyrėjai pabrėžia savo darbe.

  • Visada patikrinkite. Tai taikoma ne tik bet kokiai informacijai, kurią gaunate iš pokalbių roboto, bet ir bet kokiai kitai informacijai, kurią skaitote internete: net jei ji atrodo patikima, patvirtinkite patikrinę teisėtos reputacijos šaltinį, pvz., recenzuojamą mokslinį straipsnį arba naujienų šaltinį, kuris skaidriai atnaujina pranešimus, jei ir kai kažkas negerai. Atminkite, kad net geriausi AI modeliai subtiliai ir nenuspėjamai haliucinuoja ir skleidžia šališkumą. Galbūt negalėsime kontroliuoti, kokia informacija patenka į AI, bet galime kontroliuoti, kokia informacija patenka į mūsų protus.

Nuoroda į informacijos šaltinį

Jums tai gali patikti

Daugiau iš autoriaus