Gaukite naujienų iš AI? Saugokitės – beveik pusę laiko klysta

Estimated read time 4 min read

Iana Kunitsa / Moment per Getty

Sekite ZDNET: Pridėkite mus kaip pageidaujamą šaltinį Google.


Pagrindiniai ZDNET pasiūlymai

  • Nauji tyrimai rodo, kad AI pokalbių robotai dažnai iškraipo naujienas.
  • Nustatyta, kad 45 % analizuotų AI atsakymų buvo problemiški.
  • Autoriai įspėja apie rimtas politines ir socialines pasekmes.

Naujas Europos transliuotojų sąjungos (EBU) ir BBC atliktas tyrimas parodė, kad pagrindiniai AI pokalbių robotai reguliariai iškraipo ir klaidingai pateikia naujienas. To pasekmė gali būti didelio masto visuomenės pasitikėjimo naujienų organizacijomis ir pačios demokratijos stabilumo erozija, perspėja organizacijos.

Tyrime, apimančiame 18 šalių ir 14 kalbų, profesionalūs žurnalistai įvertino tūkstančius atsakymų iš ChatGPT, Copilot, Gemini ir Perplexity apie naujausias naujienas, remdamiesi tokiais kriterijais kaip tikslumas, šaltiniai ir fakto atskyrimas nuo nuomonės.

Taip pat: šis nemokamas „Google AI“ kursas gali pakeisti jūsų tyrinėjimą ir rašymą, tačiau veikite greitai

Tyrėjai išsiaiškino, kad beveik pusė (45 %) visų keturių AI sistemų sugeneruotų atsakymų „turėjo bent vieną svarbią problemą“, anot BBC, o daugelis (20 %) „yra didelių tikslumo problemų“, tokių kaip haliucinacijos, ty informacijos gavimas ir pateikimas kaip faktas arba pasenusios informacijos pateikimas. „Google“ „Gemini“ pasirodė prasčiausiai iš visų – 76 % jo atsakymų buvo didelių problemų, ypač susijusių su tiekimu.

Pasekmės

Tyrimas atliktas tuo metu, kai generatyvūs AI įrankiai kėsinasi į tradicines paieškos sistemas, nes daugeliui žmonių yra pagrindiniai vartai į internetą, įskaitant, kai kuriais atvejais, būdą, kaip jie ieško naujienų ir su jais sąveikauja.

Remiantis Reuters instituto 2025 m. skaitmeninių naujienų ataskaita, 7 % visame pasaulyje apklaustų žmonių teigė, kad dabar naudoja dirbtinio intelekto įrankius, kad gautų naujausias naujienas; Šis skaičius išaugo iki 15% jaunesnių nei 25 metų amžiaus respondentų. Tačiau rugpjūtį JAV suaugusiųjų „Pew Research“ apklausa parodė, kad trys ketvirtadaliai respondentų niekada negauna žinių iš AI pokalbių roboto.

Kiti naujausi duomenys parodė, kad nors nedaugelis žmonių visiškai pasitiki informacija, kurią gauna iš Google AI apžvalgų funkcijos (kuri naudoja Gemini), daugelis jų retai arba niekada nebando patikrinti atsakymo tikslumo spustelėdami pridedamas šaltinio nuorodas.

EBU ir BBC perspėja, kad dirbtinio intelekto įrankių naudojimas norint susipažinti su naujienomis, kartu su pačių įrankių nepatikimumu gali turėti rimtų socialinių ir politinių pasekmių.

Naujasis tyrimas „įtikinamai parodo, kad šios nesėkmės nėra pavieniai incidentai“, – sakoma EBU žiniasklaidos direktoriaus ir generalinio direktoriaus pavaduotojo Jeano Philipo De Tender pareiškime. “Jie yra sisteminiai, tarpvalstybiniai ir daugiakalbiai, ir manome, kad tai kelia pavojų visuomenės pasitikėjimui. Kai žmonės nežino, kuo pasitikėti, jie visiškai niekuo nepasitiki, o tai gali atgrasyti nuo demokratinio dalyvavimo.”

Vaizdo įrašo veiksnys

Pavojus visuomenės pasitikėjimui – paprasto žmogaus gebėjimui įtikinamai atskirti faktus nuo fantastikos – dar labiau apsunkinamas vaizdo įrašus generuojančių AI įrankių, tokių kaip OpenAI Sora, kuri buvo išleista kaip nemokama programa rugsėjį ir buvo atsiųsta milijoną kartų vos per penkias dienas, atsiradimas.

Nors OpenAI naudojimo sąlygos draudžia vaizduoti bet kokį gyvą asmenį be jų sutikimo, vartotojai greitai pademonstravo, kad Sora gali būti paraginta pavaizduoti mirusius asmenis ir kitus probleminius AI sukurtus klipus, pavyzdžiui, karo scenas, kurios niekada neįvyko. (Sora sukurti vaizdo įrašai pateikiami su vandens ženklu, kuris sklinda per sukurtų vaizdo įrašų kadrą, tačiau kai kurie sumanūs vartotojai atrado būdų, kaip juos redaguoti.)

Taip pat: ar „Sora 2“ ir kitų AI vaizdo įrankių naudojimas yra rizikingas? Štai ką sako teisės mokslininkas

Vaizdo įrašai socialiniuose ir teisiniuose sluoksniuose jau seniai buvo laikomi nepaneigiamu įrodymu, kad įvykis iš tikrųjų įvyko, tačiau tokie įrankiai kaip „Sora“ greitai pasensta seną modelį.

Dar prieš DI sukurtų vaizdo įrašų ar pokalbių robotų, tokių kaip „ChatGPT“ ir „Gemini“ atsiradimą, informacijos ekosistema jau buvo balkanizuojama ir jai priklausė socialinės žiniasklaidos algoritmai, skirti maksimaliai padidinti vartotojų įsitraukimą, o ne užtikrinti, kad vartotojai gautų optimaliai tikslų tikrovės vaizdą. Todėl generatyvusis dirbtinis intelektas įpila žibalo į ugnį, kuri dega dešimtmečius.

Tada ir dabar

Istoriškai norint gauti naujausią informaciją apie dabartinius įvykius, reikėjo skirti laiko ir pinigų. Žmonės užsiprenumeruodavo laikraščius ar žurnalus ir sėdėdavo su jais minutes ar valandas, kad gautų naujienų iš žmonių, kuriais pasitikėjo.

Taip pat: išbandžiau naująją „Sora 2“, kad galėčiau generuoti AI vaizdo įrašus – ir rezultatai buvo gryni kerai

Plečiantis naujienų per AI modelis aplenkė abi šias tradicines kliūtis. Kiekvienas, turintis interneto ryšį, dabar gali gauti nemokamas, greitai suprantamas naujienų istorijų santraukas – net jei, kaip rodo naujasis EBU-BBC tyrimas, šiose santraukose yra daug netikslumų ir kitų didelių problemų.

Nuoroda į informacijos šaltinį

Jums tai gali patikti

Daugiau iš autoriaus