Sekite „ZDNet“: Pridėkite mus kaip pageidaujamą šaltinį „Google“.
„ZDNET“ pagrindiniai pasirinkimai
- Mes visiškai nežinome, kaip AI veikia, todėl mes tam priskiriame magiškas galias.
- Teigia, kad Gen AI gali pagrįsti, yra „trapus miražas“.
- Mes visada turėtume būti konkretūs apie tai, ką daro AI, ir išvengti hiperbolės.
Nuo tada, kai dirbtinio intelekto programos pradėjo sužavėti plačiąją visuomenę, AI mokslininkai pareiškė pretenzijas dėl gilesnės technologijos reikšmės, net tvirtindami, kad žmogaus supratimas yra panašus.
Mokslininkai vaško filosofiniai, nes net mokslininkai, sukūrę AI modelius, tokius kaip „Openai“ GPT-5, nelabai supranta, kaip veikia programos-ne visiškai.
Taip pat: „Openai“ Altmanas mato „priežiūrą“ visai šalia, tačiau jam trūksta detalių
AI „Juodoji dėžutė“ ir „Hype“ aparatas
AI programos, tokios kaip LLM, yra liūdnai liūdnai „juodos dėžutės“. Jie pasiekia daug įspūdingų, tačiau didžiąja dalimi mes negalime pastebėti viso to, ką jie daro imdamiesi įvesties, pavyzdžiui, raginimo jums tipui, ir jie sukuria išvestį, pavyzdžiui, jūsų prašomą kolegijos terminuotą dokumentą ar jūsų naujojo romano pasiūlymą.
Pažeidę mokslininkai taikė šnekamuosius terminus, tokius kaip „samprotavimas“, kad apibūdintų programų atlikimo būdą. Proceso metu jie numanė arba visiškai tvirtino, kad programos gali „galvoti“, „protą“ ir „žinoti“ taip, kaip tai daro žmonės.
Per pastaruosius dvejus metus retorika aplenkė mokslą, nes AI vadovai pasinaudojo hiperbole, norėdami susukti tai, kas buvo paprasti inžinerijos pasiekimai.
Taip pat: Kas yra „Openai“ GPT-5? Štai viskas, ką reikia žinoti apie naujausią įmonės modelį
Openai Pranešimas spaudai praėjusį rugsėjį Paskelbdamas savo O1 samprotavimo modelį, teigiama, kad „panašus į tai, kaip žmogus ilgą laiką gali mąstyti, prieš atsakydamas į sunkų klausimą, O1 naudoja minties grandinę, bandydamas išspręsti problemą,„ taigi, „O1 išmoksta patobulinti savo minties grandinę ir patikslinti jos naudojamas strategijas“.
Tai buvo trumpas žingsnis nuo tų antropomorfizuojančių teiginių iki visų rūšių laukinių pretenzijų, tokių kaip „Openai“ generalinis direktorius Sam Altmanas Komentarasbirželio mėn., kad “mes praeiname renginio horizonte; prasidėjo kilimas. Žmonija yra arti skaitmeninio supervilios kūrimo.”
(Atskleidimas: ZIFF Davis, „ZDNET“ patronuojanti įmonė, 2025 m. Balandžio mėn. Pateikė ieškinį „Openai“, tvirtindamas, kad jis pažeidė Ziff Davis autorių teises mokymuose ir eksploatuoja AI sistemas.)
AI tyrimų atsilikimas
Vis dėlto yra AI mokslininkų, kurie paneigia žmogaus prielaidos prielaidos, prielaidos griežtai techniniam tikrinimui, pastatas.
Popieriuje Praėjusį mėnesį paskelbta „Arxiv“ prieš spausdinimo serveryje Ir dar neperžiūrėjo bendraamžiai, autoriai – Chengshuai Zhao ir kolegos iš Arizonos valstijos universiteto – išskiria pretenzijas dėl samprotavimo per paprastą eksperimentą. Jie padarė išvadą, kad „mąstymo grandinės samprotavimai yra trapus miražas“, ir tai yra „ne tikros loginės išvados mechanizmas, o greičiau sudėtinga struktūrizuoto modelio atitikimo forma“.
Taip pat: Sam Altmanas sako, kad neišvengiamas išskirtinumas – štai kodėl
Terminas „minties grandinė“ (COT) dažniausiai naudojama apibūdinti žodžio išvesties srautą, kurį matote, kai didelis samprotavimo modelis, pavyzdžiui, GPT-O1 ar Deepseeek V1, parodo, kaip jis veikia per problemą prieš pateikiant galutinį atsakymą.
Šis teiginių srautas nėra toks gilus ar prasmingas, kaip atrodo, rašykite Zhao ir komandą. „Empirinės COT samprotavimų sėkmės lemia suvokimą, kad didelių kalbos modeliai (LLMS) užsiima sąmoningais įžeidžiančiais procesais“, – rašo jie.
Tačiau, „besiplečianti analizės sistema atskleidžia, kad LLM dažniausiai remiasi paviršiaus lygio semantika ir įkalčiais, o ne loginėmis procedūromis“,-aiškina jie. “LLMS konstruoja paviršines logikos grandines, pagrįstas išmoktomis žetonų asociacijomis, dažnai nesugebančiomis užduočių, nukreipiančių nuo bendrosios heuristikos ar pažįstamų šablonų.”
Terminas „Žetonų grandinės“ yra dažnas būdas nurodyti elementų, įvestų į LLM, tokius kaip žodžiai ar simboliai.
Testavimas, ką iš tikrųjų daro LLM
Norėdami patikrinti hipotezę, kad LLM yra tik suderinami su modeliais, o ne iš tikrųjų samprotavimais, jie nuo 2019 m. Treniruojo Openai senesnius, atvirojo kodo LLM, GPT-2, pradedant nuo nulio, požiūrį, kurį jie vadina „duomenų alchemija“.
Modelis nuo pat pradžių buvo išmokytas tiesiog manipuliuoti 26 angliškos abėcėlės raidėmis, „A, B, C,… ir tt“. Šis supaprastintas korpusas leidžia „Zhao“ ir „Team“ išbandyti LLM labai paprastų užduočių rinkiniu. Visos užduotys apima manipuliavimą raidžių sekomis, tokiomis kaip, pavyzdžiui, perkelia kiekvieną raidę tam tikru vietų skaičiumi, kad „obuolys“ taptų „eAPPL“.
Taip pat: „Openai“ generalinis direktorius mato „Uphill“ kovą su GPT-5, tai yra naujos rūšies vartotojų aparatūra
Naudodami ribotą žetonų skaičių ir ribotas užduotis, „Zhao“ ir „Team“ skiriasi, kurie užduotys kalbos modelį yra veikiamas savo mokymo duomenyse, palyginti su kurios užduotys matomos tik tada, kai tikrinamas baigtas modelis, pavyzdžiui, „perkelkite kiekvieną elementą 13 vietų“. Tai yra testas, ar kalbos modelis gali pagrįsti būdą, kaip atlikti net tada, kai susiduriama su naujomis, dar niekad nematytomis užduotimis.
Jie nustatė, kad kai užduotys nebuvo mokymo duomenyse, kalbos modeliui nepavyko teisingai pasiekti tų užduočių, naudojant minties grandinę. AI modelis bandė naudoti užduotis, kurios buvo jo mokymo duomenyse, ir jo „samprotavimus“ skamba Gerai, tačiau jo sugeneruotas atsakymas buvo neteisingas.
Kaip sakė „Zhao“ ir „Team“, „LLMS bando apibendrinti samprotavimo kelius, pagrįstus panašiausiais (…), matytais treniruočių metu, o tai lemia teisingus samprotavimo kelius, tačiau neteisingi atsakymai“.
Specifiškumas, skirtas kovoti su hipe
Autoriai veda keletą pamokų.
Pirma: „Apsaugokite nuo per didelio pasitikėjimo ir melagingo pasitikėjimo“, jie pataria, nes „LLMS sugebėjimas gaminti„ sklandžias nesąmones “-tikėtinas, bet logiškai ydingas samprotavimo grandines-gali būti apgailėtinesnis ir žalingas nei atviras neteisingas atsakymas, nes IT projektuoja klaidingą priklausomybės aurą“.
Be to, išbandykite užduotis, kurios, tikėtina, nebuvo įtraukti į treniruočių duomenis, kad AI modelis būtų patikrintas stresu.
Taip pat: Kodėl „GPT-5“ akmenuotas diegimas yra realybės patikrinimas
„Zhao“ ir „Team“ požiūris yra svarbus, kad jis peržengia hiperbolę ir sugrąžina mus į pagrindus suprasti, ką tiksliai daro AI.
Kai originalūs mąstymo grandinės tyrimai “,-“Mąstymo grandinė paskatina sukelti samprotavimus didelių kalbos modeliuose„atliko Jasonas Wei ir kolegos„ Google “„ Google “smegenų komandoje„ Google “2022 m.
WEI ir komanda pastebėjo, kad paskatino LLM išvardyti problemos veiksmus, tokius kaip aritmetinio žodžio problema („Jei stiklainyje yra 10 slapukų, o Sally išima vieną, kiek liko stiklainyje?“), Kad vidutiniškai būtų galima priimti teisingesnius sprendimus.
Jie buvo atsargūs ir nepateikė žmogaus panašių sugebėjimų. „Nors minties grandinė mėgdžioja žmonių protininkų minties procesus, tai neatsako, ar neuroninis tinklas iš tikrųjų yra„ samprotavimas “, kurį mes paliekame kaip atvirą klausimą“, – rašė jie tuo metu.
Taip pat: Ar AI mąstys kaip žmonės? Mes net ne arti – ir mes užduodame neteisingą klausimą
Nuo to laiko Altmano teiginiai ir įvairūs pranešimai spaudai iš AI rengėjų vis labiau pabrėžė žmogaus panašų samprotavimo pobūdį, naudojant atsitiktinę ir apleistą retoriką, kuri negerbia WEI ir komandos grynai techninio aprašymo.
„Zhao“ ir „Team“ darbas yra priminimas, kad turėtume būti konkretūs, o ne prietaringi, apie tai, ką mašina iš tikrųjų daro, ir vengti hiperbolinių teiginių.