„Tai nėra tai, dėl ko mes užsiregistravome“.

Estimated read time 4 min read

Šią savaitę Silicio slėnyje įvyko akivaizdžių pokyčių.

Daugiau nei 200 „Google“ ir „OpenAI“ darbuotojų paragino savo darbdavius ​​geriau apibrėžti, kaip dirbtinis intelektas gali būti naudojamas kariniais tikslais. Aiškiai. Garsiai. Asmeniškai informuodami apie „Axios“ informaciją, darbuotojai aiškiai parodė, kad jiems vis labiau neramu dėl to, kaip diegiami jų kuriami AI įrankiai.

Ir nuoširdžiai? Jūs galite pamatyti, kodėl.

AI nebe tik padeda rašyti el. laiškus ir kurti grafiką. Apie tai kalbama apie karo logistiką, stebėjimą ir autonominę ginkluotę mūšio lauke. Tai rimta. Bent vienas žmogus, dalyvavęs pastangose, garsiai svarstė, ar pakanka šių įmonių patikrinimų, ar jie tik reprezentuoja siekiamybę prozą, kurią prireikus galima sulenkti esant politiniams poreikiams.

Priežastis, dėl kurios tai atrodo déjà vu, yra ta, kad mes čia buvome anksčiau. 2018 m. „Google“ darbuotojai sukilo prieš įmonę, kuri dirba su „Project Maven“ – Pentagono projektu, skirtu bepiločių orlaivių filmuotai medžiagai analizuoti. „Google“ atsakė savo AI principais, kurie pažadėjo, kad bendrovė nekurs AI, skirto naudoti ginkluose ar ginklų stebėjimui. Bėda ta, kad technologijos juda greičiau nei principai, o dalykai, kurie 2018 m. atrodė akivaizdžiai už ribų, 2023 m. gali atrodyti ne tokie aiškūs.

„OpenAI“ taip pat turi viešai prieinamą naudojimo atvejų politiką, draudžiančią ginklų veikimą. Ant popieriaus tai ramina. Tačiau atrodo, kad darbuotojai ieško atsakymų į dviprasmiškesnį klausimą: ką daryti, jei dirbtinio intelekto technologija yra dvejopo naudojimo? Ką daryti, jei tai padeda gydytojams atlikti tyrimus, bet taip pat gali būti naudojamas ginklų darbuose? Kokia riba?

Jei atsitrauksite šiek tiek toliau, pamatysite geopolitinį kontekstą: AI buvo paskirta viena iš Gynybos departamento prioritetinių modernizavimo sričių, o vyriausiojo skaitmeninio ir dirbtinio intelekto biuro svetainė yra visa svetainė. Jie teigia, kad dirbtinis intelektas leis greičiau priimti sprendimus, sumažins gyvybių praradimą ir atgrasys nuo grėsmių. Visa tai labai „praktiška“.

Tačiau kritikai, įskaitant kai kuriuos technologijų įmonių atstovus, yra susirūpinę, kad tai yra plonas pleišto kraštas. AI gynybos sistemose gali sukelti atskaitomybės trūkumą. Autonominės sistemos, net ir nemirtinos, yra dar vienas žingsnis deleguojant pasirinkimus, kurie, kai kurių nuomone, visada turėtų likti žmonių rankose.

Tačiau tarptautinis ginčas toli gražu nesibaigė. JT daugelį metų diskutuoja apie mirtinus autonominius ginklus ir, kaip rodo naujausi pranešimai, tautos dar toli iki susitarimo, kas turėtų įvykti toliau. Kai kurie nori uždrausti. Kiti nori siūlyti laisvas gaires. Tuo tarpu dirbtinio intelekto modeliai kas mėnesį tobulėja.

Dalis, kuri skamba tikrai žmogiškai, yra žmonės, kurie kalba neprieštarauja technologijoms. Daugelis jų yra AI entuziastai. Jie pastebėjo, kad jų sistemos leidžia anksčiau nustatyti ligas, išversti kalbas realiuoju laiku ir lengviau mokytis. Jie palaiko gerus dalykus. Štai kodėl tai yra tokia įkrauta situacija. Tai nėra maištas dėl savęs – tai nesutarimas dėl vertybių.

Taip pat yra kartos elementas. Jaunesni inžinieriai ne taip greitai gūžčioja pečiais ir sako: „Jei mes to nepadarysime, padarys kažkas kitas“. Silicio slėnio budėjimo režimas neberezonuoja. Vietoj to jie klausia: jei ketiname tai padaryti, ar neturėtume sukurti ir sienų?

Tačiau akivaizdu, kad įmonių vadovai turi kitokį požiūrį. Vyriausybės yra dideli klientai. Saugumo problemos yra veiksnys. Vykstant AI lenktynėms (ypač tarp JAV ir Kinijos), jie nenori atsilikti. Tiesiog išeiti nėra lengva. Tai strateginė, tai pinigai, tai politika, visa tai.

Tačiau vidinis spaudimas atskleidžia kai ką vertingo. AI nėra tik algoritmai. AI yra vertybės. AI – tai grupė žmonių, sėdinčių prieš monitorių ir pradedančių suprasti, kad tai, ką jie kuria, vieną dieną gali turėti įtakos gyvybės ir mirties klausimams.

Galbūt tai ir yra reikalo esmė. Tai yra tiek moralinis, tiek politinis argumentas. Darbuotojai labai aiškiai sako: „Norime apsauginių turėklų“. Ne todėl, kad jie prieštarauja pažangai, bet būtent todėl, kad mato jos sunkumą.

Kas toliau? Tai neaišku. Korporacijos galėtų sugriežtinti įsipareigojimus. Vyriausybės galėtų parengti aiškesnę politiką. Arba trintį galima tiesiog užglaistyti viešųjų ryšių pranešimais.

Tačiau aišku viena: diskusijos dėl karinio AI nebėra tik teorinės. Tai asmeniška. Ir tai vyksta kambariuose, kuriuose kuriama ateitis.

Nuoroda į informacijos šaltinį

Jums tai gali patikti

Daugiau iš autoriaus