JAV pareigūnai nori ankstyvos prieigos prie pažangaus AI, o didžiosios įmonės sutiko

Estimated read time 6 min read

„Microsoft“, „Google DeepMind“ ir Elono Musko „xAI“ pasiūlė leisti JAV vyriausybei pasiekti naujus dirbtinio intelekto modelius prieš jų visuotinį išleidimą, o tai pradeda naują etapą Silicio slėnio santykiuose su JAV vyriausybės baime dėl dirbtinio intelekto grėsmių, remiantis naujausia AI įmonių, siūlančių modelius JAV pareigūnams saugumo peržiūros vardan, ataskaita, tikėdamasi, kad AI gali pažaboti vyriausybės saugumo sistemas. ir kariniam naudojimui, kol kūrėjai ir naudotojai jį viešai vartoti, ir neišvengiamai tie, kurie neturėtų turėti reikalo, kad galėtų pasinaudoti ginkluotu AI modeliu.

Peržiūras vykdys Prekybos departamento AI standartų ir inovacijų centras arba CAISI, kuris teigia, kad bendrovės sandoris su „Google DeepMind“, „Microsoft“ ir „xAI“ suteikia galimybę patikrinti AI modelius prieš diegimą, atlikti tyrimus konkrečiose srityse ir peržiūrėti juos pradėjus gaminti.

Tai gali atrodyti nuobodžiai, bet taip nėra. Tai vyriausybė prašo, kad prieš automobiliui išvažiuojant į kelią būtų nuimtas gaubtas, o gaubtas kasdien įkaista.

Dar reikia pamatyti, bet yra suprantama baimė, kad labai išvystytas AI padės kibernetiniams blogiečiams dar veiksmingesnius nusikaltimus. „JAV pareigūnai įtariai ir su nerimu pradėjo žiūrėti į besiformuojančius pasienio modelius ankstyvosiose stadijose, pažymėdami, kad kai kurie padidino aukščiausių vyriausybės pareigūnų stresą“, – rašė „Reuters“.

Viena didžiausią nerimą sukėlusių dirbtinio intelekto įrankių yra Anthropic's Mythos, neseniai atskleistas modelis. Problema nėra ta, kad dirbtinis intelektas galėtų nustatyti saugumo trūkumus, kurių žmonės nemato. Tai yra ta, kad vienas įrankis gali leisti saugos žmonėms rasti saugos trūkumų, o užpuolikas taip pat gali rasti saugos trūkumų.

„Microsoft“ įsitraukė į AI diskusiją. „Microsoft“ pažadėjo „dirbti su JAV ir JK mokslininkais, kad nustatytų ir sušvelnintų nenumatytas AI modelių pasekmes ir prisidės prie bendrų duomenų rinkinių ir modelių saugos bei našumo vertinimo metodų kūrimo“, teigiama jos pranešime spaudai.

Kaip tokio bendradarbiavimo pavyzdį, „Microsoft“ šį mėnesį pasirašė susitarimą su JK AI saugumo institutu bendradarbiauti su abiejų šalių pareigūnais, kad bendradarbiautų valdant AI riziką. Tai rodo, kad ši tema aktuali už Amerikos sostinės ribų.

CAISI kyla ne iš tuščio lapo. Agentūra teigia, kad jau atliko daugiau nei 40 vertinimų, įskaitant pažangiausių, dar neišleistų modelių vertinimus; kūrėjai kartais dalijasi versijomis, kurių apsauga nuimta arba išjungta, kad atskleistų blogiausius nacionalinio saugumo pavojus. Taip, tai skamba grėsmingai, ir taip turi būti; Galų gale, jūs nepatvirtinate užrakto veiksmingumo tiesiog maldaujant, kad durys liktų uždarytos.

Be to, naujieji susitarimai išplečia ankstesnę vyriausybės prieigą prie modelių, kuriuos siūlo OpenAI ir Anthropic; Atskirai OpenAI perdavė JAV vyriausybei GPT-5.5 įvertinti nacionalinio saugumo kontekste, teigia OpenAI Chrisas Lehane'as. Sujunkite tuos elementus ir pradės ryškėti aiškus vaizdas: pačios pajėgiausios AI laboratorijos iš anksto įtraukiamos į vyriausybės tikrinimo aplinką, kol jų technologijos pradeda veikti.

Čia veikia įdomi (ir netvarkinga) politika. Dažniausiai Trumpo administracija savo AI strategiją sutelkė į pagreitinimą, reguliavimo panaikinimą ir Amerikos dominavimą pasaulinėje arenoje. Tačiau bet kokia į priekį nukreipta AI strategija taip pat turi susidoroti su niūria realybe, kad pažangūs modeliai nėra tik produktyvumo įrankiai.

Trumpo administracijos Amerikos dirbtinio intelekto veiksmų planas visų pirma skirtas inovacijoms skatinti, joms palaikyti reikalingos infrastruktūros kūrimui ir JAV lyderystės tarptautinės AI diplomatijos ir saugumo srityje skatinimui. Tas paskutinis gabalas tikrai neša krovinį.

Taip pat yra gynybos komponentas, kurio negalima nepastebėti. Likus kelioms dienoms iki šių modelių peržiūros susitarimų paskelbimo, Pentagonas sudarė sandorius su pirmaujančiomis AI ir technologijų įmonėmis, kad pasiektų geriausias sistemas įslaptintuose tinkluose, remiantis pranešimais apie ginkluotųjų pajėgų pastangas įnešti komercinį AI į vyriausybės operacijas.

AI karinėse darbo eigose atneša daugybę naujų iššūkių ir pasekmių. Klaida nebūtinai turi būti klaida; klaidinga produkcija gali būti daug daugiau nei nepatogu. Jis gali būti naudojamas ir gali būti brangus.

Žinoma, problema ta, kad tai gali trukdyti naujovėms. Technologijų įmonės ginčysis, kad joms reikia laisvės; ir jie tikrai teisūs, kad dirbtinis intelektas šiuo metu yra kova su peiliu telefono būdelėje su greitomis iteracijomis, agresyvia konkurencija, didžiulėmis kompiuterinės infrastruktūros išlaidomis ir pasauliniu iššūkiu Kinijai.

Jei kiekvienas naujas dirbtinio intelekto modelis bus laikomas kelis mėnesius, kol bus galima jį pristatyti, JAV technologijų įmonės tikrai apkaltins Vašingtoną, kad jis padovanotų dovaną su dideliu nusilenkimu mūsų priešams.

Tačiau galima sakyti, kad JAV norėtų, kad pirmasis prasmingas viešas ypač grėsmingo ar pavojingo AI pajėgumo demonstravimas būtų viešas, nes taip jūs valdote atsiprašydami.

Įvertinimas prieš jį įdiegiant ir išleidžiant nebus įdomus ir tikriausiai erzins kai kuriuos ar visus, o tai paprastai yra geras ženklas, kad reguliavimas atsidūrė kažkur per vidurį.

Iššūkis bus sutelkti dalykus. Nebūtų prasmės tikrinti kiekvieną pokalbių roboto leidimą, tačiau pažangiausių pasienio modelių, ypač turinčių karinių ar kibernetinių, biologinių ar cheminių pasekmių, tikrinimas yra kitas dalykas.

Tai ne apie vyriausybės pareigūną, patvirtinantį jūsų automatinį užbaigimą, o apie inžinierių, peržiūrintį raketą prieš ją paleidžiant. Turbūt ne taip dramatiška, bet panašiai.

Čia taip pat yra pasitikėjimo problema. Technologijų milžinai reguliavimo institucijoms sakė, kad gali reguliuoti save, o pastarosios technologijų įmonėms sakė, kad jos nesugebėjo neatsilikti nuo sparčiai besivystančių technologijų.

Rezultatas yra toks neramus vidurys, kai įmonės siūlo ankstyvą prieigą prie dirbtinio intelekto modelių, federaliniai mokslininkai atlieka nepriklausomus bandymus ir visi tikisi, kad procedūra išfiltruos blogiausius rezultatus, bet neapsunkins biurokratijos.

Sunku nepajusti, kad ši akimirka buvo neišvengiama. Kai dirbtinio intelekto modeliai pasiekė tašką, kai jie buvo pakankamai galingi, kad galėtų paveikti tokius sektorius kaip kibernetinis saugumas, nacionalinis saugumas ir infrastruktūra, šioms įmonėms niekada nebuvo prasmės visą likusį amžinybę tiesiog išbandyti savo modelius.

Paprastas žmogus gali nežinoti etalono ar raudonosios komandos ataskaitos sudėtingumo, tačiau jis tikrai žino, kad vien dėl šių sistemų gebėjimo padaryti apčiuopiamos žalos verta jas atidžiai išnagrinėti prieš jas patenkant į rinką.

Ir nors „Big Tech“ vis dar nori lenktyniauti į priekį, o Vašingtonas vis dar nori išvengti netikėtumo, abi pusės bent jau kol kas, atrodo, suvienijo įmanomus veiksmus: atverkite dirbtinio intelekto modelius prieš varikliui riaumojant.

Nuoroda į informacijos šaltinį

Jums tai gali patikti

Daugiau iš autoriaus