AI parnešimas namo: vietinių LLM augimas ir jų poveikis duomenų privatumui

Estimated read time 7 min read

Dirbtinis intelektas nebėra vien tik masyvių duomenų centrų ar debesų pagrindu sukurtų platformų, kurias valdo technologijų milžinai. Pastaraisiais metais įvyko kažkas nuostabaus – Ai grįžta namo. Vietiniai didelių kalbų modeliai (LLMS), tos pačios rūšys AI įrankiai, kurie maitina pokalbių programas, turinio kūrėjai ir kodų padėjėjai, yra atsisiunčiamas ir paleistas tiesiogiai asmeniniuose įrenginiuose. Ir šis poslinkis daro ne tik demokratizuojančią prieigą prie galingų technologijų, bet ir naujos duomenų privatumo eros pagrindą.

Vietinių LLM patrauklumą lengva suvokti. Įsivaizduokite, kad galėtumėte naudoti „ChatBot“ kaip protingą kaip GPT-4.5, tačiau nesiunčiant užklausų į nuotolinį serverį. Arba turinio kūrimas, dokumentų apibendrinimas ir kodo generavimas, nesijaudindami, kad jūsų raginimai yra saugomi, analizuojami ar gaunami iš pinigų. Naudodamiesi vietinėmis LLM, vartotojai gali mėgautis pažangių AI modelių galimybėmis, tuo pačiu tvirtai kontroliuodami savo duomenis.

Kodėl auga vietiniai LLM?

Ilgus metus naudojant galingus AI modelius reiškė pasikliauti API ar platformomis, kurias rengia „Openai“, „Google“, „Anthropic“ ir kiti pramonės lyderiai. Šis požiūris gerai veikė ir atsitiktiniams vartotojams, ir įmonių klientams. Tačiau tai taip pat atsirado su kompromisais: latentinių klausimų, naudojimo apribojimų ir, ko gero, nerimaujama dėl to, kaip buvo tvarkomi duomenys.

Tada atėjo atvirojo kodo judėjimas. Tokios organizacijos kaip „Eleutherai“, „Hugning Face“, „Stabile AI“ ir „Meta“ pradėjo išleisti vis galingesnius modelius su leistinomis licencijomis. Netrukus tokie projektai kaip „Llam“, „Mistral“ ir „Phi“ pradėjo kurti bangas, suteikdami kūrėjams ir tyrėjams prieigą prie pažangiausių modelių, kurie galėtų būti tiksliai suderinti ar dislokuoti vietoje. Įrankiai kaip llama.cpp ir ollama buvo lengviau nei bet kada anksčiau paleisti šiuos modelius Efektyviai naudodama vartotojo lygio aparatinę įrangą.

Kilimas „Apple Silicon“ su galingomis M serijos lustaisir didėjantis aukšto našumo GPU prieinamumas dar labiau pagreitino šią tendenciją. Dabar entuziastai, tyrėjai ir į privatumą orientuoti vartotojai iš savo namų sąrankos veikia 7B, 13B ar net 70B parametrų modelius.

Vietinė LLM ir naujoji privatumo paradigma

Vienas didžiausių vietinių LLM pranašumų yra Tai, kaip jie keičia pokalbį apie duomenų privatumą. Kai bendraujate su debesų pagrindu sukurtu modeliu, jūsų duomenys turi kažkur nueiti. Jis keliauja į internetą, nusileidžia serveryje ir gali būti užregistruotas, talpykloje arba naudojamas tobulinti būsimas modelio iteracijas. Net jei įmonė sako, kad ji greitai ištrina duomenis arba nelaiko jų ilgalaikio, vis tiek dirbate pasitikėjimu.

Vykdymo modeliai tai keičia. Jūsų raginimai niekada nepalieka jūsų įrenginio. Jūsų duomenys nėra dalijami, saugomi ar siunčiami į trečiąsias šalį. Tai ypač labai svarbu kontekste, kai svarbiausia yra konfidencialumas – pagalvokite, kad teisininkai rengia neskelbtinus dokumentus, terapeutus, palaikančius klientų privatumą, arba žurnalistai, saugantys jų šaltinius.

Kartu su tuo, kad net ir galingiausios namų platformos negali paleisti universalių 400B modelių arba Moe llmstai dar labiau pabrėžia labai specializuotų, tiksliai suderintų vietinių modelių poreikį konkrečiems tikslams ir nišoms.

Tai taip pat suteikia vartotojams ramybę. Jums nereikia atspėti, ar jūsų klausimai yra registruojami, ar jūsų turinys yra peržiūrimi. Jūs kontroliuojate modelį, kontroliuojate kontekstą ir kontroliuojate išvestį.

Vietiniai LLM naudojimo atvejai, klesti namuose

Vietiniai LLM ne tik naujovė. Jie yra rimtai naudojami įvairiose srityse-ir kiekvienu atveju vietinis vykdymas suteikia apčiuopiamą, dažnai žaidimą keičiančią naudą:

  • Turinio kūrimas: Vietiniai LLM leidžia kūrėjams dirbti su neskelbtinais dokumentais, prekės ženklo žinučių siuntimo strategijomis ar neišleista medžiaga, nerizikuojant dėl ​​debesų nutekėjimo ar pardavėjų pusės duomenų rinkimo. Redagavimas realiuoju laiku, idėjų generavimas ir tonų reguliavimas įvyksta įrenginiuose, todėl iteracija yra greitesnė ir saugesnė.
  • Programavimo pagalba: Ir inžinieriai, ir Programinės įrangos kūrėjai, dirbantys su patentuotais algoritmaisVidinės bibliotekos arba konfidenciali architektūra gali naudoti vietinius LLM, norėdami generuoti funkcijas, aptikti pažeidžiamumus ar refaktoriaus palikimo kodą, nesukeldami trečiųjų šalių API. Rezultatas? Sumažėjęs IP ir saugesnės dev kilpos poveikis.
  • Kalbos mokymasis: Kalbų modeliai neprisijungę padėti besimokantiesiems imituoti svaiginančias patirtis—Atsliuoklė, gramatikos taisymas ir sklandūs pokalbiai – be debesų platformų, kurios gali registruoti sąveiką. Puikiai tinka besimokantiesiems ribojančiose šalyse arba tie, kurie nori visiškai kontroliuoti savo mokymosi duomenis.
  • Asmeninis produktyvumas: Nuo apibendrinant PDF, užpildytus finansiniais įrašais, iki automatinių el. Laiškų, kuriuose yra privačios kliento informacijos, vietiniai LLM siūlo pritaikytą pagalbą, išlaikant kiekvieną turinio baitą vartotojo mašinoje. Tai atrakina produktyvumą niekada neprekiaujant konfidencialumo.

Kai kurie vartotojai net stato pasirinktines darbo eigas. Jie susieja vietinius modelius, derindami balso įvestį, dokumentų analizę ir duomenų vizualizacijos įrankius, kad sukurtų individualizuotus kopilotus. Šis pritaikymo lygis įmanomas tik tada, kai vartotojai turi visišką prieigą prie pagrindinės sistemos.

Vis dar stovi iššūkiai

Vis dėlto vietiniai LLM nėra be apribojimų. Vykdant didelius modelius vietoje, reikia raumeningos sąrankos. Nors kai kurie optimizacijos padeda sumažinti atminties naudojimą, dauguma vartotojų nešiojamųjų kompiuterių negali patogiai paleisti 13B+ modelių be rimtų kompromisų greičio ar konteksto ilgio.

Taip pat yra iššūkių, susijusių su versijomis ir modelio valdymu. Įsivaizduokite draudimo bendrovę, naudodama vietinius LLMS pasiūlyti „Van Insurance“ klientams. Tai gali būti „saugiau“, tačiau visos integracijos ir derinimas turi būti atliekamas rankiniu Jau turi draudimo informacijąrinkos apžvalgos ir visa kita kaip savo mokymo duomenų dalis.

Tada Yra išvados greičio klausimas. Net ir esant galingoms sąrankoms, vietinės išvados paprastai būna lėtesnės nei API skambučiai, kad būtų galima optimizuoti aukštos kokybės debesies pagrindus. Tai leidžia vietiniams LLM geriau pritaikyti vartotojams, kurie teikia pirmenybę privatumui, o ne greičiui ar mastui.

Vis dėlto optimizavimo pažanga yra įspūdinga. Kiekybiniai modeliai, 4 bitų ir 8 bitų variantai ir kylančios architektūros stabiliai sumažina išteklių spragą. Tobulėjant aparatinei įrangai, daugiau vartotojų vietos LLMS manys.

Vietinė AI, pasaulinė padariniai

Šios pamainos padariniai viršija individualų patogumą. Vietiniai LLM yra platesnio decentralizacijos judėjimo dalis, keičianti tai, kaip mes sąveikaujame su technologijomis. Vietoj išorės intelekto į nuotolinius serverius, Vartotojai susigrąžina skaičiavimo autonomiją. Tai turi didžiulius duomenų suvereniteto pasekmes, ypač tose šalyse, kuriose yra griežtos privatumo taisyklės arba ribota debesų infrastruktūra.

Tai taip pat žingsnis link AI demokratizacijos. Ne visi turi „Premium API“ prenumeratų biudžetą ir su vietinėmis LLM, Verslas gali vykdyti savo stebėjimąbankai gali tapti nepralaidūs įsilaužėliams, o socialinės žiniasklaidos svetainės gali būti neperšaunamos. Jau neminint to, kad tai atveria duris naujovėms, švietimo naudojimui ir eksperimentavimui be biurokratijos.

Žinoma, ne visi naudojimo atvejai gali arba turėtų judėti vietiniais. Įmonių masto darbo krūviai, bendradarbiavimas realiuoju laiku ir didelio našumo programos vis dar bus naudinga centralizuota infrastruktūra. Bet Vietinių LLM augimas suteikia vartotojams daugiau pasirinkimo. Jie gali nuspręsti, kada ir kaip dalijamasi jų duomenimis.

Galutinės mintys

Mes vis dar ankstyvomis vietinės AI dienomis. Dauguma vartotojų tik atranda, kas įmanoma. Bet pagreitis yra tikras. Kūrėjų bendruomenės auga, klesti atvirojo kodo ekosistemos, o įmonės pradeda atkreipti dėmesį.

Kai kurie startuoliai netgi kuria hibridinius modelius-pirmuosius įrankius, kurie sinchronizuoja debesis tik tada, kai reikia. Kiti stato visas platformas aplink vietines išvadas. O pagrindiniai mikroautobusų gamintojai optimizuoja savo produktus, kad būtų konkrečiai patenkinti AI darbo krūvį.

Visas šis poslinkis ne tik keičia tai, kaip mes naudojame AI – tai keičia mūsų santykius su juo. Galų gale vietiniai LLM yra ne tik techninis smalsumas. Jie atspindi filosofinę pasukimą. Tuo, kur privatumas nėra paaukotas dėl patogumo. Ten, kur vartotojams nereikia prekiauti intelekto autonomija. AI grįžta namo ir atneša naują skaitmeninio pasitikėjimo savimi erą.


Source link

Jums tai gali patikti

Daugiau iš autoriaus