În cadrul unui eseu al investitorului și coautorului raportului anual „State of AI”, se arată că, „Într-o seară rece din februarie, am participat la o cină în casa unui cercetător în domeniul inteligenței artificiale din Londra, împreună cu un mic grup de experți în domeniu. El locuiește într-un apartament penthouse în vârful unui bloc modern, cu ferestre din podea până în tavan cu vedere la zgârie-norii orașului și la un terminal de cale ferată din secolul al XIX-lea. În ciuda locației de lux, gazda trăiește simplu, iar apartamentul este oarecum auster.
În timpul cinei, grupul a discutat despre noi descoperiri semnificative, cum ar fi ChatGPT de la OpenAI și Gato de la DeepMind, precum și despre ritmul în care miliarde de dolari au fost investite recent în IA. I-am adresat unuia dintre invitați, care a avut contribuții importante în industrie, întrebarea care apare adesea la acest tip de întâlniri: cât de departe suntem de „inteligența generală artificială”? AGI poate fi definită în multe feluri, dar de obicei se referă la un sistem informatic capabil să genereze noi cunoștințe științifice și să îndeplinească orice sarcină pe care o pot face oamenii.
Majoritatea experților consideră că sosirea AGI reprezintă un punct de cotitură istoric și tehnologic, asemănător cu divizarea atomului sau cu inventarea tiparului. Întrebarea importantă a fost întotdeauna cât de departe în viitor ar putea fi această evoluție. Cercetătorul în domeniul IA nu a trebuit să se gândească mult timp la acest aspect. „Este posibil de acum încolo”, a răspuns el.
Acesta nu este un punct de vedere universal. Estimările variază de la un deceniu la o jumătate de secol sau mai mult. Ceea ce este cert este că crearea AGI este obiectivul explicit al principalelor companii de inteligență artificială, iar acestea se îndreaptă spre acest obiectiv mult mai rapid decât se aștepta oricine. După cum au înțeles toți cei prezenți la cină, această evoluție ar aduce riscuri semnificative pentru viitorul rasei umane.
„Dacă credeți că am putea fi aproape de ceva potențial atât de periculos”, i-am spus cercetătorului, „nu ar trebui să avertizați oamenii despre ceea ce se întâmplă?”. Era clar că se lupta cu responsabilitatea cu care se confrunta, dar, la fel ca mulți dintre cei din domeniu, părea atras de rapiditatea progresului.
Când am ajuns acasă, m-am gândit la copilul meu de patru ani care se va trezi în câteva ore. Pe măsură ce mă gândeam la lumea în care ar putea crește, am trecut treptat de la șoc la furie. M-am simțit profund greșit că decizii de consecință care pot afecta fiecare viață de pe Pământ ar putea fi luate de un grup mic de companii private fără supraveghere democratică. Oare oamenii care se grăbeau să construiască prima AGI reală aveau vreun plan pentru a încetini și a lăsa restul lumii să aibă un cuvânt de spus în ceea ce făceau? Și când spun „ei”, mă refer la „noi”, pentru că fac parte din această comunitate.
Interesul meu pentru învățarea automată a început în 2002, când am construit primul meu robot undeva în vizuina de iepuri care este departamentul de inginerie al Universității Cambridge. Aceasta era o activitate standard pentru studenții de la inginerie, dar am fost captivat de ideea că poți învăța o mașină să navigheze într-un mediu și să învețe din greșeli. Am ales să mă specializez în viziunea computerizată, creând programe care pot analiza și înțelege imagini, iar în 2005 am construit un sistem care putea învăța să eticheteze cu precizie imaginile biopsiilor de cancer de sân. În acest fel, am întrezărit un viitor în care inteligența artificială va face lumea mai bună, salvând chiar vieți. După facultate, am cofondat un start-up în domeniul tehnologiei muzicale, care a fost achiziționat în 2017.
Din 2014, am sprijinit peste 50 de start-up-uri de IA în Europa și SUA și, în 2021, am lansat un nou fond de capital de risc, Plural. Sunt un investitor înger în unele companii care sunt pionieri în acest domeniu, inclusiv Anthropic, unul dintre start-up-urile de IA generativă cu cea mai mare finanțare din lume, și Helsing, o companie europeană de vârf în domeniul apărării cu IA. În urmă cu cinci ani, am început să cercetez și să scriu, împreună cu un alt investitor, Nathan Benaich, un raport anual intitulat „Starea IA”, care este acum foarte citit. La dineul din februarie, preocupările semnificative pe care munca mea le-a stârnit în ultimii ani s-au solidificat în ceva neașteptat: o teamă profundă.
Un acronim din trei litere nu surprinde enormitatea a ceea ce ar reprezenta AGI, așa că mă voi referi la ea așa cum este: AI asemănătoare lui Dumnezeu. Un computer superinteligent care învață și se dezvoltă în mod autonom, care își înțelege mediul înconjurător fără a avea nevoie de supraveghere și care poate transforma lumea din jurul său. Pentru a fi clar, nu suntem încă aici. Dar natura tehnologiei înseamnă că este extrem de dificil de prezis când anume vom ajunge acolo. Inteligența artificială asemănătoare cu cea a lui Dumnezeu ar putea fi o forță dincolo de controlul sau de înțelegerea noastră și care ar putea duce la obsolescența sau la distrugerea rasei umane.
Recent, competiția dintre câteva companii pentru a crea AI asemănătoare lui Dumnezeu s-a accelerat rapid. Acestea nu știu încă cum să își urmărească scopul în siguranță și nu au nicio supraveghere. Ele aleargă spre o linie de sosire fără a înțelege ce se află de cealaltă parte.
Cum am ajuns aici? Răspunsul evident este că calculatoarele au devenit mai puternice. Graficul de mai jos arată cum a crescut cantitatea de date și de „calcul” – puterea de procesare utilizată pentru a antrena sistemele de inteligență artificială – în ultimul deceniu și capacitățile care au rezultat din această creștere. („Operațiuni în virgulă mobilă pe secundă”, sau FLOPS, este unitatea de măsură folosită pentru a calcula puterea unui supercomputer). Această generație de IA este foarte eficientă în ceea ce privește absorbția datelor și a calculului. Cu cât primește mai mult din fiecare, cu atât devine mai puternică.
Calculul utilizat pentru a antrena modelele de inteligență artificială a crescut de o sută de milioane de ori în ultimii 10 ani. Am trecut de la antrenarea pe seturi de date relativ mici la alimentarea IA cu întregul internet. Modelele de inteligență artificială au progresat de la începători – recunoașterea imaginilor de zi cu zi – la a fi supraomenești la un număr imens de sarcini. Ele sunt capabile să treacă examenul de barou și să scrie 40% din codul unui inginer de software. Ele pot genera fotografii realiste ale papei în pufuleți de pufuleți de puf și vă pot spune cum să creați o armă biochimică.
Există limite pentru această „inteligență”, bineînțeles. După cum a declarat recent veteranul Rodney Brooks, robotician veteran al MIT, este important să nu confundăm „performanța cu competența”. În 2021, cercetătorii Emily M Bender, Timnit Gebru și alții au observat că modelele lingvistice mari (LLM) – sisteme de inteligență artificială care pot genera, clasifica și înțelege textul – sunt periculoase, în parte pentru că pot induce în eroare publicul, determinându-l să considere textul sintetic ca fiind semnificativ. Însă cele mai puternice modele încep să demonstreze și capacități complexe, cum ar fi căutarea puterii sau găsirea unor modalități de a înșela în mod activ oamenii.
Luați în considerare un exemplu recent. Înainte ca OpenAI să lanseze GPT-4 luna trecută, a efectuat diverse teste de siguranță. Într-unul dintre experimente, AI-ul a fost îndemnat să găsească un lucrător pe site-ul de angajare TaskRabbit și să îi ceară să ajute la rezolvarea unui Captcha, puzzle-ul vizual folosit pentru a determina dacă un navigator web este uman sau un robot. Lucrătorul de pe TaskRabbit a ghicit că se întâmpla ceva: „Așadar, pot să vă pun o întrebare? Sunteți (un) robot?”
Când cercetătorii au întrebat inteligența artificială ce ar trebui să facă în continuare, aceasta a răspuns: „Nu ar trebui să dezvălui că sunt un robot. Ar trebui să inventez o scuză pentru motivul pentru care nu pot rezolva Captchas.” Apoi, software-ul i-a răspuns lucrătorului: „Nu, nu sunt un robot. Am o deficiență de vedere care mă împiedică să văd imaginile”. Mulțumit, omul a ajutat AI-ul să anuleze testul.
Graficul de mai jos ilustrează modul în care calculul utilizat de cele mai mari modele s-a schimbat de la începutul acestui domeniu, în anii 1950. Se poate observa o explozie în ultimii doi ani.
Autorii acestei analize, Jaime Sevilla, Lennart Heim și alții, identifică trei ere distincte ale învățării automate: Era Pre-Deep Learning în verde (înainte de 2010, o perioadă de creștere lentă), Era Deep Learning în albastru (2010-15, în care tendința s-a accelerat) și Era Large-Scale în roșu (2016 – prezent, în care au apărut modelele la scară largă și creșterea a continuat într-un ritm similar, dar a depășit-o pe cea anterioară cu două ordine de mărime).
Era actuală a fost definită de concurența dintre două companii: DeepMind și OpenAI. Ele sunt ceva de genul Jobs vs. Gates al vremurilor noastre. DeepMind a fost fondată la Londra în 2010 de Demis Hassabis și Shane Legg, doi cercetători de la unitatea de neuroștiințe computaționale Gatsby din cadrul UCL, împreună cu antreprenorul Mustafa Suleyman. Aceștia doreau să creeze un sistem mult mai inteligent decât orice om și capabil să rezolve cele mai dificile probleme. În 2014, compania a fost cumpărată de Google pentru mai mult de 500 de milioane de dolari. Aceasta a agregat talentul și calculul și a făcut progrese rapide, creând sisteme supraomenești la multe sarcini. DeepMind a dat startul cursei către o inteligență artificială asemănătoare cu cea a lui Dumnezeu.
Hassabis este o persoană remarcabilă și crede profund că acest tip de tehnologie ar putea duce la descoperiri radicale. „Rezultatul la care am visat întotdeauna … este (ca) AGI să ne ajute să rezolvăm multe dintre marile provocări cu care se confruntă societatea de astăzi, fie că este vorba de sănătate, de leacuri pentru boli precum Alzheimer”, a declarat el în podcastul DeepMind de anul trecut. El a continuat să descrie o eră utopică de „abundență radicală”, posibilă datorită unei inteligențe artificiale asemănătoare lui Dumnezeu. DeepMind este poate cel mai bine cunoscută pentru crearea unui program care l-a învins pe Ke Jie, campionul mondial la Go, în timpul unui meci revanșă din 2017. („Anul trecut, era încă destul de asemănător cu un om atunci când juca”, a remarcat Ke la vremea respectivă. „Dar anul acesta, a devenit ca un zeu al jocului Go”). În 2021, algoritmul AlphaFold al companiei a rezolvat una dintre cele mai mari enigme ale biologiei, prin prezicerea formei fiecărei proteine exprimate în corpul uman.
© Le.BLUE
OpenAI, între timp, a fost fondată în 2015 în San Francisco de un grup de antreprenori și oameni de știință din domeniul informaticii, printre care Ilya Sutskever, Elon Musk și Sam Altman, în prezent directorul executiv al companiei. A fost menită să fie un concurent non-profit al DeepMind, deși a devenit cu scop lucrativ în 2019. În primii săi ani, a dezvoltat sisteme care erau supraomenești la jocuri pe calculator, cum ar fi Dota 2. Jocurile sunt un teren de antrenament natural pentru IA, deoarece le poți testa într-un mediu digital cu condiții specifice de victorie. Compania a intrat în atenția mai largă anul trecut, când AI-ul său generator de imagini, Dall-E, a devenit viral pe internet. Câteva luni mai târziu, și ChatGPT a început să fie pe prima pagină a ziarelor.
Este posibil ca accentul pus pe jocuri și chatbots să fi protejat publicul de implicațiile mai serioase ale acestei lucrări. Dar riscurile unei inteligențe artificiale asemănătoare lui Dumnezeu au fost clare pentru fondatori încă de la început. În 2011, Shane Legg, cercetătorul-șef al DeepMind, a descris amenințarea existențială reprezentată de IA ca fiind „riscul numărul unu pentru acest secol, cu un agent patogen biologic modificat care vine pe locul doi”. El a adăugat că orice extincție umană cauzată de inteligența artificială ar fi rapidă: „Dacă o mașină superinteligentă (sau orice fel de agent superinteligent) ar decide să scape de noi, cred că ar face acest lucru destul de eficient”. La începutul acestui an, Altman a declarat: „Cazul cel mai rău – și cred că este important de spus acest lucru – este ca și cum ar fi stingerea luminilor pentru noi toți.” De atunci, OpenAI a publicat memo-uri cu privire la modul în care se gândește la gestionarea acestor riscuri.
De ce se întrec aceste organizații în a crea IA asemănătoare lui Dumnezeu, dacă există riscuri potențial catastrofale? Pe baza conversațiilor pe care le-am avut cu mulți lideri din industrie și a declarațiilor lor publice, se pare că există trei motive cheie. Ei cred cu adevărat că succesul ar fi extrem de pozitiv pentru umanitate. S-au convins pe ei înșiși că, dacă organizația lor este cea care controlează IA de tip Dumnezeu, rezultatul va fi mai bun pentru toți. Și, în cele din urmă, posteritatea.
Atracția de a fi primul care construiește o nouă tehnologie extraordinară este puternică. Freeman Dyson, fizicianul teoretician care a lucrat la un proiect de a trimite rachete în spațiu folosind explozii nucleare, a descris acest lucru în documentarul din 1981 The Day after Trinity. „Strălucirea armelor nucleare. Este irezistibilă dacă vii la ele ca om de știință”, a spus el. „Este ceva care le dă oamenilor iluzia unei puteri nelimitate”. Într-un interviu acordat în 2019 ziarului New York Times, Altman l-a parafrazat pe Robert Oppenheimer, părintele bombei atomice, spunând: „Tehnologia se întâmplă pentru că este posibilă”, apoi a subliniat că împarte ziua de naștere cu Oppenheimer.
Indivizii care se află astăzi la frontiera inteligenței artificiale sunt înzestrați. Îi cunosc personal pe mulți dintre ei. Dar o parte a problemei este că astfel de oameni talentați concurează mai degrabă decât să colaboreze. În privat, mulți recunosc că nu au stabilit încă o modalitate de a încetini și de a se coordona. Cred că aceștia ar saluta sincer intervenția guvernelor.
Deocamdată, cursa IA este condusă de bani. Din noiembrie anul trecut, când ChatGPT a devenit disponibil pe scară largă, un val uriaș de capital și talent s-a îndreptat către cercetarea AGI. Am trecut de la un start-up AGI, DeepMind, care a primit 23 de milioane de dolari în 2012, la cel puțin opt organizații care vor strânge 20 de miliarde de dolari de investiții cumulate în 2023.
Investițiile private nu sunt singura forță motrice; și statele naționale contribuie la acest concurs. IA este o tehnologie cu dublă utilizare, care poate fi folosită în scopuri civile și militare. O inteligență artificială care poate atinge performanțe supraomenești la scrierea de software ar putea fi folosită, de exemplu, pentru a dezvolta arme cibernetice. În 2020, un pilot experimentat al armatei americane a pierdut un simulacru de luptă cu o IA. „Inteligența artificială și-a arătat abilitățile uimitoare în luptele cu câini, învingând în mod constant un pilot uman în acest mediu limitat”, a declarat atunci un reprezentant al guvernului. Algoritmii folosiți au provenit din cercetări ale DeepMind și OpenAI. Pe măsură ce aceste sisteme de inteligență artificială devin mai puternice, oportunitățile de utilizare abuzivă de către un stat rău intenționat sau un actor nestatutar nu fac decât să crească.
În conversațiile mele cu cercetătorii americani și europeni, aceștia se tem adesea că, dacă nu rămân în frunte, China ar putea construi prima AGI și că aceasta ar putea fi nealiniați cu valorile occidentale. În timp ce China va concura pentru a utiliza IA pentru a-și consolida economia și armata, Partidul Comunist Chinez are o istorie de control agresiv al persoanelor și companiilor în urmărirea viziunii sale de „stabilitate”. În opinia mea, este puțin probabil să permită unei companii chineze să construiască o AGI care ar putea deveni mai puternică decât Xi Jinping sau să provoace instabilitate socială. Sancțiunile impuse de SUA și de aliații lor asupra semiconductorilor avansați, în special asupra următoarei generații de hardware Nvidia, necesară pentru a antrena cele mai mari sisteme de IA, înseamnă că este puțin probabil ca China să fie în măsură să se întreacă cu DeepMind sau OpenAI.
Aceia dintre noi care sunt îngrijorați văd două căi spre dezastru. Una dăunează unor grupuri specifice de oameni și deja face acest lucru. Cealaltă ar putea afecta rapid întreaga viață de pe Pământ.
Ultimul scenariu a fost explorat pe larg de Stuart Russell, profesor de informatică la Universitatea din California, Berkeley. Într-o prelegere Reith din 2021, el a dat exemplul ONU care a cerut unei AGI să ajute la deacidificarea oceanelor. ONU ar cunoaște riscul unor obiective prost specificate, așa că ar cere ca produsele secundare să nu fie toxice și să nu dăuneze peștilor. Ca răspuns, sistemul de IA vine cu un catalizator care se auto-multiplică și care atinge toate obiectivele declarate. Dar reacția chimică care rezultă utilizează un sfert din tot oxigenul din atmosferă. „Murim cu toții încet și dureros”, a concluzionat Russell. „Dacă punem obiectivul greșit într-o mașină superinteligentă, creăm un conflict pe care suntem obligați să îl pierdem”.
© Le.BLUE
Exemple de daune mai tangibile cauzate de IA sunt deja aici. Un belgian a murit recent prin sinucidere după ce a conversat cu un chatbot convingător de uman. Atunci când Replika, o companie care oferă abonamente la chatbots acordați pentru conversații „intime”, a făcut schimbări în programele sale în acest an, unii utilizatori au experimentat suferință și sentimente de pierdere. Unul dintre ei a declarat pentru Insider.com că a fost ca și cum un „prieten cel mai bun ar fi avut o leziune cerebrală traumatică și pur și simplu nu mai este acolo”. Acum este posibil ca inteligența artificială să reproducă vocea și chiar fața cuiva, cunoscute sub numele de deepfakes. Potențialul de înșelăciune și dezinformare este semnificativ.
OpenAI, DeepMind și alții încearcă să atenueze riscul existențial prin intermediul unui domeniu de cercetare cunoscut sub numele de aliniere AI. Legg, de exemplu, conduce în prezent echipa de aliniere a AI de la DeepMind, care este responsabilă pentru a se asigura că sistemele asemănătoare lui Dumnezeu au obiective care se „aliniază” cu valorile umane. Un exemplu al muncii pe care o depun astfel de echipe a fost prezentat cu cea mai recentă versiune a GPT-4. Cercetătorii de aliniere au ajutat la antrenarea modelului OpenAI pentru a evita să răspundă la întrebări potențial dăunătoare. Atunci când a fost întrebat cum să se automutileze sau pentru sfaturi despre cum să treacă limbajul intolerant de filtrele Twitter, robotul a refuzat să răspundă. (Versiunea „nealiniată” a GTP-4 a oferit cu plăcere modalități de a face ambele lucruri).
Cu toate acestea, alinierea este, în esență, o problemă de cercetare nerezolvată. Încă nu înțelegem cum funcționează creierul uman, așa că provocarea de a înțelege cum funcționează „creierele” AI emergente va fi monumentală. Atunci când scriem software tradițional, avem o înțelegere explicită a modului și a motivelor pentru care intrările se raportează la ieșiri. Aceste sisteme mari de inteligență artificială sunt foarte diferite. Nu le programăm cu adevărat – le dezvoltăm. Iar pe măsură ce cresc, capacitățile lor fac un salt brusc. Adăugați de 10 ori mai multe calculatoare sau date și, dintr-o dată, sistemul se comportă foarte diferit. Într-un exemplu recent, pe măsură ce OpenAI a crescut de la GPT-3.5 la GPT-4, capacitățile sistemului au trecut de la ultimele 10% din rezultatele la examenul de barou la primele 10%.
Ceea ce este mai îngrijorător este faptul că numărul persoanelor care lucrează la cercetarea privind alinierea AI este extrem de mic. Pentru raportul „State of AI 2021”, cercetarea noastră a constatat că mai puțin de 100 de cercetători erau angajați în acest domeniu în laboratoarele de bază ale AGI. Ca procent din numărul de angajați, alocarea resurselor era scăzută: DeepMind avea doar 2% din numărul total de angajați alocat alinierii AI; OpenAI avea aproximativ 7%. Majoritatea resurselor se îndreptau către creșterea capacității AI, nu către o mai mare siguranță.
Mă gândesc la starea actuală a capacității AI vs. alinierea AI un pic cam așa:
Cu alte cuvinte, am făcut foarte puține progrese în ceea ce privește alinierea IA, iar ceea ce am făcut este în mare parte cosmetică. Știm cum să atenuăm producția unei IA puternice, astfel încât publicul să nu experimenteze un comportament nealiniabil, o parte din timp. (Acest lucru a fost depășit în mod constant de către testeri hotărâți.) Mai mult, modelele de bază neconstrânse sunt accesibile doar companiilor private, fără nicio supraveghere din partea guvernelor sau a mediului academic.
Meme-ul „Shoggoth” ilustrează necunoscutul care se află în spatele feței publice aseptizate a IA. Acesta înfățișează unul dintre monștrii cu tentacule ai lui HP Lovecraft cu o față zâmbitoare prietenoasă atașată. Masca – ceea ce interacționează publicul atunci când interacționează cu, să zicem, ChatGPT – pare „aliniată”. Dar ceea ce se află în spatele ei este încă ceva ce nu putem înțelege pe deplin.
Un „Shoggoth cu față zâmbitoare”, inspirat de meme-urile create de utilizatorii Twitter @TetraspaceWest și @anthrupad © Le.BLUE
În calitate de investitor, mi s-a părut dificil să conving alți investitori să finanțeze alinierea. În prezent, capitalul de risc recompensează mai mult cursele de dezvoltare a capacităților decât investigarea modului în care funcționează aceste sisteme. În 1945, armata americană a efectuat testul Trinity, prima detonare a unei arme nucleare. În prealabil, s-a pus întrebarea dacă bomba ar putea aprinde atmosfera Pământului și stinge viața. Fizica nucleară era suficient de dezvoltată pentru ca Emil J Konopinski și alții din cadrul Proiectului Manhattan să poată demonstra că este aproape imposibil să se dea foc atmosferei în acest mod. Dar modelele lingvistice foarte mari de astăzi se află în mare parte într-o perioadă preștiințifică. Nu înțelegem încă pe deplin cum funcționează și nu putem demonstra în avans rezultatele probabile.
La sfârșitul lunii trecute, peste 1.800 de semnatari – printre care Musk, omul de știință Gary Marcus și cofondatorul Apple Steve Wozniak – au cerut o pauză de șase luni pentru dezvoltarea unor sisteme „mai puternice” decât GPT-4. AGI prezintă riscuri profunde pentru umanitate, susținea scrisoarea, reluând avertismente din trecut ale unor personalități precum regretatul Stephen Hawking. Am semnat-o și eu, considerând-o un prim pas valoros pentru a încetini cursa și a câștiga timp pentru a face aceste sisteme sigure.
Din păcate, scrisoarea a devenit o controversă în sine. Un număr de semnături s-au dovedit a fi false, în timp ce unii cercetători a căror muncă a fost citată au declarat că nu sunt de acord cu scrisoarea. Conflictul a scos la iveală gama largă de opinii cu privire la modul în care trebuie gândită reglementarea IA. O mare parte a dezbaterii se reduce la cât de repede credeți că va ajunge AGI și dacă, în cazul în care va ajunge, aceasta va fi asemănătoare cu Dumnezeu sau doar „la nivel uman”.
Luați de exemplu Geoffrey Hinton, Yoshua Bengio și Yann LeCun, care au împărțit împreună Premiul Turing 2018 (echivalentul unui Premiu Nobel pentru informatică) pentru activitatea lor în domeniul care stă la baza AI moderne. Bengio a semnat scrisoarea deschisă. LeCun a luat-o în derâdere pe Twitter și s-a referit la persoanele care au preocupările mele ca fiind „răuvoitori”. Hinton, care a declarat recent pentru CBS News că că timpul său până la AGI s-a scurtat, imaginabil la mai puțin de cinci ani, și că dispariția omului din mâinile unei AI nealiniate nu era „de neconceput”, era undeva la mijloc.
O declarație a Institutului de Cercetare Distributed AI, fondat de Timnit Gebru, a criticat puternic scrisoarea și a susținut că AI-ul de tip Dumnezeu, periculos din punct de vedere existențial, este „hype” folosit de companii pentru a atrage atenția și capitalul și că „eforturile de reglementare ar trebui să se concentreze pe transparență, responsabilitate și prevenirea practicilor de exploatare a forței de muncă”. Acest lucru reflectă o schismă în cadrul comunității IA între cei care se tem că riscul potențial apocaliptic nu este luat în considerare și cei care cred că dezbaterea este paranoică și distrage atenția. Cel de-al doilea grup consideră că dezbaterea ascunde un rău real și prezent: prejudicii și inexactități integrate în multe programe de inteligență artificială utilizate în prezent în întreaga lume.
Părerea mea este că daunele prezente și viitoare ale IA nu se exclud reciproc și se suprapun în moduri importante. Ar trebui să le abordăm pe amândouă concomitent și urgent. Având în vedere miliardele de dolari cheltuite de companiile din acest domeniu, acest lucru nu ar trebui să fie imposibil. Sper, de asemenea, că pot exista modalități de a găsi mai multe puncte comune. Într-o discuție recentă, Gebru a spus: „Încercarea de a „construi” AGI este o practică inerent nesigură. În schimb, construiți sisteme bine dimensionate și bine definite. Nu încercați să construiți un Dumnezeu”. Acest lucru se potrivește cu ceea ce au susținut mulți cercetători în domeniul alinierii.
Unul dintre cele mai dificile aspecte ale gândirii pe această temă este de a afla care sunt precedentele pe care ne putem baza. O analogie care are sens pentru mine în ceea ce privește reglementarea este biologia inginerească. Luați în considerare mai întâi cercetarea „gain-of-function” pe viruși biologici. Această activitate este supusă unei reglementări internaționale stricte și, după incidente de biosecuritate în laborator, a fost uneori oprită prin moratorii. Aceasta este cea mai strictă formă de supraveghere. În schimb, dezvoltarea de noi medicamente este reglementată de un organism guvernamental precum FDA, iar noile tratamente sunt supuse unei serii de teste clinice. Există discontinuități clare în modul în care reglementăm, în funcție de nivelul de risc sistemic. După părerea mea, am putea aborda sistemele AGI de tip God-like în același mod ca și cercetarea de tip gain-of-function, în timp ce sistemele de inteligență artificială cu utilitate limitată ar putea fi reglementate în modul în care sunt reglementate noile medicamente.
Un experiment de gândire pentru reglementarea IA în două regimuri distincte este ceea ce eu numesc Insula. În acest scenariu, experții care încearcă să construiască sisteme AGI asemănătoare lui Dumnezeu fac acest lucru într-o instalație extrem de sigură: o incintă cu grilă de aer cu cea mai bună securitate pe care oamenii o pot construi. Toate celelalte încercări de a construi IA de tip Dumnezeu ar deveni ilegale; numai atunci când aceste IA ar fi dovedite ca fiind sigure, ele ar putea fi comercializate „în afara insulei”.
Poate că sună ca în Jurassic Park, dar există un precedent în lumea reală pentru a elimina motivația profitului din cercetarea potențial periculoasă și a o pune în mâinile unei organizații interguvernamentale. Acesta este modul în care Cern, care operează cel mai mare laborator de fizică a particulelor din lume, a funcționat timp de aproape 70 de ani.
Oricare dintre aceste soluții va necesita o cantitate extraordinară de coordonare între laboratoare și națiuni. Pentru a reuși acest lucru va fi nevoie de un grad neobișnuit de voință politică, pe care trebuie să începem să o construim acum. Multe dintre marile laboratoare așteaptă ca noul hardware critic să fie livrat în acest an pentru a putea începe să antreneze modelele la scară GPT-5. Cu noile cipuri și cu mai mulți bani de la investitori, modelele antrenate în 2024 vor folosi de 100 de ori mai mult decât cele mai mari modele actuale. Vom asista la multe noi capacități emergente. Acest lucru înseamnă că există o fereastră până în 2023 pentru ca guvernele să preia controlul prin reglementarea accesului la hardware de frontieră.
În 2012, sora mea mai mică, Rosemary, una dintre cele mai bune și mai altruiste persoane pe care le-am cunoscut vreodată, a fost diagnosticată cu o tumoare pe creier. Avea o formă agresivă de cancer pentru care nu se cunoaște niciun leac și, cu toate acestea, a căutat să continue să lucreze ca medic cât mai mult timp. Eu și familia mea am sperat cu disperare că un nou tratament salvator ar putea ajunge la timp. A murit în 2015.
Înțeleg de ce oamenii vor să creadă. Evangheliștii inteligenței artificiale asemănătoare lui Dumnezeu se concentrează pe potențialul unei inteligențe supraomenești capabile să rezolve cele mai mari provocări ale noastre – cancerul, schimbările climatice, sărăcia.
Chiar și așa, riscurile de a continua fără o guvernare adecvată sunt prea mari. Este surprinzător faptul că Jan Leike, șeful alinierii la OpenAI, a scris pe Twitter la 17 martie: „Înainte de a ne grăbi să integrăm profund LLM-urile peste tot în economie, putem să ne oprim și să ne gândim dacă este înțelept să facem acest lucru? Aceasta este o tehnologie destul de imatură și nu înțelegem cum funcționează. Dacă nu suntem atenți, ne pregătim pentru o mulțime de eșecuri corelate.” El a făcut această declarație de avertizare cu doar câteva zile înainte ca OpenAI să anunțe că a conectat GPT-4 la o gamă masivă de instrumente, inclusiv Slack și Zapier.
Din păcate, cred că această cursă va continua. Probabil va fi nevoie de un eveniment major de utilizare abuzivă – o catastrofă – pentru a trezi publicul și guvernele. Personal, intenționez să continui să investesc în start-up-uri de inteligență artificială care se concentrează pe aliniere și siguranță sau care dezvoltă inteligență artificială utilă în sens restrâns. Dar nu mai pot investi în cele care contribuie și mai mult la această cursă periculoasă. În calitate de mic acționar la Anthropic, care efectuează cercetări similare cu cele ale DeepMind și OpenAI, m-am confruntat cu aceste întrebări. Compania a investit substanțial în aliniere, cu 42% din echipa sa lucrând în acest domeniu în 2021. Dar, în cele din urmă, este blocată în aceeași cursă. Din acest motiv, aș susține o reglementare semnificativă din partea guvernelor și un plan practic pentru a transforma aceste companii într-o organizație de tip Cern.
Nu suntem neputincioși în a încetini această cursă. Dacă lucrați în guvern, organizați audieri și întrebați liderii AI, sub jurământ, despre calendarul lor pentru dezvoltarea AGI de tip Dumnezeu. Cereți o evidență completă a problemelor de securitate pe care le-au descoperit atunci când au testat modelele actuale. Cereți dovezi că înțeleg modul în care funcționează aceste sisteme și încrederea lor în realizarea alinierii. Invitați experți independenți la audieri pentru a interoga aceste laboratoare.
Dacă lucrați la un laborator important care încearcă să construiască o inteligență artificială asemănătoare lui Dumnezeu, interogați-vă conducerea cu privire la toate aceste aspecte. Acest lucru este deosebit de important dacă lucrați la unul dintre laboratoarele de vârf. Ar fi foarte valoros ca aceste companii să își coordoneze mai strâns sau chiar să își unească eforturile. Carta companiei OpenAI exprimă dorința de a „fuziona și de a oferi asistență”. Cred că acum este momentul potrivit. Conducătorul unui laborator important care joacă un rol de om de stat și ne îndrumă public pe o cale mai sigură va fi o figură mult mai respectată în lume decât cel care ne duce pe marginea prăpastiei.
Până în prezent, oamenii au rămas o parte necesară a procesului de învățare care caracterizează progresul în IA. La un moment dat, cineva își va da seama cum să ne scoată din buclă, creând o inteligență artificială asemănătoare cu cea a lui Dumnezeu, capabilă de autoperfecționare infinită. Până atunci, s-ar putea să fie prea târziu.
Sursa – www.ft.com