Un grup de directori executivi și oameni de știință de la companii, inclusiv OpenAI și Google DeepMind, a avertizat că amenințarea la adresa umanității din partea tehnologiei în curs de dezvoltare rapidă rivalizează cu cea a conflictelor nucleare și a bolilor.
„Atenuarea riscului de extincție din cauza IA ar trebui să fie o prioritate globală, alături de alte riscuri la scară societală, cum ar fi pandemiile și războiul nuclear”, a declarat o declarație publicată de Centrul pentru siguranța IA, o organizație non-profit cu sediul în San Francisco.
Mai mult de 350 de directori, cercetători și ingineri de IA, printre care Sam Altman de la OpenAI, Demis Hassabis de la Google DeepMind și Dario Amodei de la Anthropic, au fost semnatari ai declarației de o singură frază.
Geoffrey Hinton și Yoshua Bengio, care au câștigat un premiu Turing pentru munca lor în domeniul rețelelor neuronale și sunt adesea descriși drept „nașii” inteligenței artificiale, au semnat, de asemenea, documentul. Hinton și-a părăsit poziția la Google la începutul lunii pentru a vorbi liber despre potențialele prejudicii ale tehnologiei.
Declarația urmează apelurilor de reglementare în întregul sector după ce o serie de lansări de inteligență artificială de la companiile Big Tech au sporit gradul de conștientizare a potențialelor sale defecte, inclusiv răspândirea de informații eronate, perpetuarea prejudecăților sociale și înlocuirea lucrătorilor.
Legiuitorii UE avansează cu Legea europeană privind inteligența artificială, în timp ce SUA explorează, de asemenea, reglementarea.
ChatGPT al OpenAI susținut de Microsoft, lansat în noiembrie, este văzut ca fiind lider în adoptarea pe scară largă a inteligenței artificiale. Luna aceasta, Altman a depus mărturie pentru prima dată în Congresul SUA, solicitând o reglementare sub formă de licențe.
În martie, Elon Musk și peste 1.000 de alți cercetători și directori din domeniul tehnologiei au cerut o pauză de șase luni în dezvoltarea sistemelor avansate de inteligență artificială pentru a opri ceea ce au numit o „cursă a înarmării”.
Scrisoarea a fost criticată pentru abordarea sa, inclusiv de către unii cercetători citați în cadrul raționamentului său, în timp ce alții nu au fost de acord cu pauza recomandată pentru această tehnologie.
Prin declarația de un singur rând, Centrul pentru siguranța IA a declarat pentru New York Times că spera să evite dezacordul.
„Nu am vrut să facem presiuni pentru un meniu foarte mare de 30 de intervenții potențiale”, a declarat directorul executiv Dan Hendrycks. „Când se întâmplă acest lucru, se diluează mesajul”.
Kevin Scott, directorul tehnologic al Microsoft, și Eric Horvitz, directorul său științific, au semnat, de asemenea, declarația marți, la fel ca și Mustafa Suleyman, fostul co-fondator al Deepmind, care acum conduce start-up-ul Inflection AI.
Sursa – www.ft.com