Inteligența artificială generativă sădește semințele îndoielii în știința serioasă

165

 

În contextul tehnologic, modelele lingvistice mari precum ChatGPT sunt furnizori de plauzibilitate. Roboții de chat, mulți dintre ei bazându-se pe așa-numita inteligență artificială generativă, sunt antrenați să răspundă la întrebările utilizatorilor prin răzuirea internetului pentru informații relevante și asamblarea unor răspunsuri coerente, producând eseuri studențești convingătoare, documente juridice autoritare și știri credibile.

Dar, deoarece datele disponibile în mod public conțin dezinformări şi este posibil ca unele texte generate de mașini să nu fie exacte sau adevărate. Acest lucru a declanșat o luptă pentru a dezvolta instrumente care să identifice dacă textul a fost redactat de un om sau de o mașină. Știința se luptă, de asemenea, să se adapteze la această nouă eră, existând discuții vii cu privire la faptul dacă ar trebui să li se permită chatbots să scrie lucrări științifice sau chiar să genereze noi ipoteze.

Importanța de a distinge inteligența artificială de cea umană

În această lună, analiștii UBS au dezvăluit că ChatGPT a fost aplicația web cu cea mai rapidă creștere din istorie, adunând 100 milioane de utilizatori activi lunar în ianuarie. Unele sectoare au decis că nu are rost să închidă ușa grajdului: luni, Bacalaureatul Internațional a declarat că elevilor li se va permite să folosească ChatGPT pentru a scrie eseuri, cu condiția să facă referire la acesta.

În mod corect, creatorul tehnologiei este sincer în legătură cu limitările sale. Sam Altman, directorul executiv al OpenAI, a avertizat în decembrie că ChatGPT a fost “suficient de bun la unele lucruri pentru a crea o impresie înșelătoare de măreție … mai avem mult de lucru în ceea ce privește robustețea și veridicitatea”. Compania dezvoltă un filigran criptografic pentru rezultatul său, o secvență secretă de punctuație, ortografie și ordine a cuvintelor, care poate fi citită de mașină; și perfecționează un “clasificator” pentru a face diferența între textul sintetic și cel generat de oameni, folosind exemple din ambele pentru a-l antrena.

Eric Mitchell, un student absolvent al Universității Stanford, s-a gândit că un clasificator ar necesita o mulțime de date de antrenament. Împreună cu colegii săi, el a venit cu DetectGPT, o abordare “zero-shot” pentru a identifica diferența, ceea ce înseamnă că metoda nu necesită învățare prealabilă. În schimb, metoda întoarce un chatbot împotriva lui însuși, pentru a-și adulmeca propriile rezultate.

Funcționează în felul următor: DetectGPT întreabă un chatbot cât de mult îi “place” un eșantion de text, “plăcerea” fiind o prescurtare pentru cât de asemănător este eșantionul cu propriile sale creații. DetectGPT merge apoi un pas mai departe – “perturbă” textul, modificând ușor formularea. Se presupune că un chatbot este mai variabil în ceea ce privește “aprecierile” sale față de un text modificat generat de un om decât față de un text modificat de o mașină. În primele teste, cercetătorii susțin că metoda a făcut corect diferența între autorii umani și cei ai mașinilor în 95% din cazuri.

Publicarea științifică este sângele vieții cercetării

Există avertismente: rezultatele nu sunt încă revizuite de colegi; metoda, deși mai bună decât ghicitul la întâmplare, nu a funcționat la fel de fiabil în toate modelele generative AI. DetectGPT ar putea fi păcălit prin modificarea textului sintetic de către oameni.

Ce înseamnă toate acestea pentru știință? Afişarea științifică este sângele vieții cercetării, injectând idei, ipoteze, argumente și dovezi în canonul științific global. Unii s-au grăbit să vadă în ChatGPT un asistent de cercetare, o mână de lucrări menționând în mod controversat IA ca fiind coautor.

Meta a lansat chiar și un generator de text specific științei numit Galactica. Acesta a fost retras trei zile mai târziu. Printre aberațiile pe care le-a produs se număra o istorie fictivă a urșilor care călătoresc în spațiu.

Profesorul Michael Black de la Institutul Max Planck pentru Sisteme Inteligente din Tübingen a scris pe Twitter la momentul respectiv că a fost “tulburat” de răspunsurile date de Galactica la mai multe întrebări despre propriul său domeniu de cercetare, inclusiv atribuirea de lucrări false unor cercetători adevărați. “În toate cazurile, (Galactica) a greșit sau a fost părtinitoare, dar a părut corectă și autoritară. Cred că este periculos”.

Pericolul provine din faptul că textul plauzibil se strecoară în prezentările științifice reale, piperând literatura de specialitate cu citate false și denaturând pentru totdeauna canonul. Revista Science interzice acum în mod categoric textul generat; Nature permite utilizarea acestuia dacă este declarat, dar interzice creditarea ca și coautor.

Apoi, din nou, majoritatea oamenilor nu consultă reviste de înaltă ținută pentru a-și ghida gândirea științifică. În cazul în care cei vicleni ar fi atât de înclinați, acești roboți de chat pot scuipa un flux la cerere de pseudoștiință cu multe citate despre motivul pentru care vaccinarea nu funcționează sau de ce încălzirea globală este o farsă. Acest material înșelător, postat online, poate fi apoi înghițit de viitoarea inteligență artificială generativă pentru a produce o nouă iterație de neadevăruri care să polueze și mai mult discursul public.

 

Sursa – www.ft.com

Financiarul

Fi la curent cu ultimele noutăți financiare. Accesează cele mai relevante știri online pe Financiarul.ro. Va aducem zilnic știri din economice, noutăți interne și externe.  Citește zilnic cele mai noi știri online