Microsoft a anunțat recent o nouă funcționalitate pentru inteligența artificială (AI) care ar putea detecta și corecta declarațiile false sau înșelătoare generate de modele AI. Această inovație ar putea ajuta la combaterea erorilor cunoscute sub numele de „halucinații”, frecvent întâlnite în rezultatele generate de AI.
Noua capacitate, denumită „Correction” (Corecție), este destinată să identifice în timp real inexactitățile din răspunsurile generate de AI și să le corecteze înainte ca utilizatorii să le întâlnească. Microsoft susține că această funcție este unică și inovatoare, oferind o soluție pentru a face ca rezultatele AI să fie mai precise și să alinieze conținutul generat la sursele de date conectate.
Cum funcționează această funcție?
Funcția de corecție scanează răspunsurile generate de AI pentru a identifica părțile inexacte și le evidențiază. Ulterior, utilizează algoritmi de AI pentru a genera o explicație cu privire la motivul pentru care respectiva secțiune este eronată și oferă o versiune corectată a răspunsului, bazată pe surse de date valide.
Această tehnologie este parte a platformei Azure AI Content Safety, care poate fi acum integrată pe diverse dispozitive. Funcția promite să reducă considerabil cazurile în care AI oferă informații incorecte, dar rămâne de văzut cât de eficientă va fi în toate scenariile.
De ce „halucinează” AI?
Modelele de inteligență artificială sunt instruite pe seturi mari de date pentru a face predicții și a genera răspunsuri, însă, ocazional, pot produce rezultate incorecte sau „halucinații”. Aceste erori pot apărea din cauza datelor incomplete sau a unor prejudecăți în seturile de antrenament.
Jesse Kommandeur, analist strategic la Hague Centre for Strategic Studies, compară acest fenomen cu gătitul fără a avea rețeta completă. „AI încearcă să ‘coacă’ un rezultat final (precum un text sau o decizie) bazându-se pe informații incomplete (‘rețete’) pe care le-a învățat,” a explicat el.
Exemple recente de halucinații includ cazuri celebre în care avocați au depus documente juridice false după utilizarea unui model AI, sau când rezumatele generate de Google AI au oferit răspunsuri înșelătoare. O analiză realizată de compania Vectara anul trecut a arătat că modelele AI pot halucina între 3% și 27% din timp, în funcție de instrument.
Poate această tehnologie să rezolve halucinațiile?
Deși această funcționalitate promite să reducă incidența halucinațiilor, unii experți sunt sceptici în privința eliminării complete a acestora. Vasant Dhar, profesor la Stern School of Business din cadrul Universității din New York, subliniază că „AI generează răspunsuri secvențiale pe baza inputurilor și am văzut deja limitările acestui proces”. El adaugă că, deși corecțiile pot reduce erorile, eliminarea lor totală este improbabilă în actuala configurație tehnologică.
„Ideal ar fi ca o companie să poată afirma că reduce un anumit procent de halucinații,” a continuat Dhar, subliniind că pentru a face o astfel de declarație ar fi necesare volume mari de date despre erorile cunoscute și teste riguroase pentru a demonstra eficiența funcției de corecție.
Kommandeur, analizând o lucrare despre această nouă tehnologie publicată de Microsoft, a remarcat că, deși abordarea „pare promițătoare și utilizează o metodologie nouă, tehnologia este încă în curs de dezvoltare și ar putea avea limite.”
Progres incremental, dar cu impact
Microsoft recunoaște că halucinațiile au împiedicat adoptarea pe scară largă a modelelor AI în domenii critice, cum ar fi medicina, unde erorile pot avea consecințe grave. Potrivit companiei, reducerea acestor erori este crucială pentru implementarea AI în astfel de sectoare.
Dhar a subliniat că toate tehnologiile, inclusiv căutările Google, evoluează prin îmbunătățiri incrementale. „După ce produsul principal este gata, următorul pas este să continui să-l îmbunătățești constant,” a explicat el.
Totuși, Kommandeur avertizează că, deși pe termen scurt modelele mari de limbaj (LLMs) aduc valoare în viața de zi cu zi, halucinațiile repetate ar putea deveni o povară pentru companii pe termen lung. „Pe termen lung, investițiile în AI ar putea deveni o problemă dacă modelele continuă să halucineze, mai ales dacă aceste erori duc la dezinformare sau la decizii eronate,” a spus el.
Noua funcție de corecție a Microsoft reprezintă un pas important în direcția îmbunătățirii preciziei modelelor AI. Deși promite să reducă incidența „halucinațiilor” și să facă AI mai de încredere, rămân întrebări cu privire la cât de eficientă va fi în practică și dacă poate elimina complet aceste erori. Deocamdată, îmbunătățirile sunt binevenite, dar viitorul AI va depinde de capacitatea tehnologiei de a depăși aceste provocări.