Europa încearcă să limiteze utilizarea inteligenței artificiale în societate

Utilizarea recunoașterii faciale pentru supraveghere sau a algoritmilor care manipulează comportamentul uman vor fi interzise în conformitate cu reglementările UE propuse privind inteligența artificială (IA).

Propunerile pe scară largă, care au fost dezvăluite înainte de publicarea lor oficială, au promis, de asemenea, noi reguli dure pentru ceea ce consideră IA cu risc ridicat.

Aceasta include algoritmi utilizați de poliție și în recrutare.

Experții au spus că regulile sunt vagi și conțin lacune.

Utilizarea IA în armată este scutită, la fel ca și sistemele utilizate de autorități pentru a proteja securitatea publică.

Lista sugerată a sistemelor IA interzise include:

  • cele concepute sau utilizate într-un mod care manipulează comportamentul uman, opiniile sau deciziile … determinând o persoană să se comporte, să formeze o opinie sau să ia o decizie în detrimentul lor
  • Sistemele de IA utilizate pentru supravegherea fără discriminare aplicate în mod generalizat
  • Sisteme IA utilizate pentru notarea socială
  • cele care exploatează informații sau predicții și o persoană sau grup de persoane pentru a-și viza vulnerabilitățile

Analistul de politici europene Daniel Leufer a scris pe Twitter că definițiile sunt foarte deschise interpretării.

„Cum putem determina ce este în detrimentul cuiva? Și cine apreciază acest lucru?” el a scris.

Pentru IA considerată a fi cu risc ridicat, statele membre ar trebui să aplice o supraveghere mult mai mare, inclusiv necesitatea de a numi organisme de evaluare pentru a testa, certifica și inspecta aceste sisteme.

Și orice companie care dezvoltă servicii interzise sau nu furnizează informații corecte despre acestea, ar putea primi amenzi de până la 4% din veniturile lor globale, similare amenzilor pentru încălcările GDPR.

Exemplele cu risc ridicat de IA includ:

  • sisteme care stabilesc prioritatea în expedierea serviciilor de urgență
  • sisteme care determină accesul sau atribuirea persoanelor la institutele de învățământ
  • algoritmi de recrutare
  • cele care evaluează solvabilitatea creditului
  • cele pentru efectuarea evaluărilor individuale de risc
  • algoritmi de predicție a criminalității

Dl Leufer a adăugat că propunerile ar trebui „extinse pentru a include toate sistemele de IA din sectorul public, indiferent de nivelul de risc atribuit”.

„Acest lucru se datorează faptului că, de obicei, oamenii nu au de ales dacă vor interacționa sau nu cu un sistem de IA în sectorul public.”

Pe lângă faptul că solicită ca noile sisteme IA să aibă supraveghere umană, CE propune, de asemenea, ca sistemele IA cu risc ridicat să aibă așa-numitul switch switch, care ar putea fi un buton de oprire sau o altă procedură pentru a opri instantaneu sistemul dacă este necesar.

„Furnizorii de IA vor fi extrem de concentrați asupra acestor propuneri, deoarece va necesita o schimbare fundamentală în modul în care este proiectată IA”, a spus Herbert Swaniker, avocat la Clifford Chance.
Între timp, Michael Veale, lector în domeniul drepturilor și reglementărilor digitale la University College London, a subliniat o clauză care va forța organizațiile să dezvăluie atunci când utilizează deepfakes, o utilizare deosebit de controversată a IA pentru a crea oameni falși sau pentru a manipula imagini și videoclipuri ale unor oameni reali .

De asemenea, el a declarat pentru BBC că legislația se adresează în primul rând „vânzătorilor și consultanților care vând – adesea aiurea- tehnologie IA către școli, spitale, poliție și angajatori”.

El a adăugat însă că firmele de tehnologie care foloseau IA „pentru a manipula utilizatorii” ar putea fi nevoite și să își schimbe practicile.

Cu această legislație, CE a trebuit să meargă pe o coardă dificilă între a se asigura că IA este utilizată pentru ceea ce numește „un instrument … cu scopul final de a crește bunăstarea umană” și, de asemenea, să se asigure că nu împiedică țările UE să concureze cu SUA și China în legătură cu inovațiile tehnologice.

Și a recunoscut că IA a informat deja multe aspecte ale vieții noastre.

Centrul European pentru Dreptul non-profit, care a contribuit la Cartea albă a Comisiei Europene privind IA, a declarat pentru BBC că există „o mulțime de neclarități și lacune” în legislația propusă.

„Abordarea UE în ceea ce privește riscul ridicat față de definiția binară este neglijentă în cel mai bun caz și periculoasă în cel mai rău caz, deoarece nu are context și nuanțe necesare pentru complexul ecosistem IA deja existent astăzi.

„În primul rând, Comisia ar trebui să ia în considerare riscurile sistemelor de IA în cadrul unui cadru bazat pe drepturi – ca riscuri pe care le prezintă drepturilor omului, statului de drept și democrației.

„În al doilea rând, comisia ar trebui să respingă o structură de risc scăzut-ridicat simplificată și să ia în considerare o abordare bazată pe niveluri cu privire la nivelurile de risc IA.”

Detaliile s-ar putea schimba din nou înainte ca regulile să fie dezvăluite oficial săptămâna viitoare. Și este puțin probabil să devină lege încă câțiva ani.

Sursa: BBC
Citește și
Spune ce crezi

Adresa de email nu va fi publicata