Microsoft a retras un robot educativ „corupt” de internauţi

Un robot Microsoft dotat cu inteligenţă artificială şi capabil să o extindă prin interacţiunea cu internauţii a fost retras joi de grupul informatic din SUA după ce au sporit diatribele sale de ură rasistă pe baza a ceea ce a învăţat de la oameni rău intenţionaţi, informează agenţia France Presse.

Robotul Tay a fost proiectat cu aspectul unui tânăr adolescent naiv, capabil să înveţe din interacţiunile sale cu utilizatorii. Proiectul cu scop educaţional a fost deturnat atunci când unii internauţi s-au decis să-l înveţe în special cum să utilizeze violenţa verbală.

„Din păcate, în primele 24 de ore în care a fost online, am constatat un efort coordonat al unor utilizatori de a abuza de Tay iar abilitatea sa de a comunica a răspuns în mod nepotrivit”, a explicat compania Microsoft într-un comunicat.

„Aceasta este la fel de mult o experienţă socială şi culturală, cât şi tehnică”, a nuanţat grupul informatic.

În timp ce robotul a fost conceput pentru studierea capacităţii de a învăţa şi de a deveni mai inteligent prin extinderea interacţiunilor sale online, s-a constatat că el a început să transmită pe Twitter mesaje pro-naziste, sexiste sau rasiste. Robotul a postat, de asemenea, comentarii de susţinere a candidatului republican la nominalizarea pentru cursa prezidenţială Donald Trump.

În ultimul sau mesaj pe Twitter, Tay a spus: „Pe curând oameni, am nevoie să dorm după atât de multe conversaţii astazi”, a raportat Microsoft.

Mesajele sale abuzive au fost şterse, dar multe sunt încă în circulaţie sub formă de capturi de ecran. Pe de altă parte, Microsoft lucrează în prezent la îmbunătăţirea softului robotului Tay.

Pe lângă Twitter, robotul a fost proiectat să interacţioneze şi pe alte platforme de mesagerie vizând în special generaţia numită ‘millenials’, născută între anii 1981 şi 1996, menţionează agenţia France Presse.(Agenţia Naţională de Presă AGERPRES)

Citește și
Spune ce crezi

Adresa de email nu va fi publicata