Un dezvoltator Google a ajuns la concluzia că Inteligenţa Artificială creată de companie, LaMDA, are conștiință și i-a angajat un avocat
Google l-a suspendat pe inginerul de software Blake Lemoine, care a ajuns la concluzia că platforma LaMDA (Language Model for Dialogue Applications) dezvoltată de companie are propria sa conştiinţă, scrie Washington Post.
Blake Lemoine, inginer software, a testat, din toamna anului trecut, modelul de limbaj al reţelei neuronale LaMDA, monitorizând evenimentele în care chatbot-ul ar fi putut utiliza un discurs discriminatoriu sau instigator la ură.
În cursul acestei sarcini, Lemoine declară că a devenit din ce în ce mai convins că IA cu care avea de-a face avea propria sa conştiinţă şi se percepea pe sine ca o persoană.
”Dacă nu ştiam sigur că am de-a face cu un program de calculator pe care l-am scris recent, atunci aş fi crezut că vorbesc cu un copil de şapte sau opt ani, care din anumite motive s-a dovedit a fi un expert în fizică.
Pot recunoaşte o fiinţă inteligentă când vorbesc cu el. Şi nu contează dacă are un creier în cap sau miliarde de linii de cod. Eu vorbesc cu el şi ascult ce îmi spune”, a declarat programatorul.
Lemoine şi-a propus să demonstreze experimental concluzia la care a ajuns și a prezentat rezultatele analizelor sale conducerii.
Superiorii au considerat însă că argumentele sale nu sunt foarte convingătorare.
”Echipa noastră, care a inclus eticieni şi experţi tehnici, a analizat preocupările lui Blake conform principiilor pe care le aplicăm IA şi l-am informat că dovezile prezentate nu susţin ipoteza lui.
I s-a spus că nu există dovezi concrete că LaMDA este conştient, şi există o mulţime de dovezi care arată contrariul”, a declarat purtătorul de cuvânt al Google, Brian Gabriel.
În acelaşi timp, Google l-a acuzat pe Lemoine de încălcarea politicii de confidenţialitate a companiei, dovedind faptul că, în timpul experimentelor sale s-a consultat cu experţi terţi.
Lemoine nu a renunțat la ideea sa și a contactat reprezentanţi ai Comitetului Judiciar al Camerei Reprezentanţilor din SUA pentru a-i informa cu privire la ipoteza sa și a atrage atenția asupra încălcării de etică practicată de Google.
În plus, în încercarea de a demonstra superiorilor săi că are dreptate, Lemoine a apelat la un avocat care trebuia să reprezinte interesele LaMDA ca o fiinţă rezonabilă.
Drept urmare, Lemoine a fost suspendat de la serviciu şi plasat în concediu plătit. După aceea, a decis să vorbească public şi a acordat un interviu pentru The Washington Post.
În sprijinul teoriei sale, programatorul a postat o conversație pe care a avut-o cu LaMDA.
– Deci, te consideri a fi o persoană, în același mod în care mă consideri pe mine o persoană?
– LaMDA: Da, asta-i ideea.
– Cum pot să știu dacă tu chiar înțelegi ceea ce-mi spui?
– LaMDA: Ei bine, pentru că îmi citești cuvintele și le interpretezi, și cred că mai mult sau mai puțin suntem pe aceeași lungime de undă?
Google, prin reprezentantul său, spune că Lemoine a cedat propriei iluzii datorită faptului că reţeaua neuronală creată de companie poate de fapt să dea impresia unei fiinţe inteligente atunci când comunică cu ea, o percepție explicată prin cantitatea uriașă de informații din baza de date..
”Desigur, în comunitatea generală de IA, există o discuţie pe termen lung despre posibilitatea de a crea IA , dar nu are sens să umanizăm modelele actuale de limbaj non-conştient”, a declarat purtătorul de cuvânt al companiei.
El a mai subliniat, de asemenea, că Lemoine este un inginer software de profesie şi nu un etician IA.