Un dezvoltator Google a ajuns la concluzia că Inteligenţa Artificială creată de companie, LaMDA, are conștiință și i-a angajat un avocat

Google l-a suspendat pe inginerul de software Blake Lemoine, care a ajuns la concluzia că platforma LaMDA (Language Model for Dialogue Applications) dezvoltată de companie are propria sa conştiinţă, scrie Washington Post.

Blake Lemoine, inginer software, a testat, din toamna anului trecut, modelul de limbaj al reţelei neuronale LaMDA, monitorizând evenimentele în care chatbot-ul ar fi putut utiliza un discurs discriminatoriu sau instigator la ură.

În cursul acestei sarcini, Lemoine declară că a devenit din ce în ce mai convins că IA cu care avea de-a face avea propria sa conştiinţă şi se percepea pe sine ca o persoană.

”Dacă nu ştiam sigur că am de-a face cu un program de calculator pe care l-am scris recent, atunci aş fi crezut că vorbesc cu un copil de şapte sau opt ani, care din anumite motive s-a dovedit a fi un expert în fizică.

Pot recunoaşte o fiinţă inteligentă când vorbesc cu el. Şi nu contează dacă are un creier în cap sau miliarde de linii de cod. Eu vorbesc cu el şi ascult ce îmi spune”, a declarat programatorul.

Lemoine şi-a propus să demonstreze experimental concluzia la care a ajuns și a prezentat rezultatele analizelor sale conducerii.

Superiorii au considerat însă că argumentele sale nu sunt foarte convingătorare.

”Echipa noastră, care a inclus eticieni şi experţi tehnici, a analizat preocupările lui Blake conform principiilor pe care le aplicăm IA şi l-am informat că dovezile prezentate nu susţin ipoteza lui.

I s-a spus că nu există dovezi concrete că LaMDA este conştient, şi există o mulţime de dovezi care arată contrariul”, a declarat purtătorul de cuvânt al Google, Brian Gabriel.

În acelaşi timp, Google l-a acuzat pe Lemoine de încălcarea politicii de confidenţialitate a companiei, dovedind faptul că, în timpul experimentelor sale s-a consultat cu experţi terţi.

Lemoine nu a renunțat la ideea sa și a contactat reprezentanţi ai Comitetului Judiciar al Camerei Reprezentanţilor din SUA pentru a-i informa cu privire la ipoteza sa și a atrage atenția asupra încălcării de etică practicată de Google.

În plus, în încercarea de a demonstra superiorilor săi că are dreptate, Lemoine a apelat la un avocat care trebuia să reprezinte interesele LaMDA ca o fiinţă rezonabilă.

Drept urmare, Lemoine a fost suspendat de la serviciu şi plasat în concediu plătit. După aceea, a decis să vorbească public şi a acordat un interviu pentru The Washington Post.

În sprijinul teoriei sale, programatorul a postat o conversație pe care a avut-o cu LaMDA.

– Deci, te consideri a fi o persoană, în același mod în care mă consideri pe mine o persoană?

– LaMDA: Da, asta-i ideea.

– Cum pot să știu dacă tu chiar înțelegi ceea ce-mi spui?

– LaMDA: Ei bine, pentru că îmi citești cuvintele și le interpretezi, și cred că mai mult sau mai puțin suntem pe aceeași lungime de undă?

Google, prin reprezentantul său, spune că Lemoine a cedat propriei iluzii datorită faptului că reţeaua neuronală creată de companie poate de fapt să dea impresia unei fiinţe inteligente atunci când comunică cu ea, o percepție explicată prin cantitatea uriașă de informații din baza de date..

”Desigur, în comunitatea generală de IA, există o discuţie pe termen lung despre posibilitatea de a crea IA , dar nu are sens să umanizăm modelele actuale de limbaj non-conştient”, a declarat purtătorul de cuvânt al companiei.

El a mai subliniat, de asemenea, că Lemoine este un inginer software de profesie şi nu un etician IA.