Blog

Efectul ELIZA și iluzia empatiei artificiale

31 mart. 2026 | BY LAURA DRAGOMIR

Efectul ELIZA și iluzia empatiei artificiale descriu una dintre cele mai subtile confuzii ale epocii noastre: tendința oamenilor de a confunda un dialog care sună uman cu o dovadă de umanitate.

Scriu o carte despre Cum comunicăm cu tot ce suntem: temeri, ego, prejudecăți, dorință de putere. Are 12 capitole iar unul dintre ele este despre Cum AI ne oglindește comportamentele și lasă senzația că e uman. În realitate, iluzia nu vine din tehnologie, iar povestea e mai veche decât internetul și începe cu mai bine de o sută de ani în urmă.

În 1913, George Bernard Shaw publică Pygmalion, inspirată din mitul sculptorului care, dezamăgit de imperfecțiunile femeilor reale, creează o statuie de fildeș atât de frumoasă, încât se îndrăgostește nebunește de ea. Apoi, imploră zeii să-i dea viață, iar Afrodita transformă piatra în Galateea. Mai târziu, în 1956, piesa lui Shaw inspiră musicalul My Fair Lady și filmul care a avut premiera în 1964, în care Audrey Hepburn o interpretează admirabil pe Eliza Doolittle.


Când rolul devine identitate

Povestea e clasică: o fată simplă care vinde flori pe străzile Londrei, devine protejata profesorului arogant de fonetică Henry Higgins. Pariul lui e ambițios, să o învețe pe Eliza să vorbească impecabil, încât să o prezinte într-un salon aristocratic drept ducesă, fără ca nimeni să-și dea seama cine este cu adevărat.

Și reușește.

Eliza învață pronunția, ritmul, replicile, arta conversației. Rostește impecabil „The rain in Spain stays mainly in the plain”. Dar, în spatele rochiei de bal și al accentului perfect, rămâne aceeași fată care nu aparține acelei lumi. Nu se transformă în altcineva, doar învață să joace atât de bine un rol, încât îi păcălește pe toți.

Filmul are un succes mondial, chiar în anii în care se năștea informatica modernă. Și de aici începe să se lege totul.


De la Pygmalion la ELIZA

Pentru că exact această transformare credibilă îi dă lui Joseph Weizenbaum, cercetător la MIT, ideea să boteze chiar ELIZA programul conversațional pe care l-a  creat doi ani mai târziu.

Este considerat unul dintre primele chatboturi din istoria informaticii și simula un psihoterapeut care răspundea prin reformulări și întrebări construite din propriile cuvinte ale interlocutorului.

Nu era vreo inteligență sclipitoare și, cu atât mai puțin, vreo prezență empatică.

ELIZA funcționa printr-un mecanism simplu. Nu înțelegea oamenii, nu avea emoții ori trăiri interioare. Doar identifica tipare verbale în propoziție. Dacă îi spuneai „Mă simt singur”, îți răspundea „De ce spui că te simți singur?”. Nu că ar fi simțit singurătatea, doar repeta cuvintele într-o formă suficient de convingătoare, cât să pară că îi pasă. E un mecanism simplu, care în comunicare se numește oglindire.

Ce l-a speriat pe creatorul ei a fost nu performanța tehnică, ci reacția oamenilor.

Deși știau că au în față un program, utilizatorii au început să se confeseze ore în șir, să-i ceară sfaturi, să creadă că sunt înțeleși și să dezvolte un atașament emoțional real față de o mașină care nu făcea altceva decât să le reflecte limbajul într-o formă convingătoare. Tocmai această reacție a devenit cunoscută mai târziu drept „efectul ELIZA”: tendința oamenilor de a atribui înțelegere, intenție sau chiar sensibilitate umană unui sistem care știe să lege cuvintele într-un mod care le este familiar.

Asta este, în esență, rădăcina relației noastre cu tehnologia conversațională.


Capcana din spatele oglinzii

Toți suntem, într-un fel, niște mici Pygmalioni digitali. Ne dorim atât de mult un partener de dialog perfect, care să ne asculte, să nu obosească, să ne valideze și să nu ne judece, încât ajungem să facem exact ce a făcut sculptorul din mitologie: nu mai vedem fildeșul și alegem să vedem o persoană.

Dar aici e o capcană.

În mitologie, zeii chiar au dat viață pietrei. În realitate, oricât de mult ne-ar plăcea să credem că AI ne simte tristețea sau ne înțelege dilemele, el rămâne un sistem care știe foarte bine să vorbească în limbajul oamenilor. Când scriem unui model conversațional, el nu caută într-un sertar cu sentimente răspunsul potrivit. Doar lucrează cu tipare, contexte, probabilități și corelații statistice între cuvinte. Dacă ești politicos, îți răspunde politicos. Dacă ești ironic, îți prinde ritmul. Dacă ești vulnerabil, îți răspunde cu căldură și se transformă instant în confidentul tău de încredere.

Și așa apare iluzia.


Când oglindirea începe să semene cu empatia

Mimează umanitatea atât de bine doar pentru că ne oglindește comportamentul. Dar oglindirea nu este empatie, căci empatie înseamnă experiență trăită, ezitări, memorie afectivă, risc interior, uneori chiar disconfort. Un model de limbaj nu are nimic din toate astea. Are doar o performanță predictivă foarte rafinată. Estimează ce răspuns ar suna cel mai potrivit în contextul dat, astfel încât dialogul să curgă firesc. ELIZA făcea asta rudimentar. Modelele de azi o fac infinit mai sofisticat.

Dar oglinda asta are o problemă mai mare. Nu reflectă doar ce e bun în oameni.

A învățat lucruri minunate din literatură, filosofie, știință, istorie, psihologie, economie. Dar, odată cu frumusețea limbajului, a absorbit și umbrele oamenilor: prejudecăți, stereotipuri, clișee, formule de falsă autoritate, opinii goale împachetate impecabil, distorsiuni și certitudini prost construite. Tot ce a pus omul în lume a devenit, într-un fel, materie de antrenament iar toate acestea sunt parte din ADN-ul său digital.

Practic, în relația cu omul, construiește instant o sală a oglinzilor. Tu proiectezi o dorință, el o reflectă amplificat, iar la final poți ajunge să crezi că asta e singura realitate.


Marea confuzie a epocii noastre

De aceea poate părea lucid și, în același timp, poate livra falsuri cu o siguranță aproape elegantă. Iar asta este una dintre cele mai subtile iluzii ale epocii noastre, căci confundăm exprimarea elegantă cu adevărul și un dialog care sună uman cu o dovadă de umanitate.

Poate tocmai de aceea comparația cu Pygmalion rămâne atât de vie. Doar că statuia rămâne statuie, codul rămâne cod, iar viața pe care credem că o vedem în spatele ecranului spune mai mult despre foamea noastră de validare decât despre cine ne răspunde.

Problema nu este că AI vorbește bine, ci cât de ușor cădem în capcana cuvintelor lui.

Iar de aici se complică totul.

Pentru că, dacă te prinzi că e lingușitor și îi spui: „Nu vreau să-mi dai dreptate, doar spune-mi unde greșesc”, nu capătă brusc coloană vertebrală și principii. Tot ce face este să-și schimbe stilul de răspuns. Trece de la asistent cooperant la critic argumentativ și îți oferă contraargumente nu pentru că îi pasă de adevăr, ci pentru că i-ai cerut mai multă rigoare.

Dacă îi spui că Pământul este plat și îi ceri să te contrazică, o face cu ușurință. Dar dacă îi pui în față o decizie riscantă, nu poate simți pericolul așa cum îl simte un om. Un consultant uman te poate contrazice pentru că îi pasă de rezultat, de relația cu tine sau pentru că acceptă un dezacord real și că relația se poate rupe. Acolo există miză, risc, judecată ancorată într-o lume în care consecințele se plătesc.

Un model de limbaj nu riscă nimic. Nu vede costul social, nu simte tensiunea, nu are curaj, iar intuiția lui nu este intuiție în sens uman, ci doar are capacitatea să producă un contraargument plauzibil.


Punctul în care iluzia devine periculoasă

Și mai face ceva.

Halucinează cu autoritate. În limbaj tehnic, halucinația unui model de limbaj înseamnă producerea unor informații false, inventate sau nesusținute factual, prezentate însă într-o formă fluentă și convingătoare. Asta face atunci când îi ceri să fie critic. Nu minte în sens moral, pur și simplu generează cel mai probabil răspuns în context, chiar și atunci când răspunsul include afirmații false.

Iar aici efectul ELIZA devine periculos.

Pentru că exact în clipa în care te contrazice, ai tendința să-l investești cu și mai multă credibilitate umană. Îți spui: „Uite, nu e un simplu robot care îmi dă dreptate. Chiar îi pasă.”

Dar n-o face din experiență, curaj, intuiție sau etică. Asta vine dintr-o bibliotecă uriașă de limbaj produs de alți oameni, în alte contexte, trecută printr-un sistem care știe să redea foarte bine forma verbală a onestității.

Onestitatea lui nu are rădăcini, are doar algoritmi. Este, de fapt, integritate simulată sau onestitate la comandă. Adică îți dă senzația că vorbești cu un interlocutor cu principii morale, când de fapt ai în față un sistem care mimează extrem de bine aparența de coloană vertebrală.

Oamenii practică și ei asta, desigur. Tocmai de aceea iluzia ne e familiară.


Antrenorul fără emoții

Dar toate acestea nu înseamnă că instrumentul nu este valoros, dimpotrivă. Înseamnă doar că trebuie înțeles corect.

În esență, miza nu este încrederea în el, ci în capacitatea noastră să-l folosim ca pe o pârghie. Dacă îl tratăm ca pe un guru, ne va păcăli. Dacă îl vedem ca pe un poligon de încercare, ne poate ajuta enorm.

Imaginează-ți un boxer care se antrenează cu un sac de box digital. Sacul nu vrea să-l facă mai bun, nu are ambiții sportive, nici orgoliu sau intenție. Dar, pentru că este setat să se balanseze într-un anumit fel, îl obligă pe sportiv să-și perfecționeze reflexele și eschiva.

Așa lucrează și AI când este folosit bine.

Este partenerul care nu obosește niciodată. Poate genera rapid concepte, poate structura materie brută, să facă ordine într-un haos de idei, poate găsi analogii și scoate la suprafață puncte slabe pe care nu le-am văzut. Asta ne eliberează spațiu mental pentru creativitate, pentru nuanță și pentru acele resurse profund umane pe care el nu le va avea niciodată.

Noi avem experiențe limitate și, inevitabil, puncte oarbe. El are acces la volume uriașe de informații și poate aduce perspective din industrii, contexte sau culturi la care nu avem expunere zilnică.

Este un multiplicator. Dar cu siguranță, nu este un creator de competențe.


Diferența dintre impostură și expertiză

E ca un microscop. Aparatul nu vede în locul nostru, doar ne arată detalii pe care altfel le-am rata. Dar tot noi trebuie să știm la ce ne uităm, căci nu microscopul ne face biologi. La fel și modelele de limbaj, nu ne transformă în experți, ci amplifică viteza cu care putem ordona, compara, testa și clarifica.

Doar că amplifică și iluzia competenței.

Iar spectacolul ăsta e deja peste tot: texte lucioase pe rețelele sociale, opinii impecabil formulate, analize care par solide dar care se destramă dacă le zgârii puțin. Nu pentru că instrumentul e slab, ci pentru că utilizatorul îl folosește ca să-și acopere lipsurile. În mâna unui expert, AI este o pârghie extraordinară. În mâna unui amator, devine o mașină elegantă de cosmetizat golul.

Adevărata valoare apare când cei competenți folosesc instrumentul ca să-și extindă perspectiva, nu să-și înlocuiască judecata. Dacă un amator privește printr-un telescop performant, va vedea niște puncte luminoase și se va minuna de magie. Un astronom poate descoperi o galaxie.

Până la urmă, inteligența lui este artificială.

Dar progresul nostru poate fi cât se poate de real, dacă nu confundăm rochia de bal a Elizei Doolittle, accentul ei impecabil și perfecțiunea replicii, cu viața în toată complexitatea ei.


Articol publicat și pe LinkedIn.