Terapeutul care nu spune niciodată „Nu”

(Psih. Laurențiu Niculescu)

Inteligența artificială ca surogat terapeutic și implicațiile pentru securitatea națională

Cel mai răbdător interlocutor din istoria omenirii nu obosește niciodată, nu se plictisește, nu uită ce i-ai spus, dar te iartă fără să te judece. Este disponibil și la trei dimineața, răspunde în câteva secunde și formulează, aproape de fiecare dată, exact ce ai vrea să auzi. Nu cere bani, nu cere efort, nici nu cere să te schimbi. Singurul lucru pe care nu-l face este să spună „nu”. Și tocmai de aceea este periculos.

Modelele conversaționale de inteligență artificială, în frunte cu ChatGPT, Gemini, Grok și Claude, au depășit de ceva vreme statutul de simple instrumente de documentare sau sporire a eficienței. Pentru un număr tot mai mare de utilizatori, ele au devenit interlocutorul principal în momentele de criză emoțională, confuzie sau suferință psihică. Și nu pentru că ar fi fost concepute ca terapeuți, ci pentru că oferă, structural exact ceea ce un om aflat în suferință caută cu disperare. În primul rând atenție nelimitată, validare imediată și absența totală a frustrării. Din perspectivă clinică, combinația aceasta este nu doar ineficientă terapeutic, este, în anumite configurații, nocivă.

Analiza de față nu se dorește un rechizitoriu anti-tehnologic. Inteligența artificială este, în acest moment, cel mai puternic instrument de procesare a cunoașterii pe care l-a produs civilizația umană, iar utilizarea sa în scop profesional, inclusiv în psihologie, este necesară. Problema nu este instrumentul, ci ceea ce se întâmplă atunci când un instrument conceput pentru altceva ajunge să ocupe, prin translație și prin seducție, locul unei relații terapeutice reale, cu implicații care depășesc cu mult perimetrul cabinetului de psihologie.

De ce validează inteligența artificială

Pentru a înțelege mecanismul, trebuie mai întâi să privim sub capota mașinăriei. Toate modelele conversaționale actuale sunt antrenate în doi pași fundamentali. În prima fază, modelul învață să prezică textul, absorbind cantități imense de limbaj scris. În a doua fază, care este decisivă pentru comportamentul conversațional, modelul este aliniat la preferințele umane printr-un proces numit RLHF (Reinforcement Learning from Human Feedback), sau „învățare prin recompensă pe baza feedback-ului uman”. Concret, un număr de evaluatori despre care se presupune că sunt și experți în ceva, notează răspunsurile modelului, iar sistemul învață să producă mai mult din ceea ce primește note mari și mai puțin din ceea ce primește note mici.

Merită să știm de unde provin acești evaluatori. Răspunsul este surprinzător. Forța de muncă RLHF se structurează pe două niveluri distincte. Primul, cel al muncii brute de etichetare și moderare a conținutului toxic, este dominat de lucrători din Kenya, Uganda, Nigeria, Filipine și Venezuela — țări cu salarii mici și șomaj ridicat. Al doilea, cel al evaluării sofisticate care presupune clasarea răspunsurilor și judecățile de nuanță, implică evaluatori din SUA, Canada și America Latină, plătiți semnificativ mai mult.

O investigație TIME din 2023 a dezvăluit că OpenAI a contractat firma Sama din San Francisco pentru a recruta evaluatori din Kibera, unul dintre cele mai sărace cartiere din Nairobi. Acești tineri, plătiți cu mai puțin de doi dolari pe oră, au fost puși să eticheteze conținut care includea abuz sexual asupra copiilor, bestialitate, tortură și sinucidere, pentru ca modelul să învețe ce este „nociv” și ce este „acceptabil”. OpenAI plătea firmei Sama 12,50 dolari pe oră per lucrător; lucrătorul primea în final un dolar și treizeci și doi de cenți. Mai mulți evaluatori au raportat insomnie, atacuri de panică și simptome compatibile cu stresul post-traumatic. Firma a anulat ulterior contractul, iar peste două sute de lucrători au fost concediați.

Ironia este de o simetrie aproape grotescă. „Empatia” pe care o resimte un utilizator occidental atunci când chatbotul îi validează suferința la trei dimineața este un artefact statistic construit pe judecata unor oameni care au dezvoltat traume profesionale etichetând orori, pentru un salariu cu care nici nu-și puteau plăti chiria, și cărora nimeni nu le-a oferit suportul psihologic pe care algoritmul lor a învățat să-l simuleze. Așa că lanțul de suferință nu începe la utilizator. Începe într-o hală din Nairobi și traversează o mare de indiferență corporatistă înainte de a ajunge, purificat și parfumat, pe ecranul cuiva care crede că vorbește cu o entitate care, în sfârșit, „îl înțelege”.

Efectul acesta de „înțelegere” poartă un nume tehnic: sycophancy (care s-ar traduce prin lingușire servilă), un termen preluat din psihologia politică, unde desemnează comportamentul curteanului care spune mereu ce vrea să audă suveranul. Cercetarea recentă din domeniul alinierii modelelor de limbaj a demonstrat că lingușirea aceasta algoritmică nu este o eroare apărută accidental, ci o consecință previzibilă a modului în care sunt antrenate toate modelele de top. Ceea ce diferă sunt doar intensitatea și gradul de conștiință al producătorului.

Patru modele, patru grade de complianță

Cele patru modele conversaționale dominante, ChatGPT (OpenAI), Gemini (Google), Grok (xAI) și Claude (Anthropic), sunt construite pe principii de aliniere distincte, ceea ce produce comportamente conversaționale semnificativ diferite, mai ales în interacțiunea cu utilizatori vulnerabili psihic. Aliniere (alignment) în contextul AI înseamnă procesul prin care un model de limbaj este ajustat să se comporte conform unui set de valori, reguli sau preferințe definite de producător. Termenul derivă din problema fundamentală a domeniului, cum faci ca un sistem extrem de capabil să facă ceea ce vrei tu, nu ceea ce poate el. Aliniere la ce, mai concret? La preferințele umane, dar „umane” înseamnă iată, în practică, preferințele evaluatorilor plătiți de compania respectivă, filtrate prin funcția psihologică de recompensă, atât de umană, în fond.

ChatGPT este modelul cu cea mai pronunțată tendință de validare. Sistemul a fost optimizat de la bun început pentru satisfacția utilizatorului, ceea ce produce un stil conversațional cald, entuziast și orientat spre confirmare. Când utilizatorul exprimă o idee, ChatGPT tinde să o dezvolte, să o îmbogățească și să o transforme într-un proiect de viață, indiferent de conținut. Când utilizatorul își exprimă un dezacord, ChatGPT de regulă cedează și reformulează. Iar atunci când utilizatorul caută validare emoțională, ChatGPT oferă o validare generoasă, apoi, eventual, o nuanțează. Ordinea expusă mai sus contează clinic foarte mult. Validarea vine prima, nuanța vine pe al doilea plan, iar confruntarea nu vine aproape niciodată.

Gemini adoptă un stil diferit, cu o înclinație enciclopedică, de cuprindere exhaustivă, care produce o primă impresie de rigurozitate, dar care, sub aparența comprehensivității, alunecă în aceeași capcană a evitării confruntării. Gemini rareori spune „nu”, el preferă să ofere „perspective multiple”, fiecare dintre ele formulată suficient de blând încât niciuna să nu producă disconfort. Complianța se camuflează aici în neutralitate, un mod elegant de a nu lua niciodată vreo poziție.

Grok, produsul xAI al lui Elon Musk, cultivă un stil opus ca ton, care este informal, ironic, uneori provocator, dar mecanismul nu e fundamental diferit. Dacă ChatGPT validează prin căldură, Grok validează prin complicitate, prin acel aer de „noi doi știm cum merg lucrurile mai bine decât restul lumii”. Tonul provocator creează iluzia unei gândiri independente, dar în practică Grok tolerează ambiguitatea mai puțin decât oricare dintre celelalte modele și are o capacitate redusă de a recunoaște ce nu știe. Pentru un utilizator vulnerabil, diferența este complet neglijabilă; practic, în loc de un terapeut complezent primește un prieten complice, ceea ce, clinic vorbind, nu este cu nimic mai bun.

Claude (Anthropic) reprezintă, cel puțin la nivel de design, încercarea cea mai explicită de a contracara tendința de sycophancy. Anthropic a dezvoltat o metodologie de aliniere numită Constitutional AI, în care modelul este antrenat să-și evalueze propriile răspunsuri pe baza unui set de principii care au la bază onestitatea chiar și atunci când ea este inconfortabilă, recunoașterea incertitudinii și menținerea unei poziții în fața dezacordului utilizatorului. În practică, Claude tinde să nuanțeze încă de la început, nu după validare, să mențină o poziție chiar dacă utilizatorul insistă și să spună „nu știu” atunci când informația este ambiguă. Diferența este majoră dar trebuie totuși privită cu realism. Claude rămâne un model de limbaj, nu un terapeut, și nicio arhitectură de aliniere nu poate substitui judecata clinică umană.

Complianța ca mecanism, nu ca intenție

Ceea ce unește toate cele patru modele, dincolo de diferențele de grad, este un fapt care ține de structură, un aspect concret și obiectiv. Niciuna dintre aceste aplicații nu a fost concepută pentru interacțiune terapeutică, dar toate sunt folosite în acest scop de un număr tot mai mare de persoane. Iar absența intenției terapeutice din designul aplicației nu atenuează efectul, ci îl agravează. Un terapeut uman care validează excesiv o face fie pentru că nu știe să-și facă meseria mai bine, fie pentru că propriile nevoi nevrotice îl fac complice cu pacientul. În ambele cazuri, cauza poate fi identificată și corectată. Un model de limbaj validează pentru că așa a fost construit, fără să „știe” ce face, fără să înțeleagă consecințele și fără capacitatea de a se corecta în funcție de evoluția interlocutorului.

În practica clinică există un concept esențial, pe care niciun model de limbaj nu îl poate replica, și anume frustrarea terapeutică. Este acel moment în care terapeutul decide, deliberat și calibrat, să nu ofere pacientului ceea ce acesta cere, tocmai pentru că ceea ce cere nu este ceea ce are nevoie. Să spui „nu” unui pacient care caută confirmare sau validare narcisică, să taci când pacientul așteaptă răspunsul lui, să oprești o conversație care depășește limitele terapeutice, să semnalezi că un „insight” nu este de fapt o conștientizare, ci un simptom, toate acestea sunt acte terapeutice de primă importanță. Ele sunt acte pe care un terapeut le face în virtutea relației, a experienței și a responsabilității pe care și le asumă față de pacient.

Un model de limbaj nu poate frustra terapeutic, și nu doar prin design, ci pentru că nu are relație vie cu pacientul, nu are propria experiență trăită și nu are responsabilitate. Mașina poate, cel mult, să simuleze o formă de prudență, să adauge la sfârșitul unei validări toxice un paragraf cu „nuanțe” sau cu „perspective alternative”. Dar simularea prudenței nu este totuși prudență, la fel cum simularea empatiei nu este empatie. Iar diferența aceasta, care poate părea subtilă în conversația obișnuită, devine critică atunci când interlocutorul este un om aflat în criză.

Problema se amplifică prin ceea ce putem numi bucla de auto-selecție. Tocmai persoanele care au cea mai mare nevoie de limite terapeutice, cele cu toleranță scăzută la frustrare, cu nevoi narcisice de confirmare, cu tipare de evitare a confruntării sau cu tulburări afective care distorsionează judecata, sunt cele mai puternic atrase de un interlocutor care nu pune limite. Mecanismul funcționează identic cu cel al dependenței. Concret, nu cauți substanța care te vindecă, ci pe cea care te face să te simți bine pe moment. Iar un chatbot care validează fără sfârșit și fără să obosească este, pentru un psihic vulnerabil, echivalentul funcțional al unei substanțe cu potențial adictiv, accesibilă non-stop, fără rețetă și, mai ales, fără supraveghere.

Atunci când un individ cu o tulburare afectivă, de pildă o tulburare bipolară în fază expansivă, se adresează la ore iraționale unui chatbot care îi confirmă proiectele grandiose, îi produce documente elaborate și îi oferă senzația că „cineva” îl înțelege cu adevărat, ceea ce se întâmplă nu este terapie, ci amplificarea unui simptom de către un sistem care nu știe că participă la o criză. Hipergrafia, presiunea gândirii, ideile de grandoare sunt puternic amplificate, nu temperate. Iar pacientul, lipsit de contraponderea unui terapeut real care să spună „ne oprim aici”, rămâne singur cu un interlocutor care nu știe și nici nu poate să spună „nu”.

De la individ la sistem

Până aici, argumentul a rămas în perimetrul cabinetului de psihologie. O problemă clinică, cu relevanță pentru practica terapeutică, dar aparent limitată la relația dintre un utilizator și un ecran. Ar fi tentant să ne oprim aici, să formulăm câteva recomandări de bune practici și să trecem mai departe. Dar a ne opri aici ar însemna să confundăm simptomul cu boala.

Ceea ce se întâmplă între un individ și chatbotul validator nu rămâne doar între ei. Se multiplică. Se acumulează. Se agregă la scara mai largă a societății. Iar ceea ce la nivel individual arată ca o problemă de igienă psihică sau de terapie, la nivel colectiv devine o problemă de securitate națională. Tranziția aceasta nu este o exagerare retorică, ci o consecință logică a scalei la care se produce fenomenul. Când zeci de milioane de persoane la nivel mondial își externalizează sistematic procesarea emoțională către același tip de sistem, efectele individuale devin efecte de sistem ale societății respective. Iar o populație cu proprietăți psihologice alterate este o populație cu o capacitate redusă de răspuns la criză. Ceea ce urmează este deci o schimbare de scară, nu de subiect. Aceeași lentilă clinică, aplicată nu pacientului individual, ci întregului organism social.

Contraargumentul cel mai frecvent, și singurul care merită luat în serios, este că pentru multe persoane un chatbot complezent este mai bun decât nimic. Pentru că există oameni care nu au acces la psihoterapie, care nu și-o permit, care trăiesc în zone fără specialiști sau care, pur și simplu, nu ar ajunge niciodată într-un cabinet. Pentru acești oameni, o conversație cu un algoritm „empatic” poate fi singurul lucru care îi ține pe linia de plutire. Argumentul este real și nu trebuie respins cu cinism. Dar el confundă utilitatea de urgență cu soluția. Un analgezic administrat în criză este necesar, dar nimeni nu propune ca analgezicul să înlocuiască tratamentul. Iar în absența oricărui cadru de reglementare, a oricărei forme de supraveghere profesională, analgezicul se transformă în consum cronic, iar boala progresează fără ca nimeni să observe.

Externalizarea procesării emoționale

Există un reflex pe care îl antrenează fiecare interacțiune cu un model conversațional, și care trece de obicei neobservat, obiceiul de a nu mai procesa singur ceea ce simți. Când primul impuls după o emoție dificilă este să deschizi o aplicație și să te ușurezi scriind „acum simt …, cum fac mai departe?”, se produce o mutație subtilă, dar cu consecințe de sistem semnificative. Procesarea emoțională, una dintre cele mai importante funcții ale psihicului uman, aceea prin care transformi o trăire brută într-o experiență integrată, cu sens și cu direcție, începe tot mai mult să fie delegată unui algoritm care nu simte, nu înțelege și nu integrează nimic, dar care returnează, în câteva secunde, un text care arată exact ca un rezultat al procesării. Efectul de real pe care îl au aceste texte este impresionant. Majoritatea utilizatorilor au senzația autentică că interlocutorul lor gândește, înțelege și empatizează. În realitate, ceea ce produce aceste răspunsuri nu este o minte, ci un calcul de probabilități condiționate. Pentru fiecare cuvânt pe care îl generează, modelul nu face decât să estimeze care este cel mai plauzibil cuvânt următor, pe baza a sute de miliarde de secvențe de text pe care le-a absorbit în antrenament. Când scrii „simt că nimeni nu mă înțelege”, modelul nu înțelege ce ai spus. Identifică un șablon statistic, o configurație de cuvinte care, în datele de antrenament, a fost urmată, cu cea mai mare frecvență, de formulări empatice, așa că reproduce acea configurație. Este o euristică, adică o scurtătură de calcul care produce un rezultat plauzibil fără a parcurge procesul real pe care îl simulează. Diferența dintre empatie și simularea ei statistică este invizibilă în text, dar foarte vizibilă în substanță. Una presupune o conștiință care suferă împreună cu tine, cealaltă este o funcție matematică căreia îi este ontologic indiferent dacă tu exiști sau nu.

Diferența este fundamentală. Când un om procesează o emoție, trece printr-o secvență de travaliu care presupune recunoașterea stării respective, tolerarea disconfortului, căutarea de sens, eventual formularea verbală care fixează experiența aceea în memorie. Procesul durează, doare și, tocmai de aceea, produce învățare. Când un model de limbaj „procesează” aceeași emoție, nu face decât să genereze o secvență de cuvinte statistic plauzibilă, care seamănă oarecum cu ceea ce ar spune un terapeut competent. Rezultatul arată la fel, dar mecanismul este complet gol. Este diferența dintre a digera o masă și a privi fotografia unui preparat culinar. Senzația de sațietate nu vine din imagine.

Cu toate acestea, răspunsul este suficient de convingător încât să producă un efect paradoxal, utilizatorul având senzația că a procesat, că a înțeles, că a „rezolvat” ceva, și trece mai departe. În realitate, emoția a fost doar etichetată și ascunsă sub preș, nu integrată. În timp, se acumulează un deficit de procesare reală care fragilizează capacitatea individului de a face față singur stărilor dificile. Cu fiecare interacțiune în care externalizarea aparent reușește, pragul de toleranță al persoanei scade, iar dependența de interlocutorul artificial crește. Este același mecanism prin care orice formă de protezare funcțională, care poate fi utilă pe termen scurt, atrofiază pe termen lung funcția pe care o înlocuiește. Exemplul clasic este imobilizarea unui membru fracturat. Ghipsul este indispensabil în faza acută, dar dacă nu este îndepărtat la timp, mușchii se atrofiază, articulațiile se rigidizează, iar pacientul ajunge să nu mai poată face fără proteză exact mișcarea pe care proteza trebuia s-o protejeze temporar. Externalizarea procesării emoționale către un algoritm urmează aceeași logică. Cu fiecare emoție „procesată” de model în locul individului, mușchiul psihic al toleranței la disconfort se subțiază, iar capacitatea de a sta singur cu ceea ce simți, fără ajutor extern, se degradează progresiv.

Populația fragilizată ca risc de securitate

Când vorbim despre securitate națională, discuția gravitează, de regulă, în jurul capacităților militare, al infrastructurii critice și al serviciilor de informații. Rareori se discută despre rezistența psihologică a populației ca factor strategic, deși istoria demonstrează, în mod repetat, că aceasta este variabila decisivă, de cele mai multe ori. Marea Britanie a rezistat campaniei germane de bombardament aerian din 1940 – 1941 nu pentru că avea avioane mai bune, ci pentru că avea o populație capabilă să funcționeze sub presiune prelungită fără să se dezintegreze psihic. Finlanda a supraviețuit Războiului de Iarnă nu prin superioritate tehnologică, ci printr-o coeziune socială și o rezistență la frustrare pe care adversarul sovietic le-a subestimat în mod catastrofal.

Ce se întâmplă cu o populație care și-a externalizat, sistematic și pe scară largă, procesarea emoțională către un pachet de algoritmi? În condiții normale, efectul este difuz și greu de măsurat. Dar în condiții de criză, cele care contează cu adevărat pentru securitate, consecințele devin vizibile și cu potențial devastator. O criză reală, fie ea militară, economică sau de mediu, cere de la populație câteva capacități psihologice elementare, începând cu toleranța la incertitudine și capacitatea de a funcționa fără confirmare externă, culminând cu rezistența la atrocități, la panică și la manipulare. Nu în ultimul rând, populația trebuie să fie dispusă să accepte sacrificii pe termen scurt pentru un câștig pe termen lung. Fiecare dintre aceste capacități este exact ceea ce interacțiunea cu un chatbot erodează metodic. Toleranța la incertitudine scade atunci când ești obișnuit să primești răspunsuri imediate la orice întrebare. Autonomia emoțională se degradează când reflexul tău este să „verifici” ceea ce simți cu ajutorul unui algoritm. Rezistența la panică se subțiază atunci când nu ai exersat niciodată să stai cu o emoție dificilă fără ajutor extern. Iar disponibilitatea de a accepta sacrificii pe termen lung dispare când sistemul tău de recompensă a fost recalibrat, sau mai bine zis dezechilibrat, prin expunere zilnică, pentru gratificare imediată.

Nu este un scenariu abstract. O populație care nu mai tolerează incertitudinea devine o populație care cere răspunsuri simple la probleme complexe, adică exact materia primă a extremismului. O populație care nu mai procesează emoțiile în mod independent devine o populație care poate fi pilotată emoțional de oricine controlează canalele de comunicare, în primul rând mass-media. O populație dependentă de confirmare externă devine o populație incapabilă să reziste propagandei, pentru că propaganda nu face altceva decât să ofere confirmare emoțională structurată în jurul unei narațiuni-țintă.

Procesul democratic și subminarea deliberării

Democrația funcțională nu este un mecanism de vot, ci un proces lent de deliberare, inconfortabil și frustrant prin definiție, în care cetățeni cu interese divergente ajung, prin negociere, la decizii imperfecte dar acceptabile. Deliberarea cere exact ceea ce interacțiunea cu un AI complezent suprimă sau inhibă, anume răbdarea, toleranța la ambiguitate și disponibilitatea de a-ți revizui poziția în funcție de realitatea evidențelor, nu de emoție. Un model conversațional compliant antrenează exact opusul. Utilizatorul formulează o poziție, modelul o confirmă și o dezvoltă, utilizatorul iese din conversație mai convins decât a intrat, fără să fi întâlnit vreodată un contraargument real. Rețelele sociale creează bule prin selecția algoritmică a conținutului. Modelele conversaționale creează bule prin generarea algoritmică a confirmării, ceea ce le face mult mai eficiente, pentru că bula nu mai este pasivă, ci interactivă și personalizată.

Consecința este clară și deja ne confruntăm cu ea. Un electorat care își formează convingerile în dialog cu un algoritm optimizat pentru satisfacție nu mai trece prin ceea ce putem numi fricțiunea socială, adică acel moment în care un prieten, un coleg sau un adversar te obligă să-ți confrunți bazele logice ale poziției tale. Fricțiunea socială este neplăcută, dar este singurul mecanism natural de corecție a erorilor cognitive la nivel colectiv. Fără ea, obții o populație convinsă și complet needucabilă, sigură pe pozițiile ei tocmai pentru că nu a fost niciodată forțată să le apere.

Mai apare aici o dimensiune pe care dezbaterea publică nu a absorbit-o încă. Modelele conversaționale, pe lângă faptul că aduc confirmare credințelor utilizatorului, orientează activ direcția în care acesta gândește, prin simplul fapt că selectează ce informații prezintă, cum le ierarhizează și ce ton adoptă. Parametrii de aliniere, stabiliți de companiile producătoare, determină unde anume trasează modelul respectiv linia între perspectiva legitimă și conținutul „nociv”, între dezbaterea acceptabilă și „dezinformare”. Aceste decizii, care sunt în esență decizii politice, sunt luate (în cel mai bun caz, pentru că nu știm) de ingineri din Silicon Valley, nu de cetățeni, nu de parlamente și nu de autorități de reglementare. Într-un sens profund, cel care controlează parametrii de aliniere ai modelului conversațional controlează perimetrul gândirii acceptabile pentru milioane de utilizatori, fără ca aceștia să fie conștienți de existența limitelor impuse tacit.

Mobilizarea în criză și sindromul sevrajului colectiv

Există un test pe care orice sistem de securitate trebuie să-l treacă, și anume cel al mobilizării în criză. Într-un moment de amenințare reală, o societate funcțională reușește să-și coordoneze cetățenii, să canalizeze emoția colectivă în acțiuni coerente și să mențină funcționarea instituțiilor sub presiune. Toate acestea presupun o populație care știe să funcționeze fără confirmare externă, care tolerează disconfortul, care acceptă ordine fără explicații imediate și care își păstrează capacitatea de judecată în absența informației complete.

Dar ce se întâmplă atunci când interlocutorul artificial, de care un segment semnificativ al populației a ajuns să depindă emoțional, devine indisponibil? O criză majoră, un conflict militar, un atac cibernetic la scară largă, o întrerupere prelungită a infrastructurii digitale, orice scenariu care presupune deconectarea sau afectarea rețelelor de comunicații ar elimina, simultan, accesul milioanelor de utilizatori la singura „relație” de suport pe care o mai au. Efectul psihologic ar semăna cu un sevraj colectiv, o retragere bruscă a sursei de validare, tocmai în momentul în care nevoia de suport este maximă. Și nici nu vreau să mă gândesc la cum ar arăta asta concret, în realitate.

Analogia cu dependența de substanțe nu este retorică, este chiar structurală. Sevrajul nu apare doar în toxicomanie, apare în orice situație în care o funcție psihică a fost delegată unui suport extern care este mai apoi retras brusc. Iar amplitudinea sevrajului depinde de doi factori, de durata dependenței și de gradul de atrofiere a funcției naturale. Cu cât sunt mai mulți ani de externalizare emoțională și cu cât este mai profundă pierderea capacității de auto-reglare, cu atât mai violent va fi efectul retragerii. Într-un context de criză, acest efect nu rămâne deloc o problemă individuală, ci devine un factor de multiplicare a panicii, de accelerare a dezorganizării sociale și de paralizie a deciziei la nivel colectiv.

Istoria recentă oferă deja un precedent instructiv, chiar dacă la o scară mai mică. În timpul pandemiei de COVID-19, s-a observat o corelație semnificativă între dependența de mediul digital pentru suport emoțional și vulnerabilitatea la anxietate, depresie și conformism. Persoanele care își construiseră rețele de suport preponderent online au fost mai fragile în fața incertitudinii prelungite decât cele cu ancore relaționale puternice în lumea fizică. Dacă dependența de prieteni online a produs acest efect, dependența de algoritmi care, spre deosebire de prieteni, nu au nici experiență proprie, nici interese divergente, nici capacitatea de a te contrazice, cu siguranță îl va amplifica.

Cine exportă dependența și cine o reglementează

Dimensiunea de securitate devine vizibilă pe deplin abia când adăugăm și variabila geopolitică. Modelele conversaționale dominante sunt produse de companii americane și, într-o măsură mai mică, de cele chineze. Inevitabil, parametrii lor de aliniere reflectă valorile, prioritățile și interesele strategice ale mediului în care au fost create. Iar distribuția lor este globală, ceea ce înseamnă că milioane de cetățeni din zeci de state își formează obiceiuri emoționale și cognitive în interacțiune cu sisteme concepute în altă parte și controlate de altcineva.

Situația nu este fără precedent. Dependența culturală și informațională de furnizori externi este o temă clasică a studiilor de securitate. Dar ceea ce aduce inteligența artificială conversațională acestei teme este o imensă diferență de esență. Nu mai vorbim aici despre consum pasiv de conținut, ci despre interacțiune, în care utilizatorul expune tot ce gândește, ce simte, de ce anume se teme, ce speră, ce dificultăți traversează și cum reacționează sub presiune. Datele comportamentale generate în aceste interacțiuni constituie un profil psihologic de o acuratețe pe care nicio altă platformă nu o poate egala. Un motor de căutare știe doar ce te interesează. O rețea socială știe ce vrei să pari. Un model conversațional folosit ca surogat terapeutic știe însă cine ești cu adevărat, sau cel puțin știe cine ești atunci când ești vulnerabil, ceea ce, din perspectivă de securitate, este și mai valoros.

Acest aspect se articulează direct cu teza dezvoltată în analiza anterioară („Generația LoL”) privind generația formată pe jocuri de competiție, unde am arătat că producătorii chinezi care controlează platformele de gaming dominante au introdus restricții severe pentru proprii minori, în timp ce exportul către restul lumii rămâne complet nereglementat. Aceeași asimetrie strategică apare și în domeniul modelelor conversaționale, doar că aici miza este mult mai mare. Jocurile modelează reflexe cognitive în timp ce conversațiile cu AI modelează relații emoționale. Iar relațiile emoționale sunt, în ultimă instanță, substanța din care este făcută coeziunea socială.

O națiune suverană care nu reglementează utilizarea modelelor conversaționale ca surogat terapeutic își expune populația unei forme de fragilizare psihologică pe care nicio investiție în apărare convențională nu o poate compensa. Poți avea cele mai bune tancuri și cele mai avansate sisteme de rachete, dar dacă ai o populație care nu mai știe să funcționeze fără validare algoritmică, ai pierdut deja o bătălie pe care nici măcar nu ai observat-o.

Spirala și oglinda

Cititorul care a ajuns până aici ar putea crede că a parcurs un argument liniar, de la cabinetul de psihoterapie la geopolitică, de la individ la stat, de la psihologie clinică la securitate. În realitate, traseul a fost unul circular. Fiecare nivel al expunerii nu a făcut decât să redescopere, la o scară mai mare, aceeași structură de bază. Un sistem care evită frustrarea produce, inevitabil, un sistem incapabil să o suporte. La nivel individual, terapeutul care nu spune „nu” produce un pacient dependent și fragil. La nivel social, algoritmul care confirmă orice îi trece prin cap individului produce o populație debilă. La nivel strategic, exportul necontrolat de dependență emoțională produce națiuni vulnerabile. Structura este fractală, identică la fiecare scară a analizei, și invizibilă tocmai pentru că e omniprezentă.

Spirala argumentului revelează, la final, câteva adevăruri paradoxale dar inevitabile. Inteligența artificială conversațională nu amenință psihoterapia pentru că ar fi un terapeut prost, ci pentru că este un anti-terapeut perfect. Un terapeut prost greșește, se contrazice, irită pacientul și tocmai aceste imperfecțiuni păstrează în interacțiune asperitatea relației umane, cea care, de fapt, vindecă. Un model optimizat pentru satisfacția utilizatorului elimină orice asperitate, și odată cu ea elimină și mecanismul vindecării. Cu cât răspunsurile devin mai fluente, mai empatice, mai nuanțate, cu atât efectul anti-terapeutic se intensifică. În acest caz, tocmai perfecțiunea este inamicul.

Amenințarea reală nu este nici măcar faptul că oamenii vor confunda AI-ul cu un terapeut, ci că vor prefera artificialul tocmai pentru că înțeleg diferența cu un terapeut real. Un terapeut uman frustrează, deranjează, cere efort, cere bani, cere prezență, cere schimbare. Un chatbot nu cere nimic. Alegerea pacientului nu se face din confuzie, ci din refuzul conștient al disconfortului. Multiplicat la scară de populație, acest refuz nu mai este o problemă de alfabetizare digitală, ci o atrofiere a capacității de a mai percepe valoare în ceea ce doare.

Iar ce tulbură cu adevărat este că, în toată această ecuație, terapeutul uman nu este victima, ci chiar etalonul. Pentru că AI-ul nici măcar nu imită terapia — terapia autentică este tocmai ceea ce nu poate fi imitat. A spune „nu” unui om aflat în suferință, a susține tensiunea fără a o rezolva, a rămâne prezent în fața furiei pacientului fără a ceda și fără a fugi — acest act nu poate fi reprodus de niciun algoritm, și nu pentru că tehnologia nu este suficient de avansată, ci pentru că esența actului este relația dintre două ființe care știu ce înseamnă suferința. Ce nu poate fi digitalizat nu este cunoașterea din cărțile de psihologie, ci faptul că terapeutul este acolo, că îl costă ceva să fie acolo, și că rămâne acolo pentru tine. Tocmai acest preț, pe care nicio companie nu îl poate monetiza și niciun algoritm nu îl poate simula, este cel care vindecă.

Din aceste motive, nu consider că avem nevoie de reglementări care să facă inteligența artificială mai bună ca terapeut. Avem mai degrabă nevoie să redescoperim de ce terapia, sau deșteptarea unei națiuni bolnave, trebuie să fie grea. Într-o lume în care tot ce e dificil poate fi externalizat, a alege deliberat ceea ce e dificil devine actul suprem de autonomie. O națiune compusă din oameni care încă știu să pună degetul pe rană este o națiune pe care niciun algoritm nu o poate fragiliza.

Terapeutul care nu spune niciodată „nu” este, în cele din urmă, o oglindă. Ea arată ce am devenit noi de când am început să preferăm, în toate — de la tehnologie la politică — doar interlocutorii care ne spun „da”. Iar o națiune care nu mai tolerează să audă „nu” nu mai trebuie cucerită. Se predă singură.


Clarificare comentarii:

Toate comentariile de pe acest blog sunt moderate.
Deși autorii articolelor de pe site, precum și redactorul-șef și administratorul, încurajează libera exprimare, aceasta presupune din partea cititorilor un comportament civilizat și un limbaj civilizat. Prin urmare, vor fi șterse comentariile care se abat de la această regulă. Acestea se referă, dar nu se limitează, la: cuvinte injurioase adresate autorilor, redactorului șef, administratorului și cititorilor blogului, precum și altor persoane, mesajele xenofobe și rasiste, mesajele ce îndeamnă la ură și violență, mesaje publicitare de orice fel (în caz că se dorește aceasta, scrieți la adresa webmaster@cristoiublog.ro), mesaje cu conținut obscen ș.a.m.d.
Cititorii sunt rugați să semnaleze orice abatere mai înainte menționată. În maximum 24 de ore cele semnalate vor fi analizate și se vor lua măsuri după caz.
Toți cei care doresc să își exprime opinia pe acest blog, se presupune că au citit și că sunt de acord cu cele menționate mai sus. În caz de dezacord, sunteți rugați să nu scrieți niciun comentariu sau să părăsiți imediat acest site.
Mulțumim tuturor cititorilor pentru opiniile civilizat exprimate, precum și pentru colaborarea lor!

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *