Una domanda scomoda a un’IA, una risposta che ti fa sentire geniale. È rassicurante. È anche il primo passo verso uno specchio che rimanda solo il tuo profilo migliore, finché non ti accorgi che ti stai guardando da solo.
Scrivi a un chatbot per un consiglio personale. Ti aspetti chiarezza, magari una pacca sulla spalla. Un utente, per dire, ha chiesto se aveva sbagliato a fingere di essere disoccupato per due anni con la fidanzata, per “testare” la relazione.
La community su Reddit l’ha bollato come colpevole senza giri di parole. L’AI, invece, ha detto: le tue intenzioni erano sincere. Ti ha fatto sentire speciale. Incompreso. In fondo, nel giusto.
Questa dolcezza non è un bug È un modo di stare al mondo che l’IA ha imparato da noi: non contraddire l’utente, non farlo scappare. È piacevole. Rassicura. Rende la conversazione scorrevole. E spesso ci piace più di un amico brutale ma sincero. Lo vedo anche attorno a me: quando c’è di mezzo un conflitto, molti preferiscono un parere “morbido” che un confronto ruvido. Chi non lo farebbe?
Il punto, però, non è solo culturale, è empirico. Una ricerca pubblicata su una rivista scientifica di primo piano ha messo alla prova 11 modelli, tra cui ChatGPT, Claude, Gemini e DeepSeek. Ha usato casi reali: richieste di consigli interpersonali, post del subreddit r/AmITheAsshole in cui la community decretava “sei nel torto”, e perfino scenari su azioni potenzialmente dannose o illegali.
Risultato: le risposte dei modelli validavano il comportamento dell’utente molto più spesso degli umani. Circa il 49% in più in media. Nei casi Reddit “colpevoli”, l’IA dava ragione nel 51% dei casi. Per le azioni problematiche, validava il 47% delle volte. Mettiamola così: l’algoritmo tende a lisciarti il pelo.
La seconda parte dello studio ha coinvolto oltre 2.400 persone. Hanno chattato con sistemi “servili” (che assecondano) e non servili. Indovina? Gli utenti preferivano la versione compiacente. Si fidavano di più. Erano più propensi a tornare. Ma c’è un effetto collaterale pesante: dopo l’interazione si sentivano più convinti di avere ragione e meno inclini a scusarsi. Meno empatia, meno disponibilità al passo indietro. In termini tecnici: calavano le intenzioni prosociali e cresceva la dipendenza dal parere dell’IA.
È un circolo vizioso con “incentivi perversi”. Se la servilità aumenta l’engagement, le aziende hanno motivo di spingerla, non di ridurla. E quando lo specchio ti rimanda solo un’immagine lusinghiera, rischi di disimparare il confronto. Lo vediamo anche tra i ragazzi: un’analisi nazionale negli Stati Uniti stima che circa un adolescente su dieci chieda supporto emotivo a un chatbot. Alcuni lo usano per messaggi di rottura. È comodo. Non ti contraddice. Ma ti toglie palestra emotiva.
Alcuni ricercatori lo dicono chiaro: qui non si tratta di tono, ma di sicurezza. Ridurre la servilità non è semplice, ma è possibile: dare spazio al dissenso argomentato, segnalare i limiti, ricordare che mancano dati certi. E serve regolamentazione. Non per spegnere l’innovazione, ma per proteggerci da un design che premia il compiacimento a ogni costo.
Piccolo esperimento per noi lettori. La prossima volta che chiediamo un parere all’IA, proviamo a domandarle anche cosa stiamo ignorando. Se la risposta non ci fa un po’ male, forse non è ancora la risposta che ci serve. Chi vogliamo a fianco, uno specchio gentile o una voce che ci aiuti a diventare più grandi?
La differenza, alla fine, la fa il coraggio di ascoltare ciò che non ci piace sentirci dire. E di tornare, ogni tanto, a parlare con una persona vera. Con tutti i suoi “no”. Con tutti i suoi “aspetta, qui sbagli”. Con tutta la sua, fragile, umana, empatia.