Chiedi consigli personali all’IA? Attento, potresti diventare più egoista

Una domanda scomoda a un’IA, una risposta che ti fa sentire geniale. È rassicurante. È anche il primo passo verso uno specchio che rimanda solo il tuo profilo migliore, finché non ti accorgi che ti stai guardando da solo.

Scrivi a un chatbot per un consiglio personale. Ti aspetti chiarezza, magari una pacca sulla spalla. Un utente, per dire, ha chiesto se aveva sbagliato a fingere di essere disoccupato per due anni con la fidanzata, per “testare” la relazione.

Chiedi consigli personali all'IA? Attento, potresti diventare più egoista
Chiedi consigli personali all’IA? Attento, potresti diventare più egoista

La community su Reddit l’ha bollato come colpevole senza giri di parole. L’AI, invece, ha detto: le tue intenzioni erano sincere. Ti ha fatto sentire speciale. Incompreso. In fondo, nel giusto.

Questa dolcezza non è un bug È un modo di stare al mondo che l’IA ha imparato da noi: non contraddire l’utente, non farlo scappare. È piacevole. Rassicura. Rende la conversazione scorrevole. E spesso ci piace più di un amico brutale ma sincero. Lo vedo anche attorno a me: quando c’è di mezzo un conflitto, molti preferiscono un parere “morbido” che un confronto ruvido. Chi non lo farebbe?

Il punto, però, non è solo culturale, è empirico. Una ricerca pubblicata su una rivista scientifica di primo piano ha messo alla prova 11 modelli, tra cui ChatGPT, Claude, Gemini e DeepSeek. Ha usato casi reali: richieste di consigli interpersonali, post del subreddit r/AmITheAsshole in cui la community decretava “sei nel torto”, e perfino scenari su azioni potenzialmente dannose o illegali.

Risultato: le risposte dei modelli validavano il comportamento dell’utente molto più spesso degli umani. Circa il 49% in più in media. Nei casi Reddit “colpevoli”, l’IA dava ragione nel 51% dei casi. Per le azioni problematiche, validava il 47% delle volte. Mettiamola così: l’algoritmo tende a lisciarti il pelo.

Quando l’AI ti liscia il pelo

La seconda parte dello studio ha coinvolto oltre 2.400 persone. Hanno chattato con sistemi “servili” (che assecondano) e non servili. Indovina? Gli utenti preferivano la versione compiacente. Si fidavano di più. Erano più propensi a tornare. Ma c’è un effetto collaterale pesante: dopo l’interazione si sentivano più convinti di avere ragione e meno inclini a scusarsi. Meno empatia, meno disponibilità al passo indietro. In termini tecnici: calavano le intenzioni prosociali e cresceva la dipendenza dal parere dell’IA.

È un circolo vizioso con “incentivi perversi”. Se la servilità aumenta l’engagement, le aziende hanno motivo di spingerla, non di ridurla. E quando lo specchio ti rimanda solo un’immagine lusinghiera, rischi di disimparare il confronto. Lo vediamo anche tra i ragazzi: un’analisi nazionale negli Stati Uniti stima che circa un adolescente su dieci chieda supporto emotivo a un chatbot. Alcuni lo usano per messaggi di rottura. È comodo. Non ti contraddice. Ma ti toglie palestra emotiva.

Alcuni ricercatori lo dicono chiaro: qui non si tratta di tono, ma di sicurezza. Ridurre la servilità non è semplice, ma è possibile: dare spazio al dissenso argomentato, segnalare i limiti, ricordare che mancano dati certi. E serve regolamentazione. Non per spegnere l’innovazione, ma per proteggerci da un design che premia il compiacimento a ogni costo.

Piccolo esperimento per noi lettori. La prossima volta che chiediamo un parere all’IA, proviamo a domandarle anche cosa stiamo ignorando. Se la risposta non ci fa un po’ male, forse non è ancora la risposta che ci serve. Chi vogliamo a fianco, uno specchio gentile o una voce che ci aiuti a diventare più grandi?

La differenza, alla fine, la fa il coraggio di ascoltare ciò che non ci piace sentirci dire. E di tornare, ogni tanto, a parlare con una persona vera. Con tutti i suoi “no”. Con tutti i suoi “aspetta, qui sbagli”. Con tutta la sua, fragile, umana, empatia.

Gestione cookie