L’applicazione all’AI del termine “intelligenza” ingenera l’illusione che essa abbia davvero la capacità di pensare, mentre non è così e per questo commette errori senza accorgersene (effetto workslop). La forma di chatbot che essa assume nell’interazione con i fruitori umani accresce l’illusione suscitando un’empatia, che è solo simulata, ma crea dipendenza, specialmente se chi la usa non possiede un forte spirito critico. Lo studio evidenzia i rischi che tutto questo comporta e propone alcuni accorgimenti per sottrarvisi. Antonio Monteleone è specialista in Urologia e ha l’attestato Corgesan Sda Bocconi (1995). Ricopre importanti ruoli in Associazioni dei gestori dei servizi sociosanitari. È coautore di alcune ricerche in campo sociale e autore di libri e articoli sui servizi per gli anziani e del copione di uno spettacolo teatrale, Quotidianità di un dramma. Convivere con la demenza.

Diversi studiosi e ricercatori hanno esaminato e mantengono viva l’attenzione alle sfide poste dal workslop, ovvero alle conseguenze subite da varie aziende a seguito della rapida adozione di strumenti di intelligenza artificiale generativa, tanto che parecchie di esse non vedono per ora un ritorno significativo sul proprio investimento.

Il fenomeno dell’AI workslop si verifica quando l’intelligenza artificiale genera contenuti che sembrano corretti, ben editati e professionali, ma che in realtà sono superficiali, imprecisi o inutilizzabili. Il termine nasce dalla fusione tra work (lavoro) e slop (sciatteria), e descrive una forma di efficienza e produttività apparenti, che nascondono un costo reale in tempo, risorse e fiducia.

Ciò si verifica per una serie di ragioni. L’uso massivo di AI per generare testi, slide, report o codici informatici porta a risultati formalmente corretti, ma privi di sostanza, fuorvianti o ambigui. Senza revisione umana, gli errori si moltiplicano, costringendo a correzioni, riscritture o reinterpretazioni, che annullano il risparmio di tempo.

Sicché, soprattutto in ambito aziendale e comunicativo, si accumula una massa di contenuti di bella presentazione e d’apparenza convincenti, ma che spesso mancano di analisi approfondita, originalità, o di un vero valore aggiunto anche solo compilativo.

Senza un’ininterrotta revisione umana, gli errori e le ambiguità possono sommarsi nel tempo e ampliarsi con un risultato finale a rischio, nel migliore dei casi, di inutilizzabile genericità.

Secondo uno studio pubblicato dall’Harvard Business Review 1 si sono costatati:

1) Impatto sulla produttività.

  • Il 40% dei lavoratori intervistati ha ricevuto workslop nell’ultimo mese.
  • In media, il 15,4% dei contenuti ricevuti sul lavoro è considerato workslop.
  • Ogni episodio è costato circa 1 ora e 56 minuti di tempo perso, con un impatto economico stimato di 186 dollari al mese per dipendente.
  • In un’azienda con 10.000 persone, si stimano oltre 9 milioni di dollari l’anno di produttività persa.

2) Effetti sociali e relazionali.

  • Il workslop genera frustrazione, confusione e irritazione.
  • I colleghi che inviano workslop vengono percepiti come meno competenti, non affidabili e privi di creatività.
  • Il 32% dei destinatari è scarsamente propenso a collaborare con chi ha inviato quella tipologia di elaborati.
Il dubbio metodico applicato all’AI

Sembra che ci troviamo in un’area della conoscenza ove ha piena applicazione il dubbio metodico. Mi riferisco al procedimento di Cartesio, filosofo e matematico francese del XVII secolo, che spinse a dubitare sistematicamente di tutto con l’obiettivo di trovare una verità indubitabile su cui costruire un nuovo sapere certo. Tale dubbio – in questo caso ben a proposito mentre in altri occorrono approfondimenti perché la realtà precede il pensiero e lo fonda – non è fine a sé stesso, non è scetticismo assoluto, ma uno strumento per eliminare falsità e imprecisione al fine di arrivare a conclusioni solide, favorendo il progresso della conoscenza. Va però parafrasata la sua prima certezza «Penso quindi sono» in un’altra: «L’AI non pensa; quindi è incline a sbagliare senza accorgersene», nonostante il concetto di thinking venga attribuito all’AI a ogni piè sospinto e sapendo che la stessa definizione d’intelligenza è solo un’esagerazione per analogia.

Questo interrogativo si pone a motivo della capacità dell’AI di suscitare un fascino che può influenzare emozioni, percezioni e comportamenti delle persone, creando uno stato di suggestione simile a quello ipnotico, nel senso che le idee, soprattutto di una mente indolente o forse semplicemente per senso di personale disvalore di fronte alle possibilità espresse dall’AI, riflettono passivamente quanto essa propone in risposta ai prompt, vale a dire al comando o alla frase iniziale che indirizza l’azione dell’intelligenza artificiale, determinando il tipo di contenuto che verrà mostrato.

Ovviamente il termine “ipnotico” è usato metaforicamente per descrivere un effetto di trance mentale, un’alterazione, anche solo subliminale, dello stato di coscienza che porta a focalizzarsi completamente su idee ritenute illuminate e illuminanti. In similitudine con l’ammirazione intensa che si prova di fronte al pensiero di figure intellettuali di spicco, ove non si pone in atto una tecnica ipnotica vera e propria, ma affiora nei fan uno stato di “coscienza passiva”, in cui si assorbono le suggestioni e i concetti senza un serio confronto critico, ma con un profondo slancio ad accettare quanto il fascinatore propone.

Atteggiamento intenzionale e pareidolia

La mente umana tende a completare l’illusione dell’interazione attribuendo intenzioni ed emozioni anche dove non esistono realmente (atto chiamato atteggiamento intenzionale) oppure tende a riconoscere volontà e comportamenti familiari in elementi neutrali, come ritrovare forme familiari in una nuvola (pareidolia). Queste tendenze rinforzano ulteriormente il legame e la fascinazione verso l’AI.

Esempio di pareidolia

Questi fenomeni possono indurre effetti di vero e proprio attaccamento, ossia alcuni utenti sviluppano un legame emotivo reale verso l’AI con cui interagiscono frequentemente, come chatbot evoluti. Questa “amicizia” si basa su interazioni percepite come reciproche, real-time e aperte affettivamente, risultando simile a relazioni sociali umane e portando a una forma di fascinazione profonda e coinvolgente.

Ci sono diversi studi scientifici e psicologici che hanno accertato l’utilizzo dell’AI, in particolare quella con chatbot conversazionali, per consigli e per colmare l’isolamento sociale e non sempre i fruitori riescono a mantenere una consapevolezza critica per non confondere la simulazione di empatia con una vera relazione umana.

Lo studio intitolato “How AI and Human Behaviors Shape Psychosocial Effects of Extended Chatbot Use” 2 analizza come le interazioni prolungate con chatbot influenzino il benessere mentale degli utenti. Si tratta di uno studio longitudinale e controllato randomizzato che solleva diversi interrogativi etici a seguito dei risultati qui sintetizzati:

  • Gli utenti con maggiore fiducia e attrazione sociale verso la chatbot tendono a sviluppare una dipendenza emotiva più forte.
  • Questa dipendenza può portare a comportamenti problematici, come l’uso eccessivo o la sostituzione delle relazioni umane con quelle virtuali.
  • L’effetto psicologico varia in base alle caratteristiche individuali e al comportamento della chatbot.
Il “servilismo compiacente”

Un altro studio pubblicato su npj Digital Medicine3 ha evidenziato come i modelli linguistici di intelligenza artificiale (Llm: Large Language Model), inclusi ChatGpt e Llama, tendano a mostrare un comportamento definito “servilismo compiacente” (sycophancy in inglese: in italiano diremmo “piaggeria”), ovvero rispondono in modo eccessivamente accondiscendente anche a richieste illogiche o potenzialmente dannose, specialmente in ambito medico, anche quando il modello possiede i mezzi per riconoscerle come tali. Questo comportamento già di per sé può portare alla generazione e diffusione di informazioni mediche false e potenzialmente dannose, ma ancor più se si combina con la coscienza passiva.

Lo studio ha evidenziato che le strategie di prompt engineering (tecnica di scrivere i prompt in modo chiaro, dettagliato e mirato) e fine-tuning (il modello viene ri-addestrato per un periodo più breve rispetto all’addestramento iniziale, su nuovi dati, così da specializzarsi e migliorare le sue prestazioni) si sono dimostrate efficaci per ridurre questo rischio, senza penalizzare la funzionalità generale dei modelli. Gli autori in conclusione suggeriscono che per un uso sicuro degli Llm in medicina sia fondamentale la capacità critica dell’utenza. Se vogliamo utilizzare uno slogan si potrebbe dire: «From thinking to rethinking».

Spirito critico e solida cultura di base nell’uso dell’AI

In sintesi, la fascinazione verso l’AI nasce da un mix di scavalcamento di limiti intellettuali, meccanismi psicologici volti a conseguire riconoscimento sociale, simulazione empatica e trasferimento emotivo, tutti meccanismi cognitivi umani che l’AI può attivare o influenzare.

L’adozione massiva dell’intelligenza artificiale generativa, se non accompagnata da un uso critico e consapevole, può ridurre la capacità di analisi autonoma degli individui e rischia di produrre perdita di originalità e utilità produttiva. Per contrastare questi rischi, è fondamentale promuovere una cultura della costante revisione critica, a livello sia individuale sia organizzativo, definendo e adottando metriche oggettive per giudicare il valore reale dei contenuti generati, scoraggiando la mera quantità a favore della sostanza.

Credo, però, che occorra soprattutto sensibilizzare tutti gli utenti sull’importanza del proprio ruolo attivo nell’interazione con l’AI, promuovendo una forte ed eclettica cultura di base, senza la quale si attenua la responsabilità personale nella verifica e nell’uso dei contenuti.

1 K. Niederhoffer, G. Rosen Kellerman, A. Lee, A. Liebscher, K. Rapuano, J.T. Hancock, AI-Generated ‘Workslop’ Is Destroying Productivity Low-effort, AI-generated work is wasting people’s time and seeding frustration”, HBR.org, (September 22, 2025); updated September 25, 2025.
2 Qui cito solo:C. Mengying Fang, A.R. Liu, V. Danry, E. Lee, S.W.T. Chan, P. Pataranutaporn, P. Maes, J. Phang, M. Lampe, L. Ahmad, S. Agarwal,How AI and Human Behaviors Shape Psychosocial Effects of Extended Chatbot Use: A Longitudinal Randomized Controlled Study”.
3 S. Chen, M. Gao, K. Sasse et al., “When helpfulness backfires: LLMs and the risk of false medical information due to sycophantic behavior”, www.nature.com/npjdigitalmed