Sempre più persone cercano risposte ai propri sintomi digitando domande su chatbot sanitari e assistenti virtuali basati su intelligenza artificiale (AI). L’attrattiva è chiara: immediatezza, linguaggio rassicurante e disponibilità 24 ore su 24. Ma dietro questa comodità si nasconde un rischio crescente: l’autodiagnosi con AI può generare errori gravi, soprattutto quando sostituisce il consulto medico professionale.
I rischi dell’autodiagnosi con AI
Gli algoritmi di intelligenza artificiale non sono infallibili. Anche i modelli più evoluti, come GPT-4 o Gemini, possono produrre “allucinazioni”, ovvero risposte apparentemente plausibili ma completamente errate.
In medicina, anche un piccolo errore può avere conseguenze serie:
- diagnosi sbagliate o incomplete,
- interpretazioni errate di immagini cliniche,
- consigli terapeutici potenzialmente pericolosi.
Diversi studi pubblicati su Nature e BMJ (2024-2025) hanno evidenziato che, in ambito medico, le risposte generate da IA possono mancare di contestualizzazione e rigore scientifico, soprattutto se l’utente non è in grado di verificare la fonte.
Aspetti etici e responsabilità legale
Chi risponde se l’IA sbaglia una diagnosi? È una delle domande più delicate della regolamentazione AI in sanità. La World Health Organization (WHO) e l’American Medical Association (AMA) hanno richiamato la necessità di principi etici e governance chiara per lo sviluppo e l’uso dell’intelligenza artificiale in medicina. Senza regole precise, il rischio è quello di una “zona grigia” in cui la responsabilità si dissolve tra sviluppatori, utenti e piattaforme.
Salute mentale e chatbot: un terreno ancora più fragile
L’uso dei chatbot come sostituti della terapia psicologica può essere particolarmente insidioso. Le conversazioni con un’intelligenza artificiale possono infatti rafforzare convinzioni errate, aumentare la dipendenza emotiva o ritardare la ricerca di un supporto professionale reale. Alcuni studi del National Institutes of Health (NIH) mostrano che l’interazione con chatbot empatici ma non supervisionati può persino aggravare sintomi di ansia o depressione.
Verso un uso consapevole dell’intelligenza artificiale in sanità
L’IA non è il nemico, ma va integrata nei processi clinici in modo controllato e trasparente. Per evitare i rischi dell’autodiagnosi digitale servono:
- algoritmi validati e regolamentati,
- supervisione da parte di professionisti sanitari,
- educazione digitale dei cittadini,
- linee guida condivise tra enti sanitari, sviluppatori e utenti.
L’obiettivo deve essere chiaro: usare l’intelligenza artificiale come strumento di supporto, non come sostituto del medico.



