Con la diffusione dell’intelligenza artificiale, è cresciuta la capacità di creare e diffondere video falsificati molto realistici, i cosiddetti “deep-fake”. Anche in campo medico queste tecnologie rappresentano una minaccia concreta: dall’uso dell’immagine di un medico senza consenso per promuovere trattamenti non validati, all’elaborazione di contenuti falsi che mettono in discussione la fiducia nelle istituzioni sanitarie.
In Europa e in Italia, il problema è oggetto di normative emergenti e di allarme da parte degli ordini professionali. In questa scheda affrontiamo come si manifesta il fenomeno, quali rischi comporta e quali strumenti sono in atto per contrastarlo.
Dottore, che cosa significa “deep-fake” e come si collega alla sanità?
Il termine “deep-fake” indica video, immagini o audio generati o manipolati mediante tecniche di intelligenza artificiale, in modo da far sembrare che una persona reale dica o faccia qualcosa che in realtà non ha fatto [1]. Nel contesto sanitario, possono comparire sia video in cui un vero medico sembra promuovere un rimedio non scientificamente validato, sia casi in cui il volto o la voce di un professionista vengono usati senza autorizzazione per truffe, pubblicità ingannevoli o per minare la fiducia nei sistemi sanitari.
In Italia, ad esempio, la Federazione Nazionale degli Ordini dei Medici Chirurghi e degli Odontoiatri (FNOMCeO) ha segnalato che i deep-fake “se sono usati per pubblicizzare prodotti che vantano effetti salutistici o addirittura terapeutici, spingendo, a volte, sino ad abbandonare i farmaci, diventano un pericolo per la salute pubblica” [2].
Quali sono i rischi specifici per pazienti, medici e sistema sanitario?
I video deep-fake rappresentano un pericolo sotto diversi punti di vista. Per i pazienti, la principale minaccia è la disinformazione: contenuti che sembrano autorevoli possono convincere a rinunciare a cure validate o ad affidarsi a prodotti inutili o pericolosi (qui la nostra scheda sui rischi delle fake news in ambito sanitario).
Per i medici, c’è il rischio concreto di furto d’identità: le tecnologie deep-fake possono replicare voce e volto a partire da pochi secondi di video reale, creando contenuti falsi che ledono la loro reputazione e credibilità [2, 3].
Il sistema sanitario, nel suo complesso, è esposto a un’erosione della fiducia: se i cittadini non riescono più a distinguere un messaggio autentico da uno manipolato, si rischia una sfiducia generalizzata anche verso le comunicazioni istituzionali [3].
Cosa sappiamo del quadro europeo e italiano sulle normative e sulle misure di contrasto?
A livello europeo, il Regolamento sull’intelligenza artificiale (AI Act) stabilisce un primo quadro giuridico sull’uso dell’intelligenza artificiale, prevedendo obblighi di trasparenza, classificazioni di rischio e responsabilità [4, 5].
In Italia, la legge n. 132 del 2025 ha introdotto un reato specifico: chiunque diffonda, senza il consenso, immagini, video o voci alterati mediante IA idonei a indurre in inganno sulla loro genuinità può essere punito con la reclusione da uno a cinque anni [1]. In questo senso la FNOMCeO ha suggerito ai professionisti della salute di denunciare ogni abuso, ricordando che l’uso non autorizzato dell’identità di un medico è una forma di violenza che può ledere la fiducia tra professionista e paziente [2].
Dottore, cosa possiamo fare per prevenire e contrastare gli effetti dei deep-fake in medicina?
Per i cittadini, la prima difesa è l’attenzione: verifica la fonte di un video, controlla se il professionista citato appartiene a un ente sanitario riconoscibile, e diffida da messaggi che promettono risultati miracolosi. Se ricevi un video shock, che pensi possa essere falso, prima di condividerlo parlane con persone di fiducia di comprovata esperienza in ambito sanitario.
Per i professionisti della salute, è utile proteggere la propria immagine pubblica, evitare di rilasciare video non controllati, e segnalare alle autorità eventuali abusi [2]. Le istituzioni sanitarie possono intervenire promuovendo campagne di informazione, incoraggiando le piattaforme digitali a rimuovere contenuti falsi, e sviluppando strumenti tecnologici per certificare i contenuti autentici. Ma, soprattutto, è essenziale continuare a costruire un rapporto di fiducia tra medico e paziente, basato sulla trasparenza, l’evidenza scientifica e il dialogo.
Argomenti correlati:
Medicina