Le médecin et vulgarisateur vosgien Doc FX a récemment découvert que son image et sa voix avaient été usurpées pour vanter des compléments alimentaires. À son insu, des escrocs ont utilisé la technologie du deepfake – capable d’imiter parfaitement un visage et une voix – pour produire de fausses vidéos le présentant comme ambassadeur de produits sans fondement scientifique.
Une supercherie difficile à déceler
Ces contenus frauduleux, très convaincants pour le grand public, donnent l’impression qu’un professionnel reconnu valide ces produits. Or, il n’en est rien : cette manipulation illustre la facilité avec laquelle l’intelligence artificielle peut être exploitée à des fins trompeuses.
Un danger pour la relation patient-soignant
Au-delà de l’escroquerie financière, le problème est bien plus grave : la diffusion de tels faux fragilise la
crédibilité des professionnels de santé et nourrit la
désinformation médicale. Un patient induit en erreur peut compromettre sa santé en faisant confiance à un message totalement falsifié.
Une menace mondiale à encadrer
L’affaire Doc FX met en lumière l’urgence d’un
encadrement clair de l’IA. Si les deepfakes trouvent parfois des usages créatifs ou pédagogiques, leur emploi à des fins frauduleuses représente une menace croissante. Experts et autorités appellent à développer des
outils de détection, à renforcer la
sensibilisation du public et à envisager de
nouvelles mesures légales.
Une vigilance collective nécessaire
Doc FX n’est pas un cas isolé. D’autres personnalités, notamment du monde médical, sont susceptibles d’être ciblées. La lutte contre ces manipulations suppose une
responsabilité partagée : soignants, plateformes numériques, pouvoirs publics et citoyens doivent unir leurs efforts pour
préserver la confiance dans l’information en santé.