attention-aux-« deepfake »-de-medecins-connus,-au-service-d’arnaques-commerciales

Attention aux « deepfake » de medecins connus, au service d’arnaques commerciales

septembre 14, 2024

Des medecins connus et respectes faisant la promotion de cures « miracle » contre le diabete ou l’hypertension ? Des publicites mensongeres utilisant l’image de figures d’autorite dans le domaine de la sante, manipulee par l’intelligence artificielle, inondent les reseaux sociaux, un deferlement tres difficile a contenir selon des experts.

Sur Facebook et Instagram, ils promettent de guerir du diabete sans metformine, un medicament prescrit en premiere intention, incitant meme les patients a abandonner leur traitement qui « va les tuer », au profit d’obscurs sirops soi-disant « naturels ».

Ces arnaques frisent la mise en danger de la vie d’autrui et sont d’autant plus pernicieuses qu’elles reposent sur l’image de medecins-stars, comme le Dr Michel Cymes en France ou le Dr Michael Mosley au Royaume-Uni, victimes de ces « deepfake », contenus en ligne generes ou modifies grace a l’intelligence artificielle.

« Les gens ont confiance en ces videos car ces medecins ont passe du temps a se construire une image de credibilite, donc on les croit, meme quand ils formulent des allegations totalement farfelues », deplore aupres de l’AFP Dr John Cormack, un generaliste britannique qui collabore avec le British Medical Journal (BMJ) sur ce sujet.

Ces « deepfake » ont « vraiment decolle cette annee », observe Henry Adjer, specialiste de l’intelligence artificielle, notant que les publicites visent surtout un public « un peu age », en detournant l’image de « medecins de television ».

Contacte par l’AFP en mai, Michel Cymes avait dit avoir deja assigne en justice Meta pour denoncer ces « arnaques ».

Le Britannique Hilary Jones, qui apparait sur des videos generees par IA en train de vendre un faux remede contre l’hypertension, mais aussi des gommes au chanvre, a employe un expert pour traquer ces publicites.

« Mais meme quand elles sont enlevees, elles reapparaissent le lendemain sous un autre nom », se desespere-t-il dans le BMJ.

– « Cercles conspirationnistes » –

Ces arnaques « ont pris de l’ampleur en raison des progres du +deep learning+ » (technologie destinee a permettre a une machine d’apprendre par elle-meme), explique Frederic Jurie, enseignant-chercheur en informatique de l’Universite de Caen.

La qualite des « deepfake » en images, audio et video a fait des progres enormes, note le specialiste: « aujourd’hui on accede a des dizaines de milliards d’images et on est capable de construire des algorithmes qui peuvent modeliser tout ce qui peut apparaitre dans les images et regenerer les images. C’est ce qu’on appelle l’IA generative ».

Plus recemment, ce sont des figures controversees, comme le Pr Didier Raoult en France, qui ont ete victimes de « deepfake ».

Barbara O’Neill, une naturopathe australienne consideree comme « presentant un danger pour la sante » par les autorites de son pays apres avoir notamment promu le bicarbonate de soude contre le cancer, est ainsi devenue une star de TikTok sur la base de « deepfake » lui faisant vendre des pilules pour « nettoyer les vaisseaux sanguins » notamment.

Joint par l’AFP, son epoux, qui codirige la O’Neill Company, deplore que « beaucoup de monde utilise la reputation de Barbara pour vendre des produits qu’elle ne recommande pas ».

Ce phenomene ne surprend pas Henry Adjer pour qui « ces personnes sont des modeles pour certains cercles conspirationnistes ».

Parmi les fausses videos utilisant Barbara O’Neill, certaines d’ailleurs versent dans les theories du complot, assurant que la naturopathe est decedee – ce qui est faux – apres avoir mis au jour une huile miraculeuse, vendue sur Amazon.

Face a ces « deepfake », les experts ne sont pas tres optimistes quant au succes des outils de detection: « C’est le jeu du chat et de la souris », explique Frederic Jurie. « Par principe, la detection ne peut pas trop s’ameliorer, parce que si quelqu’un trouvait quelque chose pour ameliorer la detection, a ce moment-la, celui qui veut fabriquer des fausses images utiliserait ce moyen pour le contourner. »

Le chercheur met plutot en avant « des techniques qui permettent de garantir qu’un contenu n’a pas ete altere, comme pour les messageries, grace a des logiciels qui produisent des signatures numeriques, comme un certificat ».

fr_FRFrench