Le New York Times a publié jeudi un portrait élogieux de Medvi, une startup pharmaceutique alimentée par IA supposément en voie d'atteindre 1,8 milliard $ en ventes avec seulement deux employés. L'article, qui présentait les éloges de Sam Altman d'OpenAI, positionnait le fondateur Matthew Gallagher comme un visionnaire qui a bâti un empire de prescriptions GLP-1 en utilisant l'intelligence artificielle. Mais le Times a raté un détail crucial : Futurism a exposé Medvi comme une usine de fraude il y a huit mois.
L'enquête de Futurism a révélé que Medvi utilise des profils de faux médecins générés par IA, des photos avant-après volées avec des visages échangés par IA, et des témoignages trompeurs pour vendre des médicaments amaigrissants. Une « histoire de succès » présentait le parcours de perte de poids d'un utilisateur Reddit de 2017—obtenu en arrêtant l'alcool, pas avec des GLP-1—avec un visage altéré par IA. Un médecin que Medvi prétendait comme partenaire a exigé son retrait de leur site, disant qu'il n'avait aucune implication. La FDA a émis des avertissements concernant les pratiques de l'entreprise.
C'est pas juste du journalisme bâclé—c'est un pattern dangereux. Les médias majeurs traitent de plus en plus les entreprises alimentées par IA comme intrinsèquement innovantes sans examiner leurs pratiques réelles. Quand le Times légitime des entreprises qui utilisent l'IA pour fabriquer de fausses accréditations médicales et des témoignages de patients, ça normalise la fraude comme perturbation. La vraie histoire, c'est pas l'efficacité de l'IA ; c'est comment l'IA générative permet une déception sophistiquée à grande échelle dans des industries réglementées comme la santé.
Pour les développeurs qui construisent des outils IA : c'est exactement pourquoi les pratiques d'IA responsables comptent. Chaque détecteur de deepfake, chaque système d'authentification de contenu, chaque garde-fou éthique que vous construisez aide à empêcher l'IA de devenir un multiplicateur de fraude. La technologie qui peut automatiser des entreprises légitimes peut tout aussi facilement automatiser les arnaques—et apparemment tromper les journalistes d'affaires dans le processus.
