Medvi,這家被發現使用deepfake患者證言和虛假醫生檔案的AI遠距醫療公司,在紐約時報因發布忽視該公司有記錄詐欺行為的吹捧性報導而遭到抨擊後,發布了其所謂的「對外部猜測的回應」。這份聲明是在對Medvi的做法和紐約時報未能提及FDA在2026年2月向Medvi發出的警告,或該公司使用AI生成的前後對比照片和虛假醫療從業者的廣泛批評之後發布的。
這不僅僅是另一個AI倫理故事——這是AI工具如何被武器化用於大規模醫療詐騙的完美例子。正如我在5月份報導的那樣,Medvi作為GLP-1處方的行銷包裝器運營,使用AI生成虛假患者故事、醫生檔案,甚至是扭曲的製藥標誌。該公司聲稱僅憑兩名員工就有望實現20億美元的收入,但這種「效率」來自於自動化欺騙而非創新。
科技和健康社群立即指出紐約時報的文章錯過了在社群媒體上顯而易見的明顯危險信號。包括Business Insider和Techdirt在內的多家媒體跟進報導了Medvi的虛假醫生帳戶和誤導性藥品行銷。FDA的警告特別提到Medvi展示他們實際上並不生產的品牌藥丸瓶圖像,並聲稱獲得了未獲批准化合物的FDA批准。
對於構建AI工具的開發者:這是你們的煤礦中的金絲雀。當你們的技術使得大規模生成虛假醫療資格和患者證言變得輕而易舉時,你們不是在顛覆醫療保健——你們是在助長詐騙。一家主要報紙被騙的事實應該告訴你們AI生成的欺騙已經變得多麼令人信服。
