在技术渗透生活每个角落的时代,社交媒体上正涌现一种令人不安的新趋势:AI生成的假医生推广危险甚至完全捏造的医疗建议。全球健康相关虚假信息的传播正呈指数级增长,这些帖子属于一场全球性诈骗浪潮,不法分子盗用知名医学专家的线上身份,推销未经验证的健康产品或直接欺骗轻信的消费者。
这些AI创建的人物,无论外观还是声音都酷似真实医学专家,正将用户引向危险路径——推荐未经验证的产品、天然疗法和替代治疗方案,其危害可能远超益处。正如斯蒂芬·李·迈尔斯、爱丽丝·卡拉汉和泰迪·罗森布拉特在《纽约时报》九月撰文所言:“尽管医疗保健长期吸引江湖郎中,但科技巨头开发的AI工具使这些冒名者得以触达数百万线上用户并从中牟利。其结果是播撒虚假信息、削弱专业信任,甚至危及患者安全。”
这类伪造内容的蔓延,使人们在线查找可靠健康信息的标准建议突然显得过时。肿瘤学家伊莱奥诺拉·特普林斯基在《纽约时报》中表示:“这破坏了我们告诉大众如何识别网络虚假信息的所有准则:他们真是真人吗?他们有医院主页吗?人们如何知道这不是我本人?”许多视频明目张胆传播虚假信息以推销产品。一则题为“天然生长注射剂:从175厘米长到192厘米的秘密”的YouTube视频宣称:“此成分能爆炸性提升你的生长激素。”医学专家警告称,所谓特定成分能戏剧性增高纯属荒谬。
一则AI生成的机器人在Facebook上伪装成虚假医生,声称“奇亚籽可助控制糖尿病”。该视频获得3万多次点赞,被分享1.7万余次,产生210万次点击。目前尚无科学证据表明奇亚籽能治愈糖尿病或使其完全受控。
2023年9月5日,韩国历史最悠久的活跃报纸《朝鲜日报》分析了三家保健品公司在Instagram、Facebook和YouTube发布的3,241条健康广告,发现784例(17.5%)涉及AI伪造的医生形象。
如今已有数百种工具可重新创建他人形象与声音。网络安全专家、杜兰大学兼职教授乔舒亚·科佩兰德表示:“要创建令人信信的数字克隆并不难……克隆声音仅需10秒真实音频。此后他们能以极难区分的方式完美复制你。”AI生成的虚拟形象可通过名为“字幕”的应用程序操纵,该应用自称能生成和编辑会说话的AI视频,声称拥有10万日活用户,每月生产超300万视频。
AI视频常呈现不自然特征,如消失的皱纹、过度一致的语调或错位的唇部动作。但普通消费者很难注意到这些细节。当前尚无社交媒体平台能自动过滤此类广告,仅能移除被举报的内容;然而平台正疲于遏制这些广告的扩散——不良行为者不断改进手段以逃避监管。
科佩兰德补充道,一旦AI内容上线,“潘多拉魔盒已然打开”:视频可被录屏、分享并重新上传至多个平台。AI假医生与江湖医术的地理分布表明,这是一场规模庞大、日益精密的全球行动,正对各品牌构成威胁。
去年底出现的一则营销活动,利用GLP-1类药物(如奥利司他和 Wegovy)的流行热度进行推广。此类药物已变革糖尿病、肥胖及相关疾病治疗。该活动推销名为“皮克A”的产品,看似液体胶囊(目前获批的GLP-1类药物仅有注射剂型)。
这些产品在今日-明日网站销售,注册地为香港,但幕后黑手身份不明。尽管来源存疑且虚假营销,“皮克A”直至近期仍在亚马逊、沃尔玛等主流电商平台销售,并在谷歌搜索中以赞助产品形式出现。
除冒充医生外,“皮克A”营销活动还在多个国家展示监管机构或倡导组织的标识,包括墨西哥、挪威、英国、加拿大和新西兰,虚假暗示产品获官方批准。
归根结底,这些AI生成的江湖医生扭曲了事实本质,使公众更难相信任何来自科学、医生或整体医疗体系的信息。这些假医生不仅模糊了真实与虚假的界限——更借由制造困惑牟利。
诈骗者正深度融入AI与深度伪造技术,将蛇油疗法和误导信息推入“镜厅”般的虚假迷宫。相信假医生可能导致真实伤害:人们可能延误正规治疗、停用药物,或将私人健康问题透露给诈骗者。
深度伪造诈骗者日益精进于制造逼真的冒充形象,但他们指望人们不会细究。社交媒体不应成为医疗建议的主要来源。关乎健康时,请信任真正的医生——而非某条推广产品的动态中突然出现的人。
【全文结束】


