AI聊天机器人虽能提供帮助,但在某些任务上存在风险甚至危险。大型语言模型(LLM)有时会生成虚假信息并自信地传递错误结论,尤其在涉及税务、医疗账单、法庭日期或银行余额时可能造成严重后果。
1. 身体健康诊断
输入胸痛症状后,ChatGPT错误诊断为癌症,而实际是良性脂肪瘤。虽然AI可辅助草拟医患问题或整理症状时间线,但其无法进行实体检查或开具检验单。
2. 心理健康治疗
AI能提供基础调节技巧,但缺乏真实情感支持和危机应对能力。与持证治疗师相比,AI无法解读肢体语言和语调,其建议可能强化数据偏见。
3. 紧急安全决策
一氧化碳警报响起时,应立即撤离而非咨询AI。语言模型不具备环境感知能力,无法替代紧急救援服务。
4. 个性化财务规划
ChatGPT不了解用户债务比、税务状态等具体情况,其训练数据可能滞后最新政策,建议寻求专业会计师帮助。
5. 机密数据处理
医疗记录、税务文件等受隐私法规保护的信息一旦输入,可能成为训练数据并面临泄露风险,需遵守HIPAA等法规要求。
6. 非法活动
该场景无需赘述。
7. 学术作弊
反剽窃系统已能识别AI生成文本,学生应将AI用作学习工具而非代写工具,否则将面临学术处罚。
8. 实时新闻监测
尽管ChatGPT 2024年升级了联网功能,但其无法自主刷新实时数据,在时效性要求高的场景仍需依赖新闻网站。
9. 赌博预测
AI可能提供错误的体育赛事统计数据,作者强调即使侥幸中奖也属偶然,不应依赖其预测结果。
10. 法律文书起草
各州法律细节差异巨大,AI生成的遗嘱可能因缺少见证人签名而无效,建议仅用AI生成法律问题清单。
11. 艺术创作
作者认为AI不应替代人类艺术创作,建议将AI用于创意辅助而非作品生成。
注:本文母公司的母公司Ziff Davis于2024年起诉OpenAI侵权,此披露可能影响读者对AI工具的认知。
【全文结束】


