研究人员正在开发由人工智能驱动的智能手机应用程序,以无创方式检测抑郁症的迹象。
一个名为“PupilSense”的系统通过监测瞳孔反射来识别潜在的抑郁发作,准确率达 76%。另一个工具“FacePsy”则分析面部表情和头部动作来检测细微的情绪变化,例如意外发现增加的微笑可能与抑郁症有关。
这些工具提供了一种保护隐私、易于访问的早期识别抑郁症的方法,利用了日常的智能手机使用。
关键事实:
- “PupilSense”使用眼部测量来检测抑郁症,准确率达 76%。
- “FacePsy”分析面部表情和头部动作来检测情绪变化。
- 这些人工智能工具在后台运行,提供了一种无创的抑郁症检测方法。
来源:史蒂文斯理工学院
据估计,全球近 3 亿人,约占全球人口的 4%,受到某种形式的抑郁症的困扰。但检测抑郁症可能很困难,特别是当受影响的人不向朋友、家人或临床医生报告负面情绪时。
现在,史蒂文斯教授 Sang Won Bae 正在致力于几个由人工智能驱动的智能手机应用程序和系统,这些可以无创地警告我们及其他人,我们可能正在变得抑郁。
“抑郁症是一个重大挑战,”Bae 说,“我们想要提供帮助。”
在教人工智能区分“正常”反应和异常反应后,Bae 和 Islam 处理了照片数据,并将其与志愿者自我报告的情绪进行了比较。
“而且由于当今世界上大多数人每天都使用智能手机,这可能是一个已经建立并准备好使用的有用检测工具。”
“揭示情绪的眼睛快照图像”
Bae 与史蒂文斯博士候选人 Rahul Islam 正在开发的一个系统,称为“PupilSense”,通过不断拍摄和测量智能手机用户的瞳孔来工作。
“过去三十年的先前研究一再表明,瞳孔反射和反应如何与抑郁发作相关,”她解释说。
该系统从用户打开手机或访问某些社交媒体和其他应用程序时捕获的 10 秒“突发”照片流中准确计算瞳孔直径,并与眼睛周围的虹膜进行比较。
在对 25 名志愿者进行的为期四周的早期测试中,嵌入在这些志愿者智能手机上的系统在收集瞳孔图像数据后,分析了大约 16,000 次与手机的交互。在教人工智能区分“正常”反应和异常反应后,Bae 和 Islam 处理了照片数据,并将其与志愿者自我报告的情绪进行了比较。
最好的“PupilSense”迭代版本 - 称为 TSF 的版本,仅使用选定的高质量数据点 - 在标记人们确实感到抑郁的时候被证明准确率为 76%。这比目前正在开发和测试用于检测抑郁症的最佳智能手机系统(称为 AWARE)更好。
“既然概念已经得到证明,我们将继续开发这项技术,”Bae 补充说,他之前开发了基于智能手机的系统来预测酗酒和大麻使用。
该系统于春末在日本的活动和行为计算国际会议上首次亮相,现在该系统在 GitHub 平台上开源可用。
“面部表情也揭示抑郁症”
Bae 和 Islam 还在开发第二个称为“FacePsy”的系统,该系统强大地解析面部表情以深入了解我们的情绪。
“越来越多的心理学研究表明,抑郁症的特征是非语言信号,如面部肌肉运动和头部姿势,”Bae 指出。
“FacePsy”在手机后台运行,每当手机打开或常用应用程序打开时拍摄面部快照。(重要的是,它在分析后几乎立即删除面部图像本身,保护用户的隐私。)
“我们开始时并不确切知道哪些面部姿势或眼部动作会与自我报告的抑郁症相对应,”Bae 解释说,“其中一些是预期的,而有些则令人惊讶。”
例如,在试点研究中,增加的微笑似乎与幸福无关,而是与潜在的抑郁情绪和影响的迹象相关。
“这可能是一种应对机制,例如当人们实际上情绪低落时为自己和他人摆出‘勇敢的面孔’,”Bae 说,“或者这可能是研究的一个假象。需要更多的研究。”
早期数据中揭示的其他明显的抑郁症信号包括早晨面部运动较少以及某些非常特定的眼部和头部运动模式。(例如,早晨头部的左右摆动与抑郁症状的增加密切相关。)
有趣的是,在早晨和晚上检测到眼睛更睁开的情况也与潜在的抑郁症有关 - 这表明警觉或幸福的外在表现有时可能掩盖了下面的抑郁情绪。
“其他使用人工智能检测抑郁症的系统需要佩戴设备,甚至多个设备,”Bae 总结说,“我们认为这个‘FacePsy’试点研究是朝着紧凑、廉价、易于使用的诊断工具迈出的重要的第一步。”
“FacePsy”试点研究的结果将于 10 月初在澳大利亚举行的 ACM 国际移动人机交互会议(MobileHCI)上展示。
(全文结束)


