国立情報学研究所と東京大学医学部の共同研究チームは8月20日、AI技術の医療応用における倫理的リスクについて重要な研究結果を発表した。本研究では、AI倫理委員会が2023年に制定した「AI倫理ガイドライン」の実効性を検証するため、全国の医療機関で勤務する327名の医師を対象にした二重盲検臨床試験を実施。
研究の結果、AI診断支援システムの過度な信頼が医師の臨床的意思決定能力を平均23%低下させることが明らかになった。特に若年層の医師では、AIによる診断提案に対して盲目的に同意する傾向が顕著で、独自の判断を放棄するケースが17%確認された。脳波測定による神経活動解析では、AI依存症候群と診断される医師の前頭葉皮質活性が統計的に有意に低下していることも確認された。
さらに、AI倫理委員会が指摘する「アルゴリズムバイアス」の影響で、学習データに偏りが生じた場合の誤診率が通常の3.2倍になることが実証された。例えば皮膚がん診断AIでは、アジア系患者における偽陽性率が欧米患者の2.8倍高いというデータが得られた。これを受け、研究チームは今後、多民族データセットの構築と倫理的バイアス補正アルゴリズムの開発が急務と指摘している。
総務省は研究結果を受け、9月から「AI医療応用健康影響評価マニュアル」の改訂版を公表する予定だ。新マニュアルでは、医療用AIの導入にあたってのストレス適応性評価や、ヒューマンインターフェースにおけるバイオフィードバック機能の標準搭載などを推奨している。東大医学部の佐藤教授は「AIはあくまで補助手段であり、最終的な判断は人間の医師に委ねるべきだ。技術利用の際には健康リスク管理を最優先に考える必要がある」と警鐘を鳴らしている。
【全文结束】


