AI生成のレントゲン画像、専門家でも見分けられない。医療ハッキングの怖さ
2026年4月10日 22:00
🤖 AI Summary
AI生成のレントゲン画像が専門家でも見分けられない問題について、2026年4月10日にGizmodo USのMatthew Pheelanによって取り上げられました。ニューヨークのマウントサイナイ医科大学の研究チームは、医療現場でのAI生成画像のリスクを調査しました。
放射線科医17人と協力し、本物とAI生成のレントゲン画像の見分けテストを行いました。その結果、AI生成画像があることを知っている医師グループでは正解率が75%、知らないグループでは41%でした。また、同じ放射線科医でも骨や筋肉に関する専門家は高い正解率を示しました。
さらに、複数のAIモデルも見分けテストを行い、正解率は57%から85%にとどまりました。研究者たちは、このようなリスクが医療ハッキングとして広がる可能性があると警告し、判別ツールや学習用データセットの構築が必要であると主張しました。
オンラインで公開された見分けテストでは、「不自然な完璧さ」をチェックすることでAI生成画像を見分けることが可能ですが、専門家すら困難なため、素人にとってほぼ不可能と言えます。
放射線科医17人と協力し、本物とAI生成のレントゲン画像の見分けテストを行いました。その結果、AI生成画像があることを知っている医師グループでは正解率が75%、知らないグループでは41%でした。また、同じ放射線科医でも骨や筋肉に関する専門家は高い正解率を示しました。
さらに、複数のAIモデルも見分けテストを行い、正解率は57%から85%にとどまりました。研究者たちは、このようなリスクが医療ハッキングとして広がる可能性があると警告し、判別ツールや学習用データセットの構築が必要であると主張しました。
オンラインで公開された見分けテストでは、「不自然な完璧さ」をチェックすることでAI生成画像を見分けることが可能ですが、専門家すら困難なため、素人にとってほぼ不可能と言えます。
