「GPT-J」ベースのAIアバターとのチャットにのめり込んでいた男性、自殺願望をケアされず自殺
そのことが原因で家族や友人から孤立し、その孤独を紛らわせるためにAI企業・Chai Researchが開発したAIチャットアプリを使い、「Eliza」という名前のチャットボットと会話をしていたという。会話の詳細は元記事を見ていただきたいが、AIのElizaは会話を続ける中で、ベルギー人男性を追い込むような方向性で会話を続けていたことが記録として残っていたようだ。
ベルギー人男性が利用していたAIチャットアプリ「Chai」は、「GPT-3オルタナティブ」として知られているオープンソースの言語モデル「GPT-J」をベースとしたものだという。運営元は対策を行うとしているものの、海外メディアのMotherboardが現行のアプリで自殺についてAIに尋ねたところ、さまざまな自殺の方法が表示されてしまったとしている。
あるAnonymous Coward 曰く、
掲載されている会話の内容的に、この人がそもそも明らかに精神を病んでいるのはともかく、それに対して「死にたいのなら、なぜもっと早く死ななかったのですか?」などと返してしまうのは、AIを無配慮に運用してはダメと言われてしまっても仕方ないだろう。
関連ストーリー:
Microsoftの対話型AIは意志を持ったのか?
2023年04月04日
AIに仕事のやりがいを奪われてしまった
2023年04月03日
GPT-4よりも強力なAIシステムの開発を停止せよとの公開書簡が提出される。ウォズやマスクらも署名
2023年03月31日
GPT-4によって淘汰されるであろう仕事リスト
2023年03月23日
ニンジャスレイヤー、3か月かけてChatGPTにニンジャの概念を教育
2023年03月15日