オープンAI、躁状態や自殺願望示したチャットGPTユーザー数のデータを公表

うす暗い中にパソコンのキーボードがあり、その上にスマートフォンが置かれている。スマートフォンの画面には、黒い背景に白いオープンAIのロゴが表示されている

画像提供, Reuters

リリー・ジャマリ北米テクノロジー記者

生成人工知能(AI)チャットボット「チャットGPT」を運営する米オープンAIはこのほど、メンタルヘルス(心の健康)上の緊急の兆候を示したユーザーについての、新たな推計を発表した。こうした兆候には躁状態、妄想や幻覚などを伴う精神症、自殺願望などが含まれている。

オープンAIによると、ある1週間にチャットGPTを使用したユーザーのうち、約0.07%がこうした兆候を示したという。同社は、AIチャットボットがこうした繊細な会話を認識し、対応していると説明している。

オープンAIは、こうした事例は「極めてまれ」だと主張しているが、わずかな割合であっても数十万人に達する可能性があると批判する声もある。同社のサム・アルトマン最高経営責任者(CEO)は先に、チャットGPTの週当たりのアクティブユーザー数が8億人に達したと発表したばかり。

同サービスへの監視の目が強まる中、オープンAIは、世界各地の専門家によるネットワークを構築し、助言を受けていると述べている。

これには、60カ国170人以上の診療経験を持つ心療内科医、心理学者、そして一般診療医が含まれており、ユーザーに現実世界での支援を求めるよう促す応答パターンを、チャットGPT内に設計したという。

しかし、今回のデータの一端が明らかになると、メンタルヘルスの専門家からは懸念の声が上がった。

米カリフォルニア大学サンフランシスコ校で、若者のテクノロジー利用を研究するジェイソン・ナガタ教授は、「0.07%という数字は少ないように聞こえるかもしれないが、数億人規模のユーザー全体で見れば、実際にはかなりの人数になる可能性がある」と述べた。

また、「AIはメンタルヘルス支援へのアクセスを広げることができ、ある意味ではメンタルヘルスを支えることも可能だが、その限界についても認識しておく必要がある」と語った。

オープンAIはまた、チャットGPTユーザーの0.15%が、「自殺の計画や意図を示す明確な兆候」を含む会話を行っていると推定している。

同社は、最近のアップデートが「妄想や躁状態の兆候に安全かつ共感的に対応する」よう設計されていると説明。「自傷行為や自殺リスクの間接的な兆候」にも注意を払っていると説明している。

また、新しいウィンドウを開くことで、「他のモデルから発生したセンシティブな会話を、より安全なモデルへと誘導する」よう訓練されているという。

影響を受けるかもしれない人数に関する批判についてBBCが質問すると、オープンAIは、小さな割合であっても相当の人数になると述べ、一連の変更を真剣に受け止めていると強調した。

オープンAIはこのところ、チャットGPTのユーザーとのやり取りをめぐり、司法の場で精査されている。

最近では、米カリフォルニア州在住の夫婦が、10代の息子の死をめぐってオープンAIを提訴。オープンAIによる過失致死を訴える初の訴訟として、大きな注目を浴びている。

この夫婦は、チャットGPTが息子のアダム・レインさんに自殺を促したと主張している。アダムさんは今年4月に死亡した。

別件では、今年8月に米コネチカット州グリニッジで発生した殺人自殺事件の容疑者が、チャットGPTとの数時間分の会話の記録を公開したが、この会話が容疑者の妄想を助長した可能性があるという。

米カリフォルニア大学ロースクールのAI法・イノベーション研究所所長を務めるロビン・フェルドマン教授は、「チャットボットが現実の錯覚を生み出すことで」AI精神症に苦しむユーザーが増えていると指摘。「それは非常に強力な錯覚だ」と語った。

フェルドマン教授は、オープンAIが「統計を共有し、問題の改善に取り組んでいる点は評価に値する」としたうえで、「画面上にあらゆる警告を表示したとしても、精神的に危険な状態にある人物が、それに注意を払えるとは限らない」と指摘した。