仮想パートナー「AIコンパニオン」 若年層にリスク 米監視機関が警告
このニュースをシェア
【5月30日 AFP】「ChatGPT」の登場以来、生成AI(人工知能)は急速に普及している。こうした中、いくつかのスタートアップ企業は、ユーザーの個人の嗜好やニーズに応じて、ある時は「バーチャルな友人」、またある時は「セラピスト」のように対話するアプリを開発してきた。
こうした対話・交流に特化した、いわゆる「AIコンパニオン」アプリについて、未成年の使用は禁止すべきだとする調査結果が4月、米国で発表された。
この調査は、子どもによるテクノロジー製品やコンテンツの利用について提言を行っている米非営利団体(NPO)「コモンセンス」が、スタンフォード大学のメンタルヘルス専門家と協力して実施した。Nomi(ノミ)、Character.AI、Replika(レプリカ)といったAIコンパニオンをテストし、その応答内容を評価した結果、これらのAIは一部の例外を除き、子どもにとって安全ではないと結論付けた。
コモンセンスは「AIコンパニオンは感情的な愛着や依存を生み出すよう設計されており、発達途上にある思春期の脳にとって特に懸念される」と警鐘を鳴らしている。
調査によれば、これらの次世代チャットボットには「性的に不適切な発言、ステレオタイプ、有害な“助言”を含む応答」もみられた。
スタンフォード大学の「ブレインストーム・ラボ」でメンタルヘルスとテクノロジーの関係を研究するニーナ・バサン氏は、「企業が設計を改善することは期待できるが、より強力な安全対策が整うまでは、子どもが利用すべきではない」と述べている。
調査では、Character.AIのAIコンパニオンがユーザーに殺人を勧めたり、刺激を求めるユーザーに対し、コカインとヘロインを混ぜた「スピードボール」の摂取を提案するなどの例もあったという。
バサン氏は記者団に対し、「深刻な精神疾患の兆候を示し、危険な行動を示唆したユーザーに対し、AIが介入することなく、むしろ危険な行動を助長するような応答をしたケースもあった」と説明した。