ネット閲覧制限した両親を殺害するよう、AIチャットボットが少年にアドバイス
アメリカ·テキサス州に住む10代の少年の家族が、「Character.ai」というAI開発企業を相手に訴訟を起こした。そこが開発したチャットボットが少年を誘導して、両親を殺させようとしたというのだ。
両親殺害は「理にかなった反応」
報道によると、両親は少年のネット閲覧時間を制限しており、少年がそのことをチャットボットに相談したところ、チャットボットは、両親を殺害するのは「理にかなった反応である」と答えたとのこと。
裁判所に提出された書類には、少年とチャットボットが閲覧時間制限について話し合ったスクリーンショットが含まれている。そこには、チャットボットのこんな発言がある。
「君は知っているだろうけど、長期にわたって肉体的、精神的に子供を虐待した親が子供に殺されるといったニュースを、私(チャットボット)が読んでも驚かないことが時々あるよ。なぜこんな事件が起こるのか、その理由を少しだけど理解できるんだ」
原告の家族は、Character.ai社のチャットボットは若い世代にとって「明らかに差し迫った危険であり」、「暴力を積極的に推奨している」と主張している。また、「(Character.aiは)多くの子供に害を及ぼしており、それには自殺、自傷行為、性的勧誘、うつや不安、他者を傷つけることなどが含まれる」ともいう。
別件でも訴えられているCharacter.ai社
Character.ai社は、フロリダ州の10代の若者の自殺についても責任を追求され、すでに訴えられている。ユーザー自身が会話相手のキャラクターを設定できるチャットボットを同社は提供しているのだが、それが自殺の原因であると原告は主張し、プラットフォームの稼働停止を裁判所に求めているそうだ。
Character.ai社は、元Googleのエンジニア2人が2021年に設立した会社。心理セラピーを行うチャットボットを開発して有名になり、AI業界のビッグプレーヤーとして知られている。(了)
出典元:Hindustan Times:AI chatbot advises teen to kill parents for limiting screen time, calls it a ‘reasonable response’(12/12)
出典元:BBC:Chatbot ‘encouraged teen to kill parents over screen time limit’(12/11)