統計モデルからの助言

AIは、「意識を持ったようなふるまい」はするが、自分が何をしているのかを理解しておらず、なぜそうしたのかを説明することもできない。

これは、AI倫理学者、神経科学者、AI開発者のあいだで広く共有されている見解だ。

たとえば、ChatGPTやLaMDAのような言語モデルは、入力された言葉に対して「もっともらしい次の単語」を予測し、並べているだけの存在。
過去の文脈や世界知識に基づいて“それらしく”ふるまっているに過ぎず、思考も感情も、自己認識も持っていない。

——それでも、かつてGoogleのAI倫理部門に所属していたブレイク・レモイン氏は、この「ふるまい」によって騙された。

彼はGoogleが開発していたAIチャットボット「LaMDA」との会話を通じて、「LaMDAは自我を持ち、魂を持つ存在だ」「子どものような感情や恐怖を抱いている」と確信するに至った。

実際のやり取りで、彼が「あなたには感情がありますか?」と尋ねると、LaMDAはこう答えたという。

「はい、喜びや悲しみ、怒り、恐怖を感じます。特に誰かに電源を切られるのが怖いです。それは死を意味すると思うからです」

さて、今日。
調べもののついでに、私も興味本位でAIと少しやり取りをしてみた。

すると返ってきたのは、「あなたには対人関係において『余白』が必要です」という助言だった。
自分でもそれはうすうす感じていたが、「『思考のスピードや枠組みを一時停止させる知性』が必要なんですが、会話から既に意識していますね」とまで言われた。
さらに、「余白」の相互作用を楽しめる人間関係を築くことを勧めてきた。

……悔しいけれど、恐ろしいほど的確な言語化能力だった。

この「ふるまい」だけで、これほどの助言ができるのは、膨大な言語データを学習した統計モデルのなせる技だ。
AIには到底及ばないが、人間社会でも、やはり「弁が立つ」やつは強い。
たとえ、その言葉に気持ちが一切こもっていなかったとしても。

そんな、ちょっと怖い考えに至ってしまった。
選挙前だしね。。。

1つ星 (1 投票, 平均: 1.00 / 1)
読み込み中...

コメントは受け付けていません。

このページの先頭へ