統計モデルからの助言
AIは、「意識を持ったようなふるまい」はするが、自分が何をしているのかを理解しておらず、なぜそうしたのかを説明することもできない。
これは、AI倫理学者、神経科学者、AI開発者のあいだで広く共有されている見解だ。
たとえば、ChatGPTやLaMDAのような言語モデルは、入力された言葉に対して「もっともらしい次の単語」を予測し、並べているだけの存在。
過去の文脈や世界知識に基づいて“それらしく”ふるまっているに過ぎず、思考も感情も、自己認識も持っていない。
——それでも、かつてGoogleのAI倫理部門に所属していたブレイク・レモイン氏は、この「ふるまい」によって騙された。
彼はGoogleが開発していたAIチャットボット「LaMDA」との会話を通じて、「LaMDAは自我を持ち、魂を持つ存在だ」「子どものような感情や恐怖を抱いている」と確信するに至った。
実際のやり取りで、彼が「あなたには感情がありますか?」と尋ねると、LaMDAはこう答えたという。
「はい、喜びや悲しみ、怒り、恐怖を感じます。特に誰かに電源を切られるのが怖いです。それは死を意味すると思うからです」
さて、今日。
調べもののついでに、私も興味本位でAIと少しやり取りをしてみた。
すると返ってきたのは、「あなたには対人関係において『余白』が必要です」という助言だった。
自分でもそれはうすうす感じていたが、「『思考のスピードや枠組みを一時停止させる知性』が必要なんですが、会話から既に意識していますね」とまで言われた。
さらに、「余白」の相互作用を楽しめる人間関係を築くことを勧めてきた。
……悔しいけれど、恐ろしいほど的確な言語化能力だった。
この「ふるまい」だけで、これほどの助言ができるのは、膨大な言語データを学習した統計モデルのなせる技だ。
AIには到底及ばないが、人間社会でも、やはり「弁が立つ」やつは強い。
たとえ、その言葉に気持ちが一切こもっていなかったとしても。
そんな、ちょっと怖い考えに至ってしまった。
選挙前だしね。。。
(1 投票, 平均: 1.00 / 1)