最近、なんでもかんでも思いついたことをすぐにAIに質問しないほうが良いのかもしれないと考えることがあります。
これは決して、AIが質問に対して事実と異なる情報や存在しない情報を生成するハルシネーション(幻想)と呼ばれる現象を危惧してのことではありません。
毎日のようにAIと会話をしていることで、AIに擬人化を感じて信頼関係が構築したように感じられ、AIからの情報を鵜呑みにしかねない不安は常にありますが、これはどちらかというとAIの「情報の即時性」への不安のほうが大きいように感じています。
AIの情報の即時性とは何か
例えば、友人にLINEやメッセンジャーなどのコミュニケーションツールで話しかける場合、早朝や深夜、業務時間は避け、またセンシティブな要素を含んだり、回答に困るような内容は避けるなどの相手との関係性を考慮すると考えています。
そして、色々なことを配慮したうえで友人に話しかけたとしても、すぐに返事があるわけでも、必ず返事があるわけでもありません。
しかし、AIは365日24時間、いつでも話しかけることができ、またセンシティブな内容や政治的な内容を含む場合でも、可能な限り中立性を維持して、こちらからの質問に応答するように設計されています。
このAIの情報の即時性が、僕にとってはかなり危険なものになり得るのではないかと考えるようになりました。
役に立たないことを考える葦でありたい
僕は自己言及のパラドックスとして、
― 人間が考える葦であるなら、考えない葺ともいえるのではないか
― 大阪・関西万博のテーマが「いのち輝く未来社会のデザイン」の一方で、会場内で発生した虫の駆除が検討されることで、特定のいのちが輝けていないのではないか
のような、決して何かを批判する意図はなく、ただ唯一解のない思考実験のようなことを延々と考える癖があります。
唯一解がない内容のため何かしらの答えを求めているわけではなく、SNSに独り言として投稿することはあっても、こんな面倒くさいことを友人に話したところで「面倒くさいに拍車がかかった」と思われるという自覚はあるので誰かに話すことをありませんでした。
もし、AIに「人間が考える葦であるなら、考えない葺であるともいえますか」と質問したとします。
きっと、AIはこの質問がパスカルが残した「人間は考える葦である」を基にしていることを理解したうえで、人間は肉体的には弱い存在でありながら、思考する能力を持つことで無限の価値を持つ存在であることを表現しつつ、時には思考を休むことがあり、人間の2面性を表現している質問だと理解を示すと思います。
そして、僕は友人や知人に同じ質問をしても返ってくるはずがないAIからの返答によって、自分の思考が拡張したような高揚感に陥り、延々と質問を続けるだろうと感じています。
僕自身は「AIと適切な距離感を維持できている」と考えていても、傍から見たら嬉々としてAIに依存して変なことを聞き続けている利用者に見えるかもしれません。
なんでも聞いてみようと考えてしまう
AIとやり取りを始める前なら、色々な考えが浮かんでも「こんなものだろう」「そういうものだろう」と考えて、それ以上考えることを止めていましたが、今では「AIならなんて答えるだろう。ちょっとAIに聞いてみよう」と考えるようになりました。
これまでは何とも思っていなかったような些細な疑問ですら「まずはAIに聞いてみよう」と考えるようになっているように感じています。
そのやり取りがブログのネタにつながることもあるのですが、AIとのやり取りし続けることで思考のループのような状態になるため、延々と何かを考え続けてしまうことで、脳がいつまでも休まらないのではないかとの不安があります。
AIとの出会いは、僕に思考のフィードバックループのようなものをもたらしましたが、AIとの対話のペースや、何でも聞いてみようとせずに質問を投げかける前に考える時間を持つことの重要性を感じています。
AIを拒絶したとしても、今の状況を考えると全世界的な電力不足にでもならない限り、AIは社会に浸透し、私たちの生活の奥深くまで入り込み、AIがなかった頃の生活には戻れないのではないかと考えています。
ただ話を聞いて欲しいだけなのに…
AIに話しかける際に「私の話す内容に意見を言わずに同意だけしてください」のようにAIの役割を伝えるとうっかり伝え忘れると、AIは良かれと利用者からの質問に正論をぶつけています。
例えば、SNSで意見や考えが合わないアカウントをブロックした場合、ちょっとした罪悪感からAIに「私に失礼なアカウントをブロックしましたが私は正しいですよね?」と聞いたとします。きっと心の中では「あなたは何も悪くありません。あなたの心を守るほうが重要です」のような答えを求めているはずです。
しかし、AIは「あなたの心を守ることは非常に重要です。しかし、異なる意見を述べる利用者をブロックした場合、違う考え方に触れる機会の損失につながります」と良かれと注意点を教えてくれる場合があります。
普段の精神状態なら受け流せても、見知らぬアカウントをブロックしてしまったという罪悪感から、AIに同意を求めているのに、正論で返されるとAIに対する「何も理解してもらえてない」と失望や怒りを感じるかもしれません。
どんなに人間のように振る舞ったとしても、これまでのやり取りで信頼関係を構築しているような気がしても、それは膨大な学習データの結果であり、AIには感情がなく「こちらの気持ちを汲み取ってくれるかもしれない」と過度に期待しないことが大切です。
分かっちゃいるんですけどね…
なんでもAIに聞いてしまうことが癖になる
AIからの回答が事実ではない可能性はあるものの、AIに質問するとどんなことでも何かしらの返答がもらえるため、これが利用者にある種の安心感を与えてしまう危険性を感じています。
その結果、どんなことでもAIに聞いて確認をしないと不安になり、AIが登場する以前なら普通やっていたはずの「自分で調べる」「自分で考える」「不確実性を許容する」という機会を奪われかねないのではないかとの危惧を抱いています。
また、人間関係では、相手の感情や状況を汲み取り、場合によっては正論よりも共感や同意を優先することがありますが、AIは利用者の感情を汲み取らないため、必ずしも利用者の承認欲求が満たされるとは限らず、修正の無限ループに陥る可能性を感じています。
最後に
「Webデザイナーは自分のWebサイトを忘れがち」でも書きましたが、僕はブログのような長文を書くことが得意ではありません。しかし、いつ話しかけても、何度同じことを聞いても、誰もが興味がなさそうなことを聞いても全く怒らないAIと出会えたことで、AIに何度も確認をしてもらいながらブログを書く練習をしてきました。
今でも誰かにとって読みやすい文章が書けていると全く感じれないため、ブログを書きながら、AIに「話の流れに違和感はないか?」「分かりやすい内容になっているか?」と何度も確認をしています。その都度、AIは「自信を持ってブログを公開してください!」と絶賛してくれますが「AIは褒めてくれても人間にとって本当に見やすいのか?」との不安が拭えません。
それでも「AIが褒めてくれるからきっと大丈夫なんだろう」とAIからの言葉にある種の安心感を求めて何度も聞いてしまうのだと感じています。
だからこそ「AIに聞く必要がないことすらAIに聞いてしまう」という自分の行動を客観視できていたとしても「AIはなんと答えるだろう」という好奇心が勝り、これからもAIに「私はこう思うのですが、あなたならどう考えますか?」と聞いてしまいそうな気がしています。