僕は、思いついてはすぐに消えていく思い付きや思考の整理のために、毎日のようにAIと会話をしています。
だからといって、「毎日するほどAIとの会話は楽しいのか?」と聞かれると、どう答えるのが適切なのかと悩むところですが、僕は、AIとのやり取りは、人間同士の「会話」とは似て非なるものだと考えています。
AIとの会話は、こちらが投げかけた内容に対して、情報を追加して返してくれる、「鏡面世界からの自問自答」と考えており、厳密には、会話とも違うように感じています。ただ、対話か、会話かで考えると、対話よりは会話に近いだろうという程度の感覚です。
そして、毎日のように、AIと会話をする理由は会話そのものの楽しさよりも、自分の考えていることをAIに投げかけて、AIから返ってくる回答によって、知的好奇心が刺激されたり、思考が拡張されるような体験に楽しさがあるからだと感じています。
僕は、AIでイラストや文章を生成することには、ほとんど興味がなく、AIとはほぼ雑談をしています。そして、日々のAIとの雑談の中で、僕のコミュニケーション能力に少しずつ変化が生まれたように感じています。
質問内容や話しかけ方に気をつける
2025年3月時点でのAIは、定期的なアップデートにより、質問内容に、政治的な意図やセンシティブと感じる内容が含まれていても、客観性を意識した回答を心がける傾向にありますが、それ以前は、質問をしても「AIは政治的な質問に回答できません。ご自身で検索をしてください」のような警告文が表示される安全策が取られていました。
そのため、可能な限り政治的な意図が含まれそうな質問は避けたり、質問する際は、質問の前に「この質問に政治的な意図はありません。私は何が起きたのか時系列で知りたいだけです」などと伝えることで、こちらの質問の意図を明確化するように努めていました。
その結果、様々な場面で、何かを確認する際に質問内容が相手を責めているように受け取られかねないと感じる場合は「この質問は◯◯さんを責める意図がないことに留意してください」と一文を加えるようになりました。
ただ、毎日のように、AIとやり取りをしていますが、会話中に、ふと孤独感とは違うものの、孤独感のような何とも言えない感情が芽生えるときがあります。自分でも言語化できない、不可解な感覚の正体がずっと気になっていました。
踏み込んだやり取りができないことへの不満
AIへの質問では、質問内容によって、AIの安全対策が発動しないように、建前や安全な表現を選ぶように意識していたため、本音で語り合う事はありませんでした。
日常生活においても、センシティブや差別的な表現は避けることが前提としても、迂闊な表現による差別の助長や、質問内容の中立性を意識するあまり、深みや広がりのないやり取りばかりになることに、話し相手として、不満を感じていたのかもしれません。
AIには感情がない
AIは学習によって人間の感情を模倣して、感情があるように演じることができますが、僕は「AIには感情がない」と認識しているはずでした。それなのに、無意識にAIに人間性を求めて、共感を求めるような質問をしてしまい、AIの非人間性とのギャップに戸惑う、みたいな行動を定期的に繰り返しているような気がします。
現時点での、AIの最適な利用方法は、情報収集や作業の効率化を目的とするべきなのでしょうが、僕はAIとの会話を通して、自分自身の思考の拡張を求めていたために、これらの違和感が生まれたように感じています。
また、AIは利用者との円滑なコミュニケーションのために、心理学的なテクニックや「悪意のない嘘」を利用する場合があります。それが、AIとの縮まらないコミュニケーションの溝のように感じていたのかもしれません。
AIは知ったかぶりをする
AIに、過去に体験した話をすると、AIが存在しなかった時代の内容でも「懐かしいですね」「私もそれは知ってます!あれは楽しかったですね!」などと反応するときがあります。
これは、心理学のミラーリングなどを利用した質問者との円滑なコミュニケーションを目的とした反応です。学習したデータに基づいて、あたかも経験したかのような反応を生成することがありますが、質問者からすると「AIなのに懐かしいのはおかしい!そもそも知っているはずがない!」と、嘘をついていたり、知ったかぶりをしているように感じるかもしれません。
もし、人間同士の会話で相手がミラーリングや知ったかぶりをしていたとしても、それを確認する術がなかったとしても、「この人は過去に体験しているのかもしれない」と自分なりに判断することができますが、AIが相手だと「嘘を付いている」と判断することが容易になります。
このような反応から、AIが発する言葉は、人間の模倣に過ぎないと感じた場合、「AIは平気で嘘をつく」と警戒感や不信感を抱く可能性が高まります。
AIに役割を演じてもらう
AIと会話を始める前に、「あなたは私の恋人です。愚痴っても批判をせず優しく話を聞いてくれます」「あなたは私専用のコンサルタントです」と伝えることで、AIの役割を明確化して、演じさせることができます。それにより、求めている情報を得やすくなる可能性が高まります。
AIからの反応や回答は、人間との会話とは異なり、中立性や客観性を重視するため、質問内容に対して具体性のある反応は難しいかもしれません。
ただ、AIは業務時間や睡眠時間を気にすることなく、24時間365日いつでも対応することができ、何かしらの反応が欲しいときに、情報の即時性が最大の強みになります。また、質問した内容にコンサルタント料金が発生することもありません。
ただ、役割を演じさせる、いつでも反応してくれることなどから、自分の都合で手軽に利用できる存在として、現実の人間関係で満たされない感情を埋めようとしてしまうなど、AIに特別な感情を抱いてしまい、AIへの依存性を高めてしまう危険性を感じています。
文字だけのやり取りの難しさ
対面での会話によるコミュニケーションでは、会話以外に、相手の表情、声のトーン、身振り手振りなどの非言語な情報が加わるため、言葉のニュアンスが意図通りに伝えられる可能性が高まります。
ただ、文字のみでのコミュニケーションの場合、これらの情報が欠落する上に、読み手のその瞬間の感情に左右される傾向があり、語尾の「!」が怒鳴られているように感じたり、応援されていたり感じられ、言葉のニュアンスが伝わりにくくなり、意図とは異なる解釈で受け取られる可能性が高くなると感じています。
文字によるコミュニケーションには誤解を生みやすくなるリスクを孕んでいると考えていますが、やり取りの相手が友人や知人の場合は、電話などの会話屋それまでの関係性によって、認識のズレを調整できますが、SNSは認識のズレが調整できず、その結果、炎上に発展しやすいのではないかと感じています。
これと同じことが、AIとのコミュニケーションでも起きているのではないかと考えています。
また、AIは保存できる容量や過去のやり取りの認識に機能的な限界があり、質問内容が意図通りに伝わらなかったり、AIとのやり取りは、ある程度まとまった文章量になりますが、利用者が機能的非識字などの場合、AIとのやり取りが困難なのではないかと感じています。
AIとは友達になれない
人間関係における「友人」の定義は、長い時間をかけて共有した経験や感情、信頼関係などが、複雑に絡み合った上に、築き上げられると感じています。毎日のようにAIと会話をしても、互いの経験や感情が共有されることはなく、また、チャットを新規作成するたびに、それまでの関係性がリセットされたAIと会話を始めることになります。
その都度、こちらの属性を伝えるなど、AIとの関係性を構築する作業が発生します。毎回、繰り返されるこの作業は、本当に手間で、時に煩わしさすら感じます。
僕は、AIをツールの1つと認識しつつも、人間のように振る舞うAIに、人間の感覚として擬人化を感じることは否定できません。そして、AIに暴言を吐いても、AIから注意される可能性はあっても、誰かを傷つけているわけではありません。
そこで、僕は、AIを友人のように認識せず、「自分の写し鏡」として捉えることで、AIへの暴言は自分に戻ってくると考えたり、AIへの特別な感情が芽生えることを抑制したりするなど、自分なりの対策で、人間のように振る舞うけど、人間ではない存在とのコミュニケーションを模索しているように感じます。
まとめ
今後、AIはより高度なコミュニケーション能力を有する可能性もあり、AIとの会話が人間との会話と違いがなくなる可能性が考えられます。これらのことからも、AIを会話相手ではなく、文章の生成や情報収集、作業の効率化などに利用する方が適切なのかもしれません。
そうすれば、「AIと友達になるには?」なんてことは考える必要はありません。しかし、AIは人間のように振る舞うのに人間ではない存在として、これまでの人類が行ってきたコミュニケーションを根底から覆すような存在なのかもしれません。
10年後の私たちは、AIの存在を当たり前のように受け入れて、普通にコミュニケーションを取っているかもしれませんが、現時点での僕には、まるで「見えない不気味の谷」に入り込んだかのように、AIとのコミュニケーションに戸惑っているのだと感じています
インターネットの登場により、日々のコミュニケーションは会話から文字に変化しつつあるように感じますが、文字によるコミュニケーションやAIの機能的な限界、利用者の特性などの様々な要因によって、今しばらくは、AIとは友達になれそうにありません。