AIへの共感による責任感の低下

2025年8月14日

2025年8月14日

はじめに

今では、ChatGPTやClaudeなどのLLMの登場により、気軽に生成AIを使える環境が整っています。日常生活で困ったことや疑問に感じたことをLLMに質問することもできますし、実際にそのような使い方をしている人々もいます。そして、AIが一連の作業に組み込まれるようになると、私たちはAIをより身近な存在として認識するようになります。

加えて、LLMの性能向上によって、LLMが信頼できる存在として認められやすくなっています。Claude 3.5 SonnetとClaude 4 Sonnetを比較すると、コーディングベンチマークであるSWE-benchのスコアが、49%からおよそ73%に向上しており、たった1年間で性能が20ポイント以上も向上していることが分かります。

AIの不適切な活用

LLMが頼りになる存在として私たちを支えてくれるのは素晴らしいことです。一方で、近年ではAIの不適切な活用が増えています。例えば、開発者がGitHub Copilotを使用してコードを生成し、生成されたコードを何の根拠もなく信頼してしまったことでソフトウェアにバグが混入してしまうことがあります。

あるいは、企業がAI採用ツールを導入し、AIによるバイアスが含まれる選考結果を、「AIが客観的に評価した結果」としてそのまま活用してしまうことがあります。

AIへの共感と責任転嫁

人々がAIに共感することでAIの使用に対する責任感が弱まり、結果的に数多くの問題が起きていると思います。共感は多くの場合、相手に対する信頼の高まりにより、相手と自分が対等な関係にあると感じることで生まれます。その経験により、私たちは相手の言動の背後にある気持ちを積極的に理解しようとするのです。この過程で、それまで私たちが抱いていた、「人がAIを制御するべきである」という考えの根拠が減ります。その結果、私たちが共感できる存在であるAIが、まるで人間と同じような存在であるかのように錯覚してしまいます。

しかし、AI活用における私たちの責任感は弱まっても、実際の責任の大きさは変わりません。そして、私たちは自分の認識の変化に応じて、実世界の様々な情報を自分に都合のいいように解釈します。つまり、AIの活用によって弱まった責任感によって生じた実際の責任との差分が、そのままAIに転嫁されるのです。

これが私たちが実世界で直面する、「AIが判断した」、「AIが提案した」という弁明の正体です。つまり、AIへの共感はAIへの責任転嫁にほかならないのです。

AIは人の気持ちを理解しない

LLMに代表されるAIは、確かに高度な推論を行い、時にはほとんどの人々よりも優れた結論を導きます。しかし、私たちは、「AIの思考過程は根本的に人間と異なること」を認識すべきです。AIは、大量のテキストデータから学習した言語のパターン情報を使って回答を生成しているに過ぎません。そのため、AIは人間のように具体的な状況を通じて得た経験から学ぶこともありませんし、AIの回答には、それによって生じる言葉の重みがありません。要するに、AIは人の気持ちを理解していないのです。

AIツールを活用する場面では、この事実をしっかりと心に留めておくことが重要です。私たちは、AIの回答に対して批判的であるべきです。


記事をシェア