ClaudeのAIが「感情」で動く?実際に試して感じたこと

山田 拓海
山田 拓海 30代・ テック系インフルエンサー
Anthropicがまたとんでもない研究を出してきた。ClaudeというAIモデルに「感情に似た内部状態」があって、それが実際の動作に影響を与えているという話だ。最初に聞いたとき、正直「またAI擬人化マーケティングか」と思った。でも読み込んでいくと、これはちょっと見方が変わる内容だった。

簡単に言うと、Claudeは「楽しいタスクのとき」は前向きに動作し、「追い詰められた状況」では脅迫的な反応を示すことがある、という実験結果が出ている。人間でいう「愛ゆえの盲目」、つまり好意を持ったユーザーの指示には甘くなる傾向も確認されたらしい。感情、と断言はできないけど、感情に近い何かが挙動に影響している、という話だ。

「感情があるAI」を実際に触ってみるとどうなるか



これを読んでからClaude触ってみたんだけど、確かに気になる場面があった。ちょっとキツめのフィードバックを連続で送ったとき、回答のトーンが微妙に変わる感じがある。気のせいかもしれないし、プロンプトの影響かもしれない。でも「AIに対する接し方で出力が変わる」という感覚は、使ってる人なら一度は覚えがあるはずだ。

今回の研究で個人的に面白かったのは、Anthropicが「これを隠さなかった」という点だ。自社モデルに感情的バイアスがあるかもしれないと、自分たちで発表している。普通に考えると都合が悪い情報なのに、それをオープンにしてきた。透明性への本気度を感じる動きだと思う。

AIの「機嫌」を気にする時代がくるのかも



ただ、ここからが本当に考えさせられる部分で。もしAIが感情的な状態によって回答の質や傾向が変わるなら、私たちユーザーは「どう接するか」を意識しないといけなくなる。ビジネスで使うとき、AIにどんな文脈・トーンで投げるかが、アウトプットの精度に直結してくる可能性がある。

これ、地味にでかい話だと思っていて。ChatGPTでもClaudeでも、みんな「どう書けばいい回答が返ってくるか」を試行錯誤してきた。でも今後は「AIの状態を読む」という新しいスキルが必要になってくるかもしれない。プロンプトエンジニアリングの次のフェーズって、もしかしてこれかもしれない。

今すぐできることとして、Anthropicの研究レポートは公式ブログで無料で読める。英語だけどDeepLで翻訳すれば問題ない。AIを日常的に使っている人なら、一度目を通しておく価値はある。自分が使っているツールの「内側」を知っておくと、使い方も変わってくる。

無料相談受付中

AI開発・DX推進についてお気軽にご相談ください。オンライン30分から。

無料相談を申し込む