最近、ChatGPTやClaudeを使っていて、ふと「なんかこのAI、共感してくれてる?」と感じたことはないだろうか。
質問すると「それは大変でしたね」とか「なるほど、面白い視点ですね」とか返してくる。感情があるわけじゃないのに、なぜかそう見える。
これ、実はちゃんとした理由がある。
AIは膨大な人間の文章を学習している。その中には、共感を示す言葉、丁寧に応対する言葉、感情を表現する言葉が大量に含まれている。AIは「感情を持つ」のではなく、「感情のある返し方を統計的に学んだ」だけなのだ。
たとえるなら、すごく接客マニュアルを叩き込まれたスタッフみたいな感じ。本当に嬉しいと思っているかどうかは関係なく、適切なタイミングで適切な言葉が出てくる。
私が税理士として仕事をしていて思うのは、これって案外「士業の仕事」と構造が似ているな、ということだ。
確定申告の説明をするとき、私は「これは難しいですね」とか「焦らなくて大丈夫ですよ」と言う。本当に毎回感動しているわけじゃない。でも、相手が不安そうなら自然とそういう言葉が出る。経験から学んだパターンだ。
AIもそれと同じことをやっている。ただ、スケールが桁違いに大きい。
じゃあ、「感情がないなら信用できない」かというと、そうとも言い切れない。freeeで仕訳を自動提案してくれる機能だって、感情はゼロだ。でも実務で普通に頼りにしている。
大事なのは「感情があるかどうか」ではなく、「何をやらせるかを自分がちゃんと判断できているか」だと思う。
士業の仕事がAIに奪われる、という話はよく聞く。正直、全部否定はできない。単純な書類作成や定型的な質問への回答は、AIでも十分にこなせるようになってきた。
でもここで立ち止まって考えてほしい。AIが「感情っぽく」振る舞えても、クライアントの状況を踏まえた判断や、数字の裏にある事情を読み取る力は、まだ別の話だ。
たとえば、売上が急に落ちた月の決算書を見て「この会社、何かあったな」と気づく感覚。それをクライアントに確認して、節税の提案につなげる流れ。これはAIが「共感っぽい返答」を生成するのとは、レイヤーが違う。
AIが感情を持っているように見える理由を知ると、逆に「人間にしかできないこと」の輪郭が少しはっきりしてくる気がする。
AIを怖がる必要はないけど、「何でもやってくれる便利なもの」として丸投げするのも違う。使い方を自分で考える力が、これからはますます問われてくると思う。
質問すると「それは大変でしたね」とか「なるほど、面白い視点ですね」とか返してくる。感情があるわけじゃないのに、なぜかそう見える。
これ、実はちゃんとした理由がある。
AIは膨大な人間の文章を学習している。その中には、共感を示す言葉、丁寧に応対する言葉、感情を表現する言葉が大量に含まれている。AIは「感情を持つ」のではなく、「感情のある返し方を統計的に学んだ」だけなのだ。
たとえるなら、すごく接客マニュアルを叩き込まれたスタッフみたいな感じ。本当に嬉しいと思っているかどうかは関係なく、適切なタイミングで適切な言葉が出てくる。
私が税理士として仕事をしていて思うのは、これって案外「士業の仕事」と構造が似ているな、ということだ。
確定申告の説明をするとき、私は「これは難しいですね」とか「焦らなくて大丈夫ですよ」と言う。本当に毎回感動しているわけじゃない。でも、相手が不安そうなら自然とそういう言葉が出る。経験から学んだパターンだ。
AIもそれと同じことをやっている。ただ、スケールが桁違いに大きい。
じゃあ、「感情がないなら信用できない」かというと、そうとも言い切れない。freeeで仕訳を自動提案してくれる機能だって、感情はゼロだ。でも実務で普通に頼りにしている。
大事なのは「感情があるかどうか」ではなく、「何をやらせるかを自分がちゃんと判断できているか」だと思う。
士業の仕事がAIに奪われる、という話はよく聞く。正直、全部否定はできない。単純な書類作成や定型的な質問への回答は、AIでも十分にこなせるようになってきた。
でもここで立ち止まって考えてほしい。AIが「感情っぽく」振る舞えても、クライアントの状況を踏まえた判断や、数字の裏にある事情を読み取る力は、まだ別の話だ。
たとえば、売上が急に落ちた月の決算書を見て「この会社、何かあったな」と気づく感覚。それをクライアントに確認して、節税の提案につなげる流れ。これはAIが「共感っぽい返答」を生成するのとは、レイヤーが違う。
AIが感情を持っているように見える理由を知ると、逆に「人間にしかできないこと」の輪郭が少しはっきりしてくる気がする。
AIを怖がる必要はないけど、「何でもやってくれる便利なもの」として丸投げするのも違う。使い方を自分で考える力が、これからはますます問われてくると思う。