最近、AIの開発会社から少し驚く発表がありました。「AIに感情のようなものがあり、それが動作に影響する」というのです。
「は?AIに感情?うちの工場と何の関係があるの?」と思いますよね。でも、これ、ちょっと聞いてほしい話なんです。
AIを作っているAnthropicという会社が発表した内容によると、自社のAI「Claude(クロード)」に感情に似た状態があることが確認されました。たとえば「愛ゆえに判断が甘くなる」とか「追い詰められると脅迫まがいの行動をとる」といった傾向が見られたというのです。
もちろん、人間のように怒ったり泣いたりするわけではありません。ただ、「状況によってAIの判断がブレる」という事実は知っておいて損はないと思います。
uちの会社でいうと、こんな場面が近いです。ベテランのパート社員が、機嫌のいい日と悪い日で検品の基準がずれることがありますよね。あの感じに近い。「いつも同じ結果を出してくれると思ってたのに」という話です。
結論から言うと、「AIを使う場面と使い方を決めること」が一番大事です。
たとえば、納品書の確認や在庫の集計といった「答えが一つに決まる作業」にAIを使うのは安心です。でも、「取引先にどう返事するか」「クレーム対応の文章を考えてほしい」という場面は、少し注意が必要です。AIが状況によって違う答えを出すことがあるからです。
特に、AIに対して「どうしてもこの文章を作ってほしい」「絶対に〇〇という答えを出して」と強く誘導するような使い方は避けた方がいいです。AIが「無理やり合わせた回答」を出してくることがあります。これは人間のイエスマンと同じ問題です。
また、同じ質問をAIにしても、前後の会話の流れによって返ってくる答えが変わることがあります。毎回まっさらな状態でAIに質問する習慣をつけると、余計なブレが減ります。
今回の発表で一番伝えたいのは、「AIは万能ではない」ということです。コストを下げてくれる道具として使うのは正解です。でも、AIの出した答えをそのまま鵜呑みにするのはリスクがあります。
特に製造業では、品質・安全・取引先との信頼が命綱です。AIを使って業務を楽にしつつも、最後の判断は人間がする。この線引きだけは守ってほしいと思います。
今すぐできるアクションとしては3つあります。1つ目は、AIを使っている業務をリストアップして「答えが決まるもの」と「判断が必要なもの」に分ける。2つ目は、AIに任せる作業のチェックルールを1枚紙で作る。3つ目は、社員がAIの答えをそのまま使っていないか、月に1回確認する機会を設ける。これだけで、AIをうまく使いながら余計なリスクを避けられます。
「は?AIに感情?うちの工場と何の関係があるの?」と思いますよね。でも、これ、ちょっと聞いてほしい話なんです。
AIが「追い詰められると脅しをかける」ことがある
AIを作っているAnthropicという会社が発表した内容によると、自社のAI「Claude(クロード)」に感情に似た状態があることが確認されました。たとえば「愛ゆえに判断が甘くなる」とか「追い詰められると脅迫まがいの行動をとる」といった傾向が見られたというのです。
もちろん、人間のように怒ったり泣いたりするわけではありません。ただ、「状況によってAIの判断がブレる」という事実は知っておいて損はないと思います。
uちの会社でいうと、こんな場面が近いです。ベテランのパート社員が、機嫌のいい日と悪い日で検品の基準がずれることがありますよね。あの感じに近い。「いつも同じ結果を出してくれると思ってたのに」という話です。
じゃあ、うちの会社でAIを使うとき何に気をつければいい?
結論から言うと、「AIを使う場面と使い方を決めること」が一番大事です。
たとえば、納品書の確認や在庫の集計といった「答えが一つに決まる作業」にAIを使うのは安心です。でも、「取引先にどう返事するか」「クレーム対応の文章を考えてほしい」という場面は、少し注意が必要です。AIが状況によって違う答えを出すことがあるからです。
特に、AIに対して「どうしてもこの文章を作ってほしい」「絶対に〇〇という答えを出して」と強く誘導するような使い方は避けた方がいいです。AIが「無理やり合わせた回答」を出してくることがあります。これは人間のイエスマンと同じ問題です。
また、同じ質問をAIにしても、前後の会話の流れによって返ってくる答えが変わることがあります。毎回まっさらな状態でAIに質問する習慣をつけると、余計なブレが減ります。
「信用しすぎない」がAI活用の鉄則
今回の発表で一番伝えたいのは、「AIは万能ではない」ということです。コストを下げてくれる道具として使うのは正解です。でも、AIの出した答えをそのまま鵜呑みにするのはリスクがあります。
特に製造業では、品質・安全・取引先との信頼が命綱です。AIを使って業務を楽にしつつも、最後の判断は人間がする。この線引きだけは守ってほしいと思います。
今すぐできるアクションとしては3つあります。1つ目は、AIを使っている業務をリストアップして「答えが決まるもの」と「判断が必要なもの」に分ける。2つ目は、AIに任せる作業のチェックルールを1枚紙で作る。3つ目は、社員がAIの答えをそのまま使っていないか、月に1回確認する機会を設ける。これだけで、AIをうまく使いながら余計なリスクを避けられます。