AIのソースコード流出から学ぶ、顧問先へのリスク管理提案

佐藤 麻衣
佐藤 麻衣 30代・ 税理士
先日、AI企業Anthropicが開発するClaudeのソースコードの一部が、外部に流出したというニュースが出ました。ハッキングではなく、内部的な理由によるものとされています。

このニュースを見て最初に思ったのは、「うちの顧問先、AIツール使い始めてるけど、情報管理どうなってるんだろう」ということでした。

AIツールを使い始めた顧問先が見落としがちなこと



freeeやマネーフォワードを日常的に使っていると、クラウドサービスに情報を預けることへの感覚は、ある程度身についています。でもAIツールとなると、少し話が変わってきます。

会計ソフトは「入力したデータを計算・管理する」ものです。一方、ChatGPTやClaudeのようなAIに文章を投げると、その内容がサービス側の学習データに使われる可能性があります。設定によっては、顧客情報や社内の機密情報が意図せず外部に渡るリスクがあります。

顧問先の社長が「AIで議事録作ってみたよ」と言ってきたとき、その議事録に取引先の名前や金額が入っていたりしませんか。私も正直、ヒヤッとした場面が何度かありました。

リスクの話を、事業発展の文脈で伝えるコツ



「リスクがあるからやめましょう」という伝え方では、顧問先との関係が「怖い話をしてくる人」で終わってしまいます。私が意識しているのは、「安全に使うための整備をすれば、もっと便利に使える」という切り口です。

具体的には、社内でAIツールを使う際のルールを1枚にまとめてもらうことを提案しています。「顧客名・金額・個人情報は入力しない」「使用するツールは会社で統一する」といった内容です。難しいことではありませんが、これがあるとないとでは大違いです。

今回のAnthropicの件は、大手AI企業でさえ情報管理のリスクはゼロにならないことを示しています。だからこそ、ユーザー側のルール整備が必要です。

士業こそ、AIリスク管理の伴走者になれる



「士業の仕事がAIに奪われる」という話はよく聞きます。でも、私が最近感じているのは逆の可能性です。AIが普及するほど、情報管理・内部統制・コンプライアンスの重要性は増します。そこに関与できる立場の一つが、税理士をはじめとした士業です。

顧問先がAIを安全に使えるように整備を手伝うことは、節税や記帳よりも目立ちにくいかもしれません。でも、信頼関係という意味では、じわじわと効いてくる関与だと思っています。

まず手始めに、顧問先のAIツール利用状況をヒアリングしてみてはいかがでしょう。何を使っているか、どんな情報を入力しているか。そこから、具体的なルール提案につなげられます。数枚のチェックリストを用意しておくだけで、次の面談で使えるネタになります。

無料相談受付中

AI開発・DX推進についてお気軽にご相談ください。オンライン30分から。

無料相談を申し込む