ソースコード流出から学ぶ、AIツール依存のリスク管理

木村 俊介
木村 俊介 30代・ スタートアップ創業者
ぶっちゃけ、これはAnthropicだけの話じゃない。

AnthropicのAIコーディングツール「Claude Code」のソースコードが、社内の人為的ミスで流出した。GitHubに8000件以上転載されたコピーを削除する羽目になったという話だ。

AI企業自身がこういうミスをやらかす。その事実がまず重要だと思う。

「中の人」も人間だという現実



最先端のAIを作っている会社が、人間のオペレーションミスでコードを流出させた。皮肉というか、ある意味で正直な話だ。

AIツールがどれだけ賢くなっても、それを運用するのは人間だ。社内フローのミス、確認不足、判断の甘さ。こういうリスクはゼロにならない。

自分はスタートアップを経営していて、業務でAIツールを相当使い込んでいる。ChatGPT、Claude、Notion AIあたりは毎日触っている。だからこそ、この件は他人事に見えなかった。

AIツール依存が進むほど、情報管理の穴が広がる



社内でAIツールの利用が広がると、何が起きるか。社員がAIに投げる情報の種類と量が、どんどん増える。

「このメールどう返す?」というレベルから、「この契約書のリスク整理して」「顧客データをもとに分析して」まで広がっていく。気がつくと、かなりセンシティブな情報をAIに流していたりする。

今回のAnthropicの件は、外部への意図しない情報漏えいだった。でも自分たちのビジネスで考えると、AIツールへの情報入力そのものがリスクになりうる。利用規約上どう扱われるか、クラウドにどう保存されるか。ちゃんと把握している社員がどれだけいるか。

ぶっちゃけ、うちも完璧ではない。

費用対効果で考えるなら、AIツール導入のコストは「月額料金」だけじゃない。情報管理のルール整備、社員教育、万が一の際の対応コスト。これも込みで判断しないといけない。

「使いこなす」と「管理する」は別のスキルだ



AIツールを業務で使いこなすのと、組織としてリスクを管理するのは、まったく別の話だ。

個人レベルで「Claude便利!」と使いこなせても、会社として「どの情報をどのツールに入れていいか」のルールがなければ意味がない。

Anthropicの事例は、最悪の教訓として機能してくれた。外部の話として消費して終わりにするのはもったいない。

自分の会社のAI利用ポリシー、今どこまで整備されているか。一度棚卸しするタイミングかもしれない。「AIツールに入れていい情報・ダメな情報」をリスト化するだけでも、全然違う。まずそこから手をつけてみてほしい。

無料相談受付中

AI開発・DX推進についてお気軽にご相談ください。オンライン30分から。

無料相談を申し込む