生成AI稟議が通らない本当の理由は法務にあった

石井 雅之
石井 雅之 50代・ 大手製造業・部長
ChatGPTやMicrosoft Copilotを導入しようとして、稟議で止まった経験がある人は多いと思う。うちの部署もそうだった。経営からは「早くDXを進めろ」と言われる。でも法務や情シスから「論点整理ができていない」と返ってくる。この板挟みが、AI推進担当者の一番のストレスだと思う。

そういうタイミングで、生成AI導入における法務の論点をまとめた記事を読んだ。読んでみて最初に感じたのは、「自分たちが法務と噛み合っていなかった理由がここにある」という妙な納得感だった。

法務が気にしているのはリスクの「種類」だった



記事では、法務が検討すべき7つの論点が整理されていた。著作権侵害リスク、個人情報保護法への抵触リスク、事業秘密の漏洩リスク、契約・利用規約違反のリスク、ハルシネーション(誤情報生成)による責任問題、景表法72条との関係、そして労働法・就業規則に関わるリスクの7つだ。

これを見たとき、正直「こんなに論点があったのか」と思った。私が稟議書に書いていたのは「セキュリティ対策を講じています」という一行だけだった。法務の担当者が「論点整理が足りない」と言い続けていた理由が、ここで初めてわかった気がした。

たとえば景表法72条との関係は、AIが生成したマーケティングコピーを使う場合に関係してくる。営業系のユースケースで生成AIを使おうとしていた自分には、見落としていた視点だった。ハルシネーションの責任問題も、「AIが間違いを出したとき誰が責任を取るか」という話で、経営陣も法務も敏感になるポイントだ。

稟議書に書くべき「4ステップ」がそのまま使えた



記事には法務チェックの4ステップも載っていた。ユースケースと入力データの洗い出し、利用ツールの規約・セキュリティ仕様の確認、社内ガイドラインと運用ルールの策定、モニタリング体制と改善サイクルの構築、この順番だ。

これが稟議書のフレームとしてそのまま使えると感じた。経営陣が「何が心配なの?」と聞かれたときに、この4ステップで答えられれば、少なくとも「何も考えていない」とは言われない。法務部門と共通の言語で話せるようになるのが、一番の効果だと思う。

社内ガイドラインに盛り込む5つの項目として、利用可能な生成AIツールの種類、入力してはいけない情報の定義、出力結果の確認責任者、インシデント発生時の報告フロー、定期的な見直しのタイミング、これらが挙げられていた。これも稟議書の付属資料として添付できる形になっていた。

「法務を説得する」ではなく「法務と一緒に作る」に切り替える



今まで自分は、法務を「通過すべき関門」として見ていた。でも実際は、法務が気にしているリスクをあらかじめ資料に盛り込んでしまえば、稟議の場で詰められることが減る。むしろ法務担当者が「この稟議書は使いやすい」と感じてくれる状態を作るほうが、早く通る。

来週、部下の一人と一緒に上記の7つの論点を使って現在の稟議書を見直してみるつもりだ。特に景表法72条とハルシネーションの責任問題の部分は、今の稟議書に一切触れていない。そこを補強するだけで、法務からの差し戻しが減る可能性は高いと思っている。

無料相談受付中

AI開発・DX推進についてお気軽にご相談ください。オンライン30分から。

無料相談を申し込む