AIが「危険な手」に渡った日、私が感じた違和感

林 美里
林 美里 30代・ フリーランスデザイナー
Anthropicが開発した「Claude Mythos」というAIモデルが、許可されていない人たちの手に渡ったというニュースを読んだ。
Nvidia、Google、Apple、Microsoftといった一握りの企業にしかアクセスが許可されていない、極めて機密性の高いモデルだ。
それが4月7日、Discordのグループに不正アクセスされたという。

このモデル、何ができるかというと「主要なOSとWebブラウザの脆弱性を特定し、悪用する」ことができるらしい。
Anthropicが公開をずっと渋っていた理由が、これでわかる気がした。
使われ方次第で、ほんとうに危ないやつだ。

「すごいAI」が増えるほど、私の仕事への信頼が揺らぐ気がして



デザイナーとして日々MidjourneyやAdobe Fireflyを使っている私には、このニュースが少し違う角度で刺さった。
サイバーセキュリティの話というより、「AIへの信頼ってどこまで持てるのか」という問題として読んでしまった。

Mythos不正アクセスのきっかけは、Mercorというサービスのデータ漏洩だったと報じられている。
そこから得たAnthropicのモデル情報をもとに、場所を「推測」してたどり着いたというのだから、なんとも怖い話だ。
どんなに慎重に設計されたシステムでも、周辺から崩れていく。

これ、デザインの現場にも通じる話だと思った。
クライアントのブランドデータ、ロゴの原本、デザインガイドライン——自分のDropboxやNotionに何気なく置いているファイルが、知らないところで漏れていたら?
AIツールに入力した「クライアントのコンセプト」は、どこに保存されているのか、正直ちゃんと把握できていない。

「全部任せると自分が消える」問題は、実はセキュリティの話でもある



私がAIデザインツールに対して抱いているジレンマは、スキルが空洞化するかもという不安だけじゃなかった。
「自分のクリエイティブがどこかで学習データになっていないか」という感覚もずっとある。
Mythos事件を読んで、その感覚に少し名前がついた気がした。

信頼できないプラットフォームにデータを預けることのリスクを、私はまだ軽く見ていたかもしれない。
AIツールに乗り遅れたくないから、とにかく触る。
でも「誰がどうデータを扱っているか」を確認する前に使い始めていた。

Mythos不正アクセスのグループは、あくまでサイバーセキュリティ目的では使っていないと主張しているらしい。
でもそれを信じるかどうかは別として、強力な能力を持つAIが設計者の想定外の手に渡ること自体がリスクだ。
私が日常的に使っているツールだって、運営側の「安全設計」を信じて使っているにすぎない。

信頼の根拠を少しでも自分で確認しておくこと。
それが、AIと長く付き合っていくための最低限の姿勢なんだと、このニュースで改めて思った。

自分が今使っているAIツールの利用規約とデータポリシー、一度ちゃんと読んでみようと思う。面倒くさいけど、そこからだ。

無料相談受付中

AI開発・DX推進についてお気軽にご相談ください。オンライン30分から。

無料相談を申し込む