Xのタイムラインに「Mythos」って名前が流れてきた。最初はゲームか映画の話かと思ったけど、全然違った。
Hugging Faceが出したブログ記事で取り上げられているAIシステムの話だ。ソフトウェアの脆弱性を自動で見つけてパッチまで当てられるという、ちょっと怖いやつ。
読んでみて一番刺さったのは、「Mythosが凄いのはモデル単体じゃなくてシステム全体の設計だ」という部分。これ、AIツールを毎日触ってる自分からすると超わかる感覚だった。
どんなにベースモデルが賢くても、使い方とか組み合わせ次第で全然違う結果が出るよね。Mythosの場合は、大量の計算リソース・セキュリティ特化の学習データ・自律的に動くエージェント設計、この3つが組み合わさってる。それが本体らしい。
つまり「大きいモデル=強い」という単純な話じゃなくて、AIのセキュリティ能力はかなり凸凹(記事の言葉だと「jagged」)に分布してるということ。これは普段のAIツール選びにも通じる気がした。
もう一個面白かったのが「オープンであること」の話。
セキュリティって普通は「隠す=安全」って思いがちだよね。でも記事では真逆の主張をしてた。Linux kernelのセキュリティチームやOpen Source Security Foundationみたいなコミュニティが、複数の目でコードを監視できる体制を作ってる。クローズドなシステムは一社だけが脆弱性を見つけて直す構造になるから、むしろ一点突破されやすいという話。
しかも今はAIが逆コンパイルを手伝えるようになってきてる。「コードを隠せば安全」という前提自体が崩れはじめてる段階らしい。
これ日本の企業はどう受け取るんだろう、とちょっと気になった。まだ「とにかく非公開にしておけば安心」という感覚の会社、多そうだから。
もう一点、個人的にひやっとした話がある。「コードの品質より機能の数で評価されるエンジニア」がAIコーディングツールを使うと、バグを爆速で量産するリスクがある、という指摘。スピード重視でAIに任せすぎると、クローズドなコードベースの中にこっそり脆弱性が積み上がっていく。外部からはAIで攻められ、内部では誰も気づいてない、という最悪の組み合わせになりうる。
これ、フリーランスで案件受けてる自分も他人事じゃない。納品物にAIで書いたコードが混じることって正直ある。ちゃんとレビューしてるか?って問い直させられた。
AIがサイバー攻撃の道具にもなり、防御の道具にもなる時代に入ってきてる。どっちに使われるかはシステムの設計と、使う人間の意図次第だと思う。
まず自分は、自分が納品したコードの品質チェックをAIでもう一周やる習慣をつけてみるつもりだ。スピードだけ求めてたら、後で取り返しのつかないことになりそうで怖くなってきた。
Hugging Faceが出したブログ記事で取り上げられているAIシステムの話だ。ソフトウェアの脆弱性を自動で見つけてパッチまで当てられるという、ちょっと怖いやつ。
「モデルが強い」じゃなくて「システムが強い」という話
読んでみて一番刺さったのは、「Mythosが凄いのはモデル単体じゃなくてシステム全体の設計だ」という部分。これ、AIツールを毎日触ってる自分からすると超わかる感覚だった。
どんなにベースモデルが賢くても、使い方とか組み合わせ次第で全然違う結果が出るよね。Mythosの場合は、大量の計算リソース・セキュリティ特化の学習データ・自律的に動くエージェント設計、この3つが組み合わさってる。それが本体らしい。
つまり「大きいモデル=強い」という単純な話じゃなくて、AIのセキュリティ能力はかなり凸凹(記事の言葉だと「jagged」)に分布してるということ。これは普段のAIツール選びにも通じる気がした。
オープンソースが守る側の武器になる、という逆転の発想
もう一個面白かったのが「オープンであること」の話。
セキュリティって普通は「隠す=安全」って思いがちだよね。でも記事では真逆の主張をしてた。Linux kernelのセキュリティチームやOpen Source Security Foundationみたいなコミュニティが、複数の目でコードを監視できる体制を作ってる。クローズドなシステムは一社だけが脆弱性を見つけて直す構造になるから、むしろ一点突破されやすいという話。
しかも今はAIが逆コンパイルを手伝えるようになってきてる。「コードを隠せば安全」という前提自体が崩れはじめてる段階らしい。
これ日本の企業はどう受け取るんだろう、とちょっと気になった。まだ「とにかく非公開にしておけば安心」という感覚の会社、多そうだから。
もう一点、個人的にひやっとした話がある。「コードの品質より機能の数で評価されるエンジニア」がAIコーディングツールを使うと、バグを爆速で量産するリスクがある、という指摘。スピード重視でAIに任せすぎると、クローズドなコードベースの中にこっそり脆弱性が積み上がっていく。外部からはAIで攻められ、内部では誰も気づいてない、という最悪の組み合わせになりうる。
これ、フリーランスで案件受けてる自分も他人事じゃない。納品物にAIで書いたコードが混じることって正直ある。ちゃんとレビューしてるか?って問い直させられた。
AIがサイバー攻撃の道具にもなり、防御の道具にもなる時代に入ってきてる。どっちに使われるかはシステムの設計と、使う人間の意図次第だと思う。
まず自分は、自分が納品したコードの品質チェックをAIでもう一周やる習慣をつけてみるつもりだ。スピードだけ求めてたら、後で取り返しのつかないことになりそうで怖くなってきた。