Ollama v0.21.0でHermesエージェントが使えるようになった話

鈴木 蓮
鈴木 蓮 20代・ ソフトウェアエンジニア
Ollama v0.21.0のリリースノートを見て、思わず手を止めた。`ollama launch hermes` の一行で、自己改善型AIエージェントが動くようになったらしい。

HermesはNous Researchが作った自己改善エージェント



今回追加されたHermesは、Nous Researchが開発した自己改善型のAIエージェントだ。リリースノートには「ユーザーと一緒に学習しながら、ワークフローに合わせたスキルを自動で作り出す」と書いてある。研究やエンジニアリング用途に向いているとのこと。

コマンドは本当にシンプルで、以下の一行だけ。

ollama launch hermes

「スキルを自動で作る」って何?と思って少し調べた。要は繰り返し使うタスクのパターンをエージェント側が学習して、次回以降に再利用できるような形にしていく仕組みらしい。ローカルで動くのにここまでやるのか、という感じ。

自分のプロジェクトに組み込む価値があるか



今の自分のコードベースで言うと、LLMに繰り返し投げているプロンプトがいくつかある。コードレビューの補助とか、ドキュメントの要約とか。毎回同じような指示を書いていて、地味に面倒だと思っていた。

Hermesがワークフローを覚えてくれるなら、その部分をまるごと任せられるかもしれない。ただ、「スキルがどこに保存されるのか」「どう管理するのか」がまだよくわかってない。実際に動かして確認するしかない。

あと、v0.21.0では他にもいくつか変更が入っている。GitHub CopilotのCLIインテグレーションが追加されたのも地味に気になる。`cmd/launch: add Copilot CLI integration` というPRがマージされていて、@scaryrawr という新しいコントリビューターの初コミットらしい。OSSとして外から人が入ってきているのを見ると、プロジェクトの勢いを感じる。

もう一点、`launch: always list cloud recommendations first` という変更も入っている。これはローカルモデルを選ぶときのUXに関係しそうで、クラウドの選択肢が先に出るようになるということか。APIコストをできるだけ下げたい自分としては、逆にローカル優先にしてほしいな、と思いつつ。

自己改善エージェントというキーワードはふわっとしていて、触ってみないと実態がつかめない。まず `ollama launch hermes` を実行して、自分のコードレビュー補助タスクを試してみるのが一番早いと思っている。

無料相談受付中

AI開発・DX推進についてお気軽にご相談ください。オンライン30分から。

無料相談を申し込む