Gigazineの記事を見て、Firefoxのサイドバーで動くAIをローカル化する話が気になった。
ClaudeやGeminiといったクラウドのAIサービスしか選べないと思っていたけど、隠し設定でlocalhostを使えるらしい。
Lemonadeというツールと組み合わせれば、完全ローカルで動く。
やり方自体は単純で、about:configから `browser.ml.chat.hideLocalhost` を `false` に切り替えるだけ。
そうするとAI選択肢の中に「localhost」が現れて、Lemonadeのサーバーに繋がるようになる。
Lemonadeはポート8080で動かす必要があるのもポイントで、設定をきちんと合わせないと繋がらない。
記事の検証結果を読んで、正直に言うと「まだ実用レベルには遠い」という印象だった。
Firefoxの「ページを要約」ボタンを押しても「このサイトに問題があるようです」と出てしまって動かない。
ローカルサーバーに対するページコンテキストの受け渡しは、まだ実装が追いついていないみたいだ。
テキストを選択して「これを説明する」はなんとか動いた。
ただしプロンプトに「in Japanese」と書いてあるのに英語で返ってきたとのこと。
モデルの品質依存という話で、Lemonade側でモデルを差し替えれば改善できるらしい。
自分がエンジニアとして気になるのは、APIコスト的なメリットと機能的なトレードオフのバランスだ。
クラウドAIを使うたびにトークン代がかかる状況で、ローカルで完結できるなら試してみたい気持ちはある。
ただ今の状態だと、ページ要約が動かなかったり精度がモデル依存だったりで、日常使いには厳しい。
記事ではページを丸ごとコピーして手動でチャット欄に貼り付けたら要約できた、という話が出てくる。
これ自体はそこまで実用的じゃないけど、逆に言うとAIには「表示中のページへのアクセス権がない」状態なわけで、プライバシー面はむしろ安心と書いてあった。
クラウドAIを使うとURLとページ内容が外部に飛ぶリスクがある。
ローカルなら会社のコードや内部ドキュメントを貼り付けても情報漏洩を心配しなくていい。
その視点で見ると、「精度は低くても手元で動く」という選択肢は、使い方によっては意味がある。
機密性の高い内容を扱うときに、軽いモデルでもローカルで動かすというユースケースは普通にある。
自分は今、個人開発でLLMのAPIコストを削りたいフェーズにいる。
普段はOpenAIのAPIを使っているけど、ブラウジング中のちょっとした調べ物やメモ整理なら、ローカルモデルで十分なシーンも多い。
Firefox + Lemonadeの組み合わせは今すぐ本番投入できる品質ではないにしても、完成度が上がってきたときの選択肢として手元に置いておく価値はある。
まず about:config の設定変更だけでも試してみて、localhostがAI選択肢に出てくる状態を確認してみると面白いと思う。
ClaudeやGeminiといったクラウドのAIサービスしか選べないと思っていたけど、隠し設定でlocalhostを使えるらしい。
Lemonadeというツールと組み合わせれば、完全ローカルで動く。
やり方自体は単純で、about:configから `browser.ml.chat.hideLocalhost` を `false` に切り替えるだけ。
そうするとAI選択肢の中に「localhost」が現れて、Lemonadeのサーバーに繋がるようになる。
Lemonadeはポート8080で動かす必要があるのもポイントで、設定をきちんと合わせないと繋がらない。
実際に動かしてみると制約がわかってくる
記事の検証結果を読んで、正直に言うと「まだ実用レベルには遠い」という印象だった。
Firefoxの「ページを要約」ボタンを押しても「このサイトに問題があるようです」と出てしまって動かない。
ローカルサーバーに対するページコンテキストの受け渡しは、まだ実装が追いついていないみたいだ。
テキストを選択して「これを説明する」はなんとか動いた。
ただしプロンプトに「in Japanese」と書いてあるのに英語で返ってきたとのこと。
モデルの品質依存という話で、Lemonade側でモデルを差し替えれば改善できるらしい。
自分がエンジニアとして気になるのは、APIコスト的なメリットと機能的なトレードオフのバランスだ。
クラウドAIを使うたびにトークン代がかかる状況で、ローカルで完結できるなら試してみたい気持ちはある。
ただ今の状態だと、ページ要約が動かなかったり精度がモデル依存だったりで、日常使いには厳しい。
コンテキストを手動で渡すという回避策の意味
記事ではページを丸ごとコピーして手動でチャット欄に貼り付けたら要約できた、という話が出てくる。
これ自体はそこまで実用的じゃないけど、逆に言うとAIには「表示中のページへのアクセス権がない」状態なわけで、プライバシー面はむしろ安心と書いてあった。
クラウドAIを使うとURLとページ内容が外部に飛ぶリスクがある。
ローカルなら会社のコードや内部ドキュメントを貼り付けても情報漏洩を心配しなくていい。
その視点で見ると、「精度は低くても手元で動く」という選択肢は、使い方によっては意味がある。
機密性の高い内容を扱うときに、軽いモデルでもローカルで動かすというユースケースは普通にある。
自分は今、個人開発でLLMのAPIコストを削りたいフェーズにいる。
普段はOpenAIのAPIを使っているけど、ブラウジング中のちょっとした調べ物やメモ整理なら、ローカルモデルで十分なシーンも多い。
Firefox + Lemonadeの組み合わせは今すぐ本番投入できる品質ではないにしても、完成度が上がってきたときの選択肢として手元に置いておく価値はある。
まず about:config の設定変更だけでも試してみて、localhostがAI選択肢に出てくる状態を確認してみると面白いと思う。