一覧へ
1 分で読めます

frouter:無料AIモデルを自動で見つけてバイブコーディングのコストをゼロにするCLIを作りました

公開したアウトプットが少なすぎると指摘されて眠れなくなり、深夜3時にfrouterを作り始めました。無料AIモデルをリアルタイムで検出し、コーディングツールにワンキーで接続するCLIです。

ずっと会いたかった二人と、昨夜の食事で偶然同席しました。会話の中で、外部に公開しているアウトプットが予想よりかなり少ないと指摘されました。事実だったからこそ、余計に刺さりました。

帰宅後もその言葉が頭から離れず、深夜3時にコードを書き始めました。朝にはfrouter(free router)が動いていました。稼働中の無料AI APIを見つけて、バイブコーディング環境にそのまま接続するCLIツールです。

スキルの壁よりコストの壁のほうが高い

周りから同じ声を繰り返し聞きます。「バイブコーディングを試したいけど、API料金が気になって手を出せない。」学生開発者にとっては月20ドルでも大きな負担です。皮肉なことに、無料モデルの容量はすでにかなり存在しています。NVIDIA NIMは約100モデルを無料APIで提供しており、OpenRouterではプロンプトコストがゼロのモデルだけをフィルタリングできます。ここにOpenCodeのようなオープンソースコーディングツールを組み合わせれば、実際の支出はゼロになります。

問題は、誰もこれらのピースを一つのワークフローに繋いでいなかったことです。

本当に難しいのは「今この瞬間速いモデル」を見つけること

無料モデルの存在を知っている人もいます。より難しいのは、どのモデルがまさに今レスポンスが速いかを知ることです。同じモデルが午前中は200msで返ってくるのに、午後は5秒かかることを実際に確認しました。このレベルのばらつきでは、まともなコーディングセッションを維持できません。

frouterは2秒間隔ですべてのモデルにpingを送ることでこの問題を解決します。同時接続20本のプールで並列測定し、全体の状態を一つのTUIダッシュボードに表示します。5回連続で失敗したモデルにはプログレッシブバックオフを適用して自動的にスキップします。各モデルにはSWE-benchベースのティア(S+〜C)も表示されるため、単に最速のモデルではなく、無料かつ最も高性能なモデルを選べます。

ワンキー設定でJSONファイルを手動で触る必要なし

繰り返し見るパターンがあります。無料モデルを見つけ、コーディングツールのconfigファイルを開き、スキーマが複雑で諦めるというものです。frouterはEnterを押した瞬間にconfigを代わりに書きます。OpenCodeやOpenClawのプロバイダー設定とモデルIDを自動生成し、既存の設定はタイムスタンプ付きバックアップとして残し、APIキーは0600パーミッションで保存します。

oh-my-opencode利用者であれば、NIMモデルをOpenRouterツインに自動で切り替えます。スクリプト用途では--bestモードが最速のモデルIDをstdoutに出力します。

インストール1行、ショートカット4つ

npx frouter-cli

これだけです。TUIがすぐに立ち上がります。W/Xでping間隔を1秒から30秒の間で調整します。PでAPIキー管理とプロバイダートグルを開きます。?で全ショートカットを確認します。グローバルインストールならnpm i -g frouter-cliでも可能です。

コードとドキュメントはtonylee.im/frouterGitHubで確認できます。

まだ確信が持てない部分

プロバイダー3つを同時に動かすケースまでは十分にテストできていません。バックオフロジックは、本当の障害ではなく断続的なコールドスタート遅延があるモデルに対しては積極的すぎるかもしれません。SWE-benchのティアマッピングも公開ベンチマークを基に手作業で整理したものなので、新しいモデルバージョンが出ればずれていくでしょう。利用者が増えてきたらオープンに修正していく予定です。

余談ですが、今週末、チョン・グボンさんが在籍するチーム・アテンション主催のラルフトンハッカソンに参加します。13人が一緒にビルドする場で、参加者の方々に役立つ何かを持っていきたいと思っています。

無料でできる範囲は、ほとんどの人が思っているより広いです。壁は能力ではなく、接続の不在でした。

ニュースレターに登録

最新のプロジェクト、記事、AIとWeb開発の実験に関する情報をお届けします。