
Fireworks AI は Fireworks Training のプレビュー版を公開し、同社のポジショニングを「純粋な推論基盤インフラ提供者」から「訓練+デプロイ」統合型プラットフォームへと拡張しました。前 Meta のエンジニアで、PyTorch の構築に携わった林喬(Lin Qiao)によって創立されたこの AI 基盤インフラ企業は、現在評価額が 40 億ドルに達し、日次処理トークン量は 15 兆にまで達しています。
Fireworks Training の三層アーキテクチャは、技術的背景の異なるユーザー向けに設計されており、プロダクトチーム、ML エンジニア、研究者のいずれも同一プラットフォーム上で訓練からデプロイまでの一連のプロセスを完結できます:
Training Agent(ノーコード層):ML 基盤インフラの知識がないプロダクトチーム向け。タスクを記述し、データをアップロードするだけでエンドツーエンドのフローを実行でき、現在 LoRA の微調整に対応しています。
Managed Training(エンジニア層):ML エンジニア向け。SFT、DPO、強化学習の微調整に対応し、全パラメータ訓練能力を含みます。
Training API(研究層):研究チーム向け。損失関数や訓練サイクルを自分で定義でき、GRPO、DAPO などの強化学習アルゴリズムに対応します。
全パラメータ訓練の規模のレンジは大きく異なります――単一ノードの Qwen3 8B から、NVIDIA B200 GPU 64 枚上の万億パラメータモデル Kimi K2.5 まで。現在の主流なオープンソースモデルの完全な規模範囲をカバーします。
Fireworks AI の既存の推論顧客のうち、すでに3社のトップクラスの AI アプリケーションが最先端の強化学習訓練を完了し、具体的な性能データを公開しています。
Vercel:コード生成プロダクト v0 のために、自動修正モデルを訓練しました。誤りのないコード生成率は 93%で、同等条件下での Claude Sonnet 3.5 は 62%にとどまります。エンドツーエンドのレイテンシは、それまで使用していたクローズドソースのモデルに比べて 40 倍改善しています。
Genspark:万億パラメータのオープンソースモデル Kimi K2 に対して強化学習の微調整を行い、深いリサーチエージェントを構築します。ツール呼び出し回数は 33% 増加し、推論コストは 50% 低下しました。
Cursor:グローバルな 3〜4 のクラスター上で分散方式により Composer 2 の強化学習訓練を実行しています。現在 CursorBench で1位であり、訓練と本番推論で同じ GPU リソースプールを共有することも実現しています。
Fireworks AI が強調する技術上の差別化の核は、訓練と推論の間における「数値的一貫性」です。MoE(ミックスド・エキスパート)モデルでは、隠れ状態の微小な数値偏差が専門家ルーティングの意思決定において連鎖的に増幅され、訓練環境で学習したモデル挙動を推論時に完全に再現できない原因になり得ます。
Fireworks は、対応するすべてのモデルについて訓練と推論の間の KL ダイバージェンス値を公開しており、すべてのモデルで 0.01 未満です。定量的な比較が可能な一貫性の基準を提供し、開発者が訓練から本番デプロイへ移行する際のモデル挙動の安定性を評価できるようにします。
Fireworks AI は AI 推論基盤インフラの会社で、前 Meta のエンジニアである林喬(Lin Qiao)によって創立され、PyTorch の構築に携わった経験があります。同社の現在の評価額は 40 億ドルで、日次処理トークン量は 15 兆、主要顧客には Cursor、Vercel、Genspark などの主流 AI アプリケーションが含まれます。
Training Agent は ML 基盤インフラのないプロダクトチーム向け(ノーコード操作)。Managed Training は ML エンジニア向け(SFT、DPO、強化学習による全パラメータ訓練をサポート)。Training API は研究チーム向け(損失関数と訓練サイクルを自分で定義でき、GRPO、DAPO などのアルゴリズムに対応)。
KL ダイバージェンスは、訓練環境と推論環境の間の数値偏差を測定し、偏差が大きいほどデプロイ後のモデルの挙動が不安定になります。特に MoE モデルでは重要です――微小な偏差がルーティングの意思決定の差異へと増幅され得ます。Fireworks AI は、定量化可能な指標を公開することで、開発者が訓練からデプロイまでの一貫性の品質を客観的に評価できるようにします。