1M AI Newsのモニタリングによると、インフラストラクチャの出力に取り組むFireworks AIは、Fireworks Trainingのプレビューをリリースし、純粋な出力プラットフォームから学習と展開のための統合プラットフォームへと拡大しています。Fireworks AIは、Metaの元エンジニアでPyTorchの開発に関与したリン・ツァオによって設立され、現在は1日あたり15兆トークンを処理し、評価額は40億ドルに達しています。同プラットフォームは3つのレベルを提供します:1. エージェント学習:MLインフラのないプロダクトチーム向けで、タスクの記述とデータのアップロードにより、学習から展開までの全プロセスを完了でき、現在はLoRAのみをサポート;2. 管理された学習:MLエンジニア向けで、SFT、DPO、強化学習による微調整をサポートし、パラメータの完全な学習を含む;3. API学習:研究チーム向けで、損失関数や学習サイクルのカスタマイズを可能にし、GRPOやDAPOなどのアルゴリズムをサポートし、64 NVIDIA B200上で1ノードのQwen3 8BからKimi K2.5 (兆パラメータ)までの大規模パラメータ学習を実現しています。Fireworks AIの生産出力、Cursorのプログラミングツール、Vercel、Gensparkは、このプラットフォーム上で最先端の強化学習を完了しました。Vercelは、コード生成製品v0の誤り自動修正モデルを訓練し、コードの誤りなし生成率は93%に達し、Sonnet 3.5の62%と比較して大幅に向上、エンドツーエンドの遅延も従来のクローズドモデルと比べて40倍改善しました。Gensparkは、強化学習を用いてオープンモデルのトリリオンパラメータKimi K2を微調整し、深層研究エージェントを作成、ツールの利用率を33%増加させ、コストを50%削減しました。Cursorは、世界中の3-4クラスターでComposer 2の分散強化学習を完了し(現在、CursorBench)でトップに立ち、学習と生産出力のために同じGPUプールを共有しています。Fireworks AIは、学習と出力の間の数値的一貫性において重要な技術的差別化を強調しています。MoE (混合専門家グループ)モデルは、密なモデルよりも数値的に脆弱であり、隠れ状態のわずかな変化が専門家のルーティングを変え、カスケード効果を増幅させる可能性があります。Fireworksは、サポートされるすべてのモデルにおいて、学習と出力間のKLダイバージェンスの値を公開し、すべて0.01未満です。

原文表示
post-image
post-image
post-image
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 1
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
KatyPatyvip
· 2時間前
月へ 🌕
原文表示返信0
  • 人気の Gate Fun

    もっと見る
  • 時価総額:$2.23K保有者数:1
    0.00%
  • 時価総額:$2.23K保有者数:0
    0.00%
  • 時価総額:$2.23K保有者数:1
    0.00%
  • 時価総額:$0.1保有者数:1
    0.00%
  • 時価総額:$2.23K保有者数:0
    0.00%
  • ピン