金十データ3月13日、昨晩、Google(GOOG.O)のCEOサンダル・ピチャイは、オープンソースの最新のマルチモード大型モデルGemma-3を発表し、低コストで高性能を実現すると発表しました。Gemma-3には10億、40億、120億、270億の4つのパラメータがあります。しかし、最大の270億のパラメータでも、効率的な推論にはたった1つのH100が必要であり、同様のモデルがこの効果を達成するには少なくとも10倍のコンピューティングパワーを必要とし、現在最も強力な小規模パラメータモデルです。盲検のLMSYS ChatbotArenaのデータによると、Gemma-3はDeepSeekのR1-671Bに次ぐ位置にあり、OpenAIのo3-mini、Llama3-405Bなどの有名なモデルよりも優れています。
谷歌オープンソースGemma-3:媲美DeepSeek,コンピューティングパワー暴降
金十データ3月13日、昨晩、Google(GOOG.O)のCEOサンダル・ピチャイは、オープンソースの最新のマルチモード大型モデルGemma-3を発表し、低コストで高性能を実現すると発表しました。Gemma-3には10億、40億、120億、270億の4つのパラメータがあります。しかし、最大の270億のパラメータでも、効率的な推論にはたった1つのH100が必要であり、同様のモデルがこの効果を達成するには少なくとも10倍のコンピューティングパワーを必要とし、現在最も強力な小規模パラメータモデルです。盲検のLMSYS ChatbotArenaのデータによると、Gemma-3はDeepSeekのR1-671Bに次ぐ位置にあり、OpenAIのo3-mini、Llama3-405Bなどの有名なモデルよりも優れています。