Google Open SourceGemma-3: comparable to DeepSeek, Puissance de calcul drastically reduced

robot
Création du résumé en cours

Les données Jinshi du 13 mars ont annoncé que hier soir, Sundar Pichai, PDG de Google (GOOG.O), a déclaré que le dernier grand modèle multimodal Open Source, Gemma-3, se concentre sur des performances élevées à faible coût. Gemma-3 dispose de quatre ensembles de paramètres : 1 milliard, 4 milliards, 12 milliards et 27 milliards. Même avec le plus grand ensemble de 27 milliards de paramètres, une seule H100 suffit pour une inférence efficace, ce qui nécessiterait au moins une augmentation de 10 fois de la puissance de calcul pour les modèles similaires, en faisant actuellement le modèle de petit paramètre le plus puissant. Selon les données de test aveugle de LMSYS ChatbotArena, Gemma-3 se classe juste après R1-671B de DeepSeek, supérieur à o3-mini d'OpenAI, Llama3-405B et d'autres modèles populaires.

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate.io app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)