Google Open Source Gemma-3: Comparable to DeepSeek, Computing Power Plummets

robot
Geração do resumo em andamento

Os dados do Jinsan em 13 de março, à noite, Sundar Pichai, CEO da Google (GOOG.O), anunciou que o mais recente modelo grande multimodal, Gemma-3, de Código aberto, é caracterizado por baixo custo e alta performance. Gemma-3 tem quatro conjuntos de parâmetros: 1 bilhão, 4 bilhões, 12 bilhões e 27 bilhões. Mas mesmo com o maior conjunto de 27 bilhões de parâmetros, apenas um H100 é necessário para inferência eficiente, sendo o modelo de pequenos parâmetros mais poderoso atualmente, exigindo pelo menos 10 vezes menos Poder de computação para alcançar o mesmo efeito que modelos semelhantes. De acordo com dados de testes cegos da LMSYS ChatbotArena, o Gemma-3 fica em segundo lugar, atrás apenas do R1-671B da DeepSeek, e à frente de modelos conhecidos como o o3-mini da OpenAI e o Llama3-405B.

Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate.io
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)