Os dados do Jinsan em 13 de março, à noite, Sundar Pichai, CEO da Google (GOOG.O), anunciou que o mais recente modelo grande multimodal, Gemma-3, de Código aberto, é caracterizado por baixo custo e alta performance. Gemma-3 tem quatro conjuntos de parâmetros: 1 bilhão, 4 bilhões, 12 bilhões e 27 bilhões. Mas mesmo com o maior conjunto de 27 bilhões de parâmetros, apenas um H100 é necessário para inferência eficiente, sendo o modelo de pequenos parâmetros mais poderoso atualmente, exigindo pelo menos 10 vezes menos Poder de computação para alcançar o mesmo efeito que modelos semelhantes. De acordo com dados de testes cegos da LMSYS ChatbotArena, o Gemma-3 fica em segundo lugar, atrás apenas do R1-671B da DeepSeek, e à frente de modelos conhecidos como o o3-mini da OpenAI e o Llama3-405B.
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
Google Open Source Gemma-3: Comparable to DeepSeek, Computing Power Plummets
Os dados do Jinsan em 13 de março, à noite, Sundar Pichai, CEO da Google (GOOG.O), anunciou que o mais recente modelo grande multimodal, Gemma-3, de Código aberto, é caracterizado por baixo custo e alta performance. Gemma-3 tem quatro conjuntos de parâmetros: 1 bilhão, 4 bilhões, 12 bilhões e 27 bilhões. Mas mesmo com o maior conjunto de 27 bilhões de parâmetros, apenas um H100 é necessário para inferência eficiente, sendo o modelo de pequenos parâmetros mais poderoso atualmente, exigindo pelo menos 10 vezes menos Poder de computação para alcançar o mesmo efeito que modelos semelhantes. De acordo com dados de testes cegos da LMSYS ChatbotArena, o Gemma-3 fica em segundo lugar, atrás apenas do R1-671B da DeepSeek, e à frente de modelos conhecidos como o o3-mini da OpenAI e o Llama3-405B.