Samsung lança HBM4E e aprofunda colaboração com a Nvidia, acelerando a "corrida de armazenamento" do poder computacional de IA

robot
Geração de resumo em curso

No contexto de uma procura contínua por poder de processamento de IA, a tecnologia de armazenamento está a tornar-se um fator crítico que limita o desempenho do próximo data center. Na segunda-feira, dia 16, horário local da Califórnia, na GTC, a Samsung Electronics da Coreia do Sul e a Nvidia apresentaram publicamente pela primeira vez o próximo chip de armazenamento de alta largura de banda, HBM4E, destacando a sua colaboração na plataforma de computação de IA com a Nvidia.

O HBM4E apresentado pela Samsung é considerado um marco importante na sua roadmap de memória AI de próxima geração: espera-se que este produto atinja uma velocidade de 16Gbps por pino, com uma largura de banda total de até 4TB/s, direcionado para aceleradores de IA futuros e data centers de grande escala. A indústria acredita que este lançamento marca uma nova fase na evolução conjunta de poder de processamento e armazenamento no ecossistema de chips de IA, ao mesmo tempo que intensifica a competição entre a Samsung e a SK Hynix no mercado de HBM.

Primeira exibição pública do HBM4E: aumento da largura de banda de armazenamento de IA

Na GTC da Nvidia, a Samsung revelou pela primeira vez o chip físico do HBM4E, a sua sétima geração de memória de alta largura de banda (HBM). O HBM4E é uma versão atualizada do HBM4, projetada para oferecer maior largura de banda e menor latência para a próxima geração de aceleradores de IA.

De acordo com informações divulgadas pela Samsung, o HBM4E deverá alcançar:

  • Velocidade de transmissão por pino de 16Gbps
  • Largura de banda por pilha de até aproximadamente 4TB/s
  • Destinado a sistemas de IA e computação de alto desempenho de próxima geração

Comparado com os produtos HBM anteriores, este nível de desempenho melhora ainda mais a capacidade de throughput de dados necessária para treino e inferência de modelos de IA, sendo considerado uma infraestrutura fundamental para suportar modelos com trilhões de parâmetros e a expansão de data centers de IA.

A tecnologia HBM utiliza empilhamento 3D para conectar verticalmente múltiplos chips de DRAM, aumentando significativamente a largura de banda da memória e reduzindo o consumo de energia. Atualmente, ela é um componente central em GPUs e aceleradores de IA.

Aviso de risco e isenção de responsabilidade

O mercado apresenta riscos, e os investimentos devem ser feitos com cautela. Este artigo não constitui aconselhamento de investimento pessoal, nem leva em consideração objetivos, situação financeira ou necessidades específicas de qualquer usuário. Os usuários devem avaliar se as opiniões, pontos de vista ou conclusões aqui apresentadas são compatíveis com suas circunstâncias particulares. Investimentos são de responsabilidade do investidor.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar