A CT dormiu no maior artigo de IA descentralizada de 2025


Jensen participa no All-In, CT entra no TAO
mas o verdadeiro trabalho já tinha sido feito
uma inovação no treino de IA descentralizada já aconteceu há 9 meses
Em junho de 2025, @0G_labs publicou um artigo no arXiv chamado DiLoCoX
uma estrutura que treinou um modelo de 107B de parâmetros em 20 nós descentralizados com internet padrão de 1 Gbps
resultado:
3.728 tokens/sec vs 10,4 para AllReduce
uma melhoria de 357x na eficiência de comunicação
validação da estrutura, mas o único benchmark público a esse nível de eficiência
e praticamente ninguém o cobriu
- O Covenant-72B da Bittensor é um modelo treinado
- DiLoCoX é uma estrutura para treinar qualquer modelo em infraestrutura descentralizada, categoria completamente diferente
por trás dela está um stack completo: Computação, Armazenamento, DA e Chain, nenhum outro projeto entrega todas as quatro camadas
Jensen apenas validou a tese que a 0G Labs já provou há um ano
No dia 1 de abril, eles vão falar na EthCC Cannes, o próximo capítulo está chegando
TAO-4,26%
0G-3,52%
Ver original
post-image
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar