CT 睡在2025年最大去中心化AI论文上


Jensen 出现在 All-In,CT 猿入 TAO
但真正的工作已经完成
去中心化AI训练的突破已经在9个月前发生
2025年6月,@0G_labs 在 arXiv 上发表了一篇名为 DiLoCoX 的论文
一个在标准1 Gbps互联网下,在20个去中心化节点上训练107B参数模型的框架
结果:
每秒3,728个tokens vs AllReduce的10.4
通信效率提升了357倍
框架验证,但这是唯一在此效率水平上的公开基准
几乎没有人报道
- Bittensor的Covenant-72B是一个训练模型
- DiLoCoX是一个在去中心化基础设施上训练任何模型的框架,完全不同的类别
背后是一个完整的技术栈:计算、存储、去中心化自治和链,没有其他项目能同时覆盖这四个层面
Jensen 只是验证了0G Labs一年前已经证明的论点
4月1日,他们将在 EthCC Cannes 发表演讲,下一章即将开启
TAO-4.43%
0G-3.83%
查看原文
post-image
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论
  • 热门 Gate Fun

    查看更多
  • 市值:$2255.17持有人数:1
    0.00%
  • 市值:$2262.06持有人数:1
    0.00%
  • 市值:$2343.37持有人数:1
    1.57%
  • 市值:$2362.5持有人数:3
    0.80%
  • 市值:$2251.72持有人数:1
    0.00%