Chào buổi sáng mọi người ☀️


Khi Jensen Huang đề cập đến đào tạo AI phi tập trung, sự chú ý ngay lập tức chuyển hướng về Bittensor.
Nhưng điều này đã được khám phá từ trước đó rất lâu.
Vào tháng 6 năm 2025, @0G_labs đã công bố bài báo DiLoCoX trên arXiv, cho thấy rằng đào tạo mô hình quy mô lớn trên các nút phi tập trung hiệu quả hơn nhiều.
Họ đã chứng minh việc đào tạo hơn 100 tỷ tham số trên phần cứng tiêu chuẩn và internet thông thường, đồng thời cải thiện hiệu quả truyền thông lên 357 lần so với các phương pháp truyền thống.
Cũng có một điểm khác biệt quan trọng thường bị bỏ qua. Bittensor tập trung vào một mạng đã được đào tạo cụ thể, trong khi DiLoCoX được thiết kế như một khung làm việc có thể dùng để đào tạo bất kỳ mô hình nào.
Nó cũng là một phần của một hệ thống rộng hơn kết hợp tính toán, lưu trữ, khả năng truy cập dữ liệu và chuỗi.
Điểm dừng tiếp theo: EthCC Cannes 2025 vào ngày 1 tháng 4 📍
0G5,83%
Xem bản gốc
post-image
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.28KNgười nắm giữ:2
    0.00%
  • Vốn hóa:$2.25KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.25KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Vốn hóa:$2.25KNgười nắm giữ:1
    0.00%
  • Ghim