Cộng đồng đặt vấn đề về thiên kiến ý thức hệ trong AI chính thống, gây ra cuộc tranh luận về "độ lệch huấn luyện"

robot
Đang tạo bản tóm tắt

BlockBeats Tin tức, ngày 4 tháng 5, người dùng cộng đồng AI “X Freeze” đã đăng bài cho rằng, bao gồm ChatGPT, Claude và Gemini trong số các mô hình trí tuệ nhân tạo chính thống, về các chủ đề như giới tính, di cư, tội phạm “ít đồng tình với lập trường bảo thủ”, và đặt câu hỏi về khả năng có sự thiên lệch hệ thống trong giá trị hướng của chúng.

Quan điểm này cho rằng, khi khả năng AI nhanh chóng nâng cao, quá trình “định hướng giá trị” (alignment) của nó có thể bị ảnh hưởng bởi dữ liệu huấn luyện và cơ chế thiết kế, từ đó thể hiện xu hướng nhất quán trong một số chủ đề công cộng. Các bình luận liên quan đã gây ra cuộc thảo luận trong cộng đồng về “thiên lệch dữ liệu huấn luyện” và “hướng thiết kế mô hình”.

Hiện tại, các tổ chức phát triển AI chính thống thường cho biết, mục tiêu huấn luyện mô hình của họ là nâng cao độ chính xác và an toàn của thông tin, và giảm thiểu thiên lệch thông qua dữ liệu đa dạng và cơ chế đánh giá, nhưng tranh cãi về tính trung lập giá trị của AI vẫn tiếp tục diễn ra.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim