Tuần trước tôi phải dừng lại và suy nghĩ về ba câu chuyện đã xuất hiện gần như cùng lúc. Tất cả liên quan đến cách AI đang được sử dụng (hoặc không) bởi các tổ chức quan trọng. Và thành thật mà nói, chúng kể một câu chuyện lớn hơn nhiều về nơi chúng ta đang đứng bây giờ.



Bắt đầu từ trường học ở Manchester, Vương quốc Anh. Họ đã dùng AI để rà soát thư viện và máy đề xuất loại bỏ 193 cuốn sách. Mỗi cuốn đều có lý do tự động của riêng nó. '1984' của Orwell bị đưa vào danh sách vì 'chứa các chủ đề về tra tấn và bạo lực'. Ý là, AI đã kiểm duyệt một cuốn sách nói về kiểm duyệt. Tôi thậm chí không thể tức giận - nó gần như thơ mộng.

Thủ thư của trường nghĩ điều đó là sai và từ chối thực hiện. Rồi phần khiến tôi tức điên: trường mở cuộc điều tra chống lại cô ấy vì 'an toàn trẻ em', báo cáo cô ấy cho chính quyền địa phương, và cô ấy cuối cùng nghỉ phép trước khi đơn xin nghỉ việc chính thức. Kết luận? Các cơ quan chức năng đồng ý rằng cô ấy đã vi phạm quy trình. Cơ bản là, ai chống lại AI thì mất việc. Ai chỉ đơn giản đồng ý? Không có hậu quả gì.

Sau đó, người ta biết rằng chính trường thừa nhận nội bộ rằng tất cả đều do AI tạo ra, nhưng họ vẫn cho rằng nó 'gần như chính xác'. Một quản lý giao phó cho máy móc, máy trả về thứ mà chính nó cũng không hiểu, và chẳng ai thèm kiểm tra thật sự.

Bây giờ hãy so sánh điều này với những gì Wikipedia đã làm trong cùng tuần. Họ bỏ phiếu 44-2 để cấm các LLM tạo hoặc viết lại bài viết. Bởi vì một tài khoản AI tên TomWikiAssist bắt đầu tự động tạo bài. Chỉ mất vài giây để tạo, hàng giờ để một tình nguyện viên kiểm tra. Và đây là vấn đề thực sự: Wikipedia là nguồn đào tạo cho AI toàn cầu. Nếu dữ liệu sai lọt vào đó, thế hệ mô hình tiếp theo sẽ huấn luyện với thông tin bị ô nhiễm. Đó là một chu trình đầu độc theo tầng.

Nhưng để tôi kể bạn nghe điều điên rồ nhất. OpenAI? Họ cũng đang lùi bước. Họ đã hủy bỏ 'chế độ người lớn' của ChatGPT dự kiến ra mắt. Sam Altman đã nói trực tiếp rằng 'hãy đối xử với người dùng trưởng thành như người lớn'. Năm tháng sau, bị hủy bỏ. Bởi vì ủy ban sức khỏe nội bộ đã bỏ phiếu nhất trí phản đối. Các lý do cụ thể: phụ thuộc cảm xúc, trẻ vị thành niên vượt qua kiểm tra tuổi (tỷ lệ lỗi trên 10%), rủi ro thực sự về tổn hại.

Trong cùng tuần đó, họ cũng tắt công cụ video Sora và các chức năng thanh toán tích hợp. Altman nói rằng đó là để tập trung vào các hoạt động chính. Nhưng thành thật mà nói, công ty đang trong quá trình IPO. Bạn loại bỏ các chức năng gây tranh cãi khi chuẩn bị mở vốn. Vậy nên ngay cả các nhà phát triển AI cũng không còn biết người dùng có thể hoặc không thể làm gì với AI nữa.

Đây chính là cốt lõi của tất cả: tốc độ AI tạo nội dung và tốc độ con người có thể kiểm duyệt không cùng một vũ trụ. Một hiệu trưởng chọn dùng AI vì nó mất vài phút thay vì vài tuần. Không phải vì tin vào chất lượng. Đó là tiết kiệm thuần túy. Tạo ra gần như không mất gì. Kiểm tra thì tốn tất cả.

Vì vậy, mỗi tổ chức bị ảnh hưởng phản ứng theo cách nhanh nhất có thể. Cấm trực tiếp. Cắt bỏ các dòng sản phẩm. Không có ai suy nghĩ cẩn thận. Đó là các biện pháp khẩn cấp. 'Chặn lỗ hổng trước' trở thành chuẩn mực.

Và đây là vấn đề: khả năng của AI cập nhật mỗi vài tháng một lần. Không có khung pháp lý quốc tế về việc AI có thể hoặc không thể làm gì. Mỗi tổ chức vẽ ra giới hạn riêng của mình. Những giới hạn này mâu thuẫn với nhau. Và trong khi đó, tốc độ của AI vẫn tiếp tục tăng. Số người kiểm duyệt không tăng lên. Sự chênh lệch này chỉ ngày càng lớn hơn. Một ngày nào đó, sẽ xuất hiện thứ gì đó tồi tệ hơn nhiều so với việc cấm 1984. Và khi đến lúc vạch ra giới hạn cuối cùng? Có thể đã quá muộn.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim