"Chúng ta có thể sẽ cần đến một tổ chức nào đó như IAEA (Cơ quan Năng lượng Nguyên tử Quốc tế) cho các nỗ lực siêu trí tuệ; bất kỳ nỗ lực nào vượt quá ngưỡng khả năng nhất định (hoặc tài nguyên như máy tính) sẽ cần phải được cơ quan quốc tế kiểm tra, yêu cầu kiểm toán, kiểm tra. tiêu chuẩn bảo mật, hạn chế về mức độ triển khai và mức độ bảo mật, v.v."
Ban lãnh đạo OpenAI đã xuất bản "Quản trị siêu trí tuệ" trên blog chính thức của mình.
Những tiến bộ trong trí tuệ nhân tạo đủ nhanh và những mối nguy hiểm có thể xảy ra cũng đủ rõ ràng, đến mức lãnh đạo của OpenAI, nhà phát triển ChatGPT, đã tình nguyện rằng thế giới cần một cơ quan quốc tế về siêu trí tuệ tương tự như cơ quan quản lý năng lượng hạt nhân.
Vào ngày 22 tháng 5 giờ địa phương, người sáng lập OpenAI Sam Altman (Sam Altman), chủ tịch Greg Brockman (Greg Brockman) và nhà khoa học trưởng Ilya Sutskever (Ilya Sutskever) đã hợp lực tại công ty Viết trên blog, nói rằng tốc độ đổi mới trong trí tuệ nhân tạo nhanh đến mức chúng ta không thể mong đợi các tổ chức hiện có kiểm soát đầy đủ công nghệ.
Bài báo có tiêu đề "Quản trị siêu trí tuệ", thừa nhận rằng AI sẽ không tự quản lý chính nó, "Chúng ta có thể cần một cái gì đó tương tự như IAEA (Cơ quan Năng lượng Nguyên tử Quốc tế) cho các nỗ lực siêu trí tuệ; bất kỳ hoặc tài nguyên nào chẳng hạn như máy tính) cần phải đạt ngưỡng nỗ lực kiểm tra bởi các cơ quan quốc tế, yêu cầu kiểm toán, kiểm tra xem chúng có đáp ứng các tiêu chuẩn bảo mật hay không, giới hạn mức độ triển khai và mức độ bảo mật, v.v.”
Nhà phê bình và nhà nghiên cứu AI hàng đầu Timnit Gebru đã nói điều tương tự trong một cuộc phỏng vấn với The Guardian ngày hôm đó: "Trừ khi có áp lực từ bên ngoài để làm điều gì đó khác biệt, các công ty không thể tự điều chỉnh. Chúng tôi cần quy định, chúng tôi cần thứ gì đó tốt hơn động cơ lợi nhuận thuần túy ." Gebru đã bị Google sa thải vì lên tiếng về sự nguy hiểm của trí tuệ nhân tạo.
Đề xuất của OpenAI có thể là khởi đầu cho cuộc trò chuyện trong ngành, cho thấy rằng các thương hiệu và nhà cung cấp AI lớn nhất thế giới ủng hộ quy định và rất cần sự giám sát của công chúng, nhưng "chưa biết cách thiết kế một cơ chế như vậy."
Tuần trước, Altman đã làm chứng trước Quốc hội Hoa Kỳ rằng OpenAI "rất lo ngại" về việc các cuộc bầu cử bị ảnh hưởng bởi nội dung do AI tạo ra. Ông lo ngại ngành AI có thể "gây tổn hại đáng kể cho thế giới". "Tôi nghĩ nếu công nghệ này gặp sự cố, nó có thể trở nên tồi tệ và chúng tôi muốn thẳng thắn nói về điều đó." "Chúng tôi muốn hợp tác với chính phủ để ngăn chặn điều đó xảy ra." Altman đề nghị Quốc hội thành lập một Cơ quan mới chịu trách nhiệm giấy phép cho các công nghệ AI "vượt quá một quy mô khả năng nhất định" phải được các chuyên gia kiểm tra độc lập, những người có thể đánh giá liệu mô hình có tuân thủ các quy định đó hay không trước khi phát hành hệ thống AI ra công chúng.
Sau đây là toàn văn bài "Quản trị siêu trí tuệ":
Với bức tranh mà chúng ta đang thấy hiện nay, có thể hình dung rằng trong thập kỷ tới, các hệ thống AI sẽ vượt qua trình độ kỹ năng của các chuyên gia trong hầu hết các lĩnh vực và thực hiện nhiều hoạt động sản xuất như một trong những tập đoàn lớn nhất hiện nay.
Về những lợi ích và bất lợi tiềm năng, siêu trí tuệ sẽ mạnh mẽ hơn các công nghệ khác mà con người đã phải đối phó trong quá khứ. Chúng ta có thể có một tương lai thịnh vượng hơn, nhưng chúng ta phải quản lý rủi ro để đạt được điều đó. Với khả năng xảy ra rủi ro, chúng ta không thể chỉ phản ứng. Năng lượng hạt nhân là một ví dụ lịch sử phổ biến của công nghệ có tính chất này; sinh học tổng hợp là một ví dụ khác.
Chúng ta cũng phải loại bỏ rủi ro đối với các công nghệ AI ngày nay, nhưng trí tuệ siêu việt đòi hỏi khả năng xử lý và phối hợp đặc biệt.
Một điểm khởi đầu
Có một số ý tưởng quan trọng đối với cơ hội tốt của chúng ta trong việc điều hướng thành công sự phát triển này; ở đây chúng tôi đưa ra những suy nghĩ ban đầu của mình về ba trong số đó.
Đầu tiên, chúng ta cần có sự phối hợp ở một mức độ nào đó giữa các nỗ lực phát triển hàng đầu để đảm bảo rằng sự phát triển của siêu trí tuệ diễn ra theo cách vừa giữ an toàn cho chúng ta vừa giúp các hệ thống này hòa nhập thuận lợi với xã hội. Có nhiều cách để đạt được điều này; các chính phủ hàng đầu thế giới có thể thiết lập một chương trình trong đó nhiều nỗ lực hiện tại là một phần trong đó, hoặc chúng ta có thể đồng ý chung (với sự hỗ trợ của tổ chức mới được đề xuất bên dưới) rằng các khả năng AI tiên tiến nhất Tốc độ tăng trưởng của công ty nên được giới hạn ở một tỷ lệ nhất định hàng năm.
Tất nhiên, các công ty riêng lẻ cũng phải hành động có trách nhiệm và với các tiêu chuẩn cực kỳ cao.
Thứ hai, cuối cùng chúng ta có thể cần một cái gì đó giống như IAEA (Cơ quan Năng lượng Nguyên tử Quốc tế) cho các nỗ lực siêu trí tuệ; bất kỳ nỗ lực nào vượt quá một ngưỡng khả năng nhất định (hoặc tài nguyên máy tính, v.v.) sẽ cần phải được kiểm tra bởi một cơ quan quốc tế, yêu cầu một kiểm tra , thử nghiệm để tuân thủ các tiêu chuẩn bảo mật, giới hạn mức độ triển khai và bảo mật, v.v. Việc theo dõi việc sử dụng điện toán và năng lượng sẽ giúp ích rất nhiều và cho chúng ta chút hy vọng rằng ý tưởng này thực sự khả thi. Ở bước đầu tiên, các công ty có thể tự nguyện đồng ý bắt đầu thực hiện các yếu tố mà một ngày nào đó cơ quan này có thể yêu cầu, trong khi ở bước thứ hai, các quốc gia riêng lẻ có thể thực hiện chúng. Điều quan trọng là một cơ quan như vậy phải tập trung vào việc giảm thiểu các rủi ro đang tồn tại, thay vì các vấn đề nên dành cho từng quốc gia, chẳng hạn như xác định AI nên được phép nói gì.
Thứ ba, chúng ta cần khả năng công nghệ để đảm bảo siêu trí tuệ. Đây là một vấn đề nghiên cứu mở và rất nhiều công việc đang được thực hiện bởi chúng tôi và những người khác.
những gì không nằm trong phạm vi
Chúng tôi tin rằng điều quan trọng là cho phép các công ty và dự án nguồn mở phát triển các mô hình dưới ngưỡng khả năng đáng kể mà không có loại quy định mà chúng tôi mô tả ở đây (bao gồm các cơ chế phiền hà như giấy phép hoặc kiểm toán).
Các hệ thống ngày nay sẽ tạo ra giá trị to lớn trên thế giới và mặc dù chúng có rủi ro nhưng những mức độ rủi ro đó dường như tương xứng với các công nghệ internet khác và những gì xã hội có thể làm có vẻ phù hợp.
Ngược lại, các hệ thống mà chúng tôi tập trung vào sẽ có động lực để vượt trội hơn bất kỳ công nghệ nào chưa được tạo ra và chúng tôi nên cẩn thận để không hạ thấp sự tập trung vào các công nghệ kém xa bằng cách áp dụng các tiêu chuẩn tương tự cho chúng.
Đầu vào và tiềm năng của công chúng
Nhưng việc quản lý các hệ thống mạnh mẽ nhất và các quyết định về việc triển khai chúng phải có sự giám sát chặt chẽ của công chúng. Chúng tôi tin rằng mọi người trên khắp thế giới nên xác định một cách dân chủ các ranh giới và mặc định của các hệ thống AI. Chúng tôi chưa biết cách thiết kế một cơ chế như vậy, nhưng chúng tôi dự định thử nghiệm sự phát triển của nó. Chúng tôi vẫn tin rằng trên những phạm vi rộng này, người dùng cá nhân nên có nhiều quyền kiểm soát đối với hành vi của AI mà họ sử dụng.
Với những rủi ro và khó khăn, thật đáng để xem xét lý do tại sao chúng tôi xây dựng công nghệ này.
Tại OpenAI, chúng tôi có hai lý do cơ bản. Đầu tiên, chúng tôi tin rằng điều này sẽ dẫn đến một thế giới tốt đẹp hơn những gì chúng ta tưởng tượng ngày nay (chúng tôi đã thấy những ví dụ ban đầu về điều này trong các lĩnh vực như giáo dục, công việc sáng tạo và năng suất cá nhân). Thế giới phải đối mặt với nhiều vấn đề và chúng ta cần thêm trợ giúp để giải quyết chúng; công nghệ này có thể cải thiện xã hội của chúng ta và khả năng sáng tạo của mọi người khi sử dụng những công cụ mới này chắc chắn sẽ làm chúng ta ngạc nhiên. Tăng trưởng kinh tế và cải thiện chất lượng cuộc sống sẽ là một hiện tượng.
Thứ hai, chúng tôi tin rằng việc ngăn chặn siêu trí tuệ sẽ có những rủi ro và khó khăn không trực quan. Vì lợi ích quá lớn, chi phí xây dựng nó đang giảm hàng năm, số lượng người chơi xây dựng nó đang tăng lên nhanh chóng và về cơ bản, đó là một phần của con đường công nghệ mà chúng tôi đang đi, việc ngăn chặn nó đòi hỏi một thứ gì đó giống như hệ thống giám sát toàn cầu , Ngay cả điều này không được đảm bảo để làm việc. Vì vậy, chúng ta phải làm cho nó đúng.
Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
Bộ ba lãnh đạo OpenAI đã cùng viết một bài báo kêu gọi một cơ quan quốc tế giám sát siêu trí tuệ
Nguồn: The Paper
Phóng viên Fang Xiao
"Chúng ta có thể sẽ cần đến một tổ chức nào đó như IAEA (Cơ quan Năng lượng Nguyên tử Quốc tế) cho các nỗ lực siêu trí tuệ; bất kỳ nỗ lực nào vượt quá ngưỡng khả năng nhất định (hoặc tài nguyên như máy tính) sẽ cần phải được cơ quan quốc tế kiểm tra, yêu cầu kiểm toán, kiểm tra. tiêu chuẩn bảo mật, hạn chế về mức độ triển khai và mức độ bảo mật, v.v."
Những tiến bộ trong trí tuệ nhân tạo đủ nhanh và những mối nguy hiểm có thể xảy ra cũng đủ rõ ràng, đến mức lãnh đạo của OpenAI, nhà phát triển ChatGPT, đã tình nguyện rằng thế giới cần một cơ quan quốc tế về siêu trí tuệ tương tự như cơ quan quản lý năng lượng hạt nhân.
Vào ngày 22 tháng 5 giờ địa phương, người sáng lập OpenAI Sam Altman (Sam Altman), chủ tịch Greg Brockman (Greg Brockman) và nhà khoa học trưởng Ilya Sutskever (Ilya Sutskever) đã hợp lực tại công ty Viết trên blog, nói rằng tốc độ đổi mới trong trí tuệ nhân tạo nhanh đến mức chúng ta không thể mong đợi các tổ chức hiện có kiểm soát đầy đủ công nghệ.
Bài báo có tiêu đề "Quản trị siêu trí tuệ", thừa nhận rằng AI sẽ không tự quản lý chính nó, "Chúng ta có thể cần một cái gì đó tương tự như IAEA (Cơ quan Năng lượng Nguyên tử Quốc tế) cho các nỗ lực siêu trí tuệ; bất kỳ hoặc tài nguyên nào chẳng hạn như máy tính) cần phải đạt ngưỡng nỗ lực kiểm tra bởi các cơ quan quốc tế, yêu cầu kiểm toán, kiểm tra xem chúng có đáp ứng các tiêu chuẩn bảo mật hay không, giới hạn mức độ triển khai và mức độ bảo mật, v.v.”
Nhà phê bình và nhà nghiên cứu AI hàng đầu Timnit Gebru đã nói điều tương tự trong một cuộc phỏng vấn với The Guardian ngày hôm đó: "Trừ khi có áp lực từ bên ngoài để làm điều gì đó khác biệt, các công ty không thể tự điều chỉnh. Chúng tôi cần quy định, chúng tôi cần thứ gì đó tốt hơn động cơ lợi nhuận thuần túy ." Gebru đã bị Google sa thải vì lên tiếng về sự nguy hiểm của trí tuệ nhân tạo.
Đề xuất của OpenAI có thể là khởi đầu cho cuộc trò chuyện trong ngành, cho thấy rằng các thương hiệu và nhà cung cấp AI lớn nhất thế giới ủng hộ quy định và rất cần sự giám sát của công chúng, nhưng "chưa biết cách thiết kế một cơ chế như vậy."
Tuần trước, Altman đã làm chứng trước Quốc hội Hoa Kỳ rằng OpenAI "rất lo ngại" về việc các cuộc bầu cử bị ảnh hưởng bởi nội dung do AI tạo ra. Ông lo ngại ngành AI có thể "gây tổn hại đáng kể cho thế giới". "Tôi nghĩ nếu công nghệ này gặp sự cố, nó có thể trở nên tồi tệ và chúng tôi muốn thẳng thắn nói về điều đó." "Chúng tôi muốn hợp tác với chính phủ để ngăn chặn điều đó xảy ra." Altman đề nghị Quốc hội thành lập một Cơ quan mới chịu trách nhiệm giấy phép cho các công nghệ AI "vượt quá một quy mô khả năng nhất định" phải được các chuyên gia kiểm tra độc lập, những người có thể đánh giá liệu mô hình có tuân thủ các quy định đó hay không trước khi phát hành hệ thống AI ra công chúng.
Sau đây là toàn văn bài "Quản trị siêu trí tuệ":
Với bức tranh mà chúng ta đang thấy hiện nay, có thể hình dung rằng trong thập kỷ tới, các hệ thống AI sẽ vượt qua trình độ kỹ năng của các chuyên gia trong hầu hết các lĩnh vực và thực hiện nhiều hoạt động sản xuất như một trong những tập đoàn lớn nhất hiện nay.
Về những lợi ích và bất lợi tiềm năng, siêu trí tuệ sẽ mạnh mẽ hơn các công nghệ khác mà con người đã phải đối phó trong quá khứ. Chúng ta có thể có một tương lai thịnh vượng hơn, nhưng chúng ta phải quản lý rủi ro để đạt được điều đó. Với khả năng xảy ra rủi ro, chúng ta không thể chỉ phản ứng. Năng lượng hạt nhân là một ví dụ lịch sử phổ biến của công nghệ có tính chất này; sinh học tổng hợp là một ví dụ khác.
Chúng ta cũng phải loại bỏ rủi ro đối với các công nghệ AI ngày nay, nhưng trí tuệ siêu việt đòi hỏi khả năng xử lý và phối hợp đặc biệt.
Một điểm khởi đầu
Có một số ý tưởng quan trọng đối với cơ hội tốt của chúng ta trong việc điều hướng thành công sự phát triển này; ở đây chúng tôi đưa ra những suy nghĩ ban đầu của mình về ba trong số đó.
Đầu tiên, chúng ta cần có sự phối hợp ở một mức độ nào đó giữa các nỗ lực phát triển hàng đầu để đảm bảo rằng sự phát triển của siêu trí tuệ diễn ra theo cách vừa giữ an toàn cho chúng ta vừa giúp các hệ thống này hòa nhập thuận lợi với xã hội. Có nhiều cách để đạt được điều này; các chính phủ hàng đầu thế giới có thể thiết lập một chương trình trong đó nhiều nỗ lực hiện tại là một phần trong đó, hoặc chúng ta có thể đồng ý chung (với sự hỗ trợ của tổ chức mới được đề xuất bên dưới) rằng các khả năng AI tiên tiến nhất Tốc độ tăng trưởng của công ty nên được giới hạn ở một tỷ lệ nhất định hàng năm.
Tất nhiên, các công ty riêng lẻ cũng phải hành động có trách nhiệm và với các tiêu chuẩn cực kỳ cao.
Thứ hai, cuối cùng chúng ta có thể cần một cái gì đó giống như IAEA (Cơ quan Năng lượng Nguyên tử Quốc tế) cho các nỗ lực siêu trí tuệ; bất kỳ nỗ lực nào vượt quá một ngưỡng khả năng nhất định (hoặc tài nguyên máy tính, v.v.) sẽ cần phải được kiểm tra bởi một cơ quan quốc tế, yêu cầu một kiểm tra , thử nghiệm để tuân thủ các tiêu chuẩn bảo mật, giới hạn mức độ triển khai và bảo mật, v.v. Việc theo dõi việc sử dụng điện toán và năng lượng sẽ giúp ích rất nhiều và cho chúng ta chút hy vọng rằng ý tưởng này thực sự khả thi. Ở bước đầu tiên, các công ty có thể tự nguyện đồng ý bắt đầu thực hiện các yếu tố mà một ngày nào đó cơ quan này có thể yêu cầu, trong khi ở bước thứ hai, các quốc gia riêng lẻ có thể thực hiện chúng. Điều quan trọng là một cơ quan như vậy phải tập trung vào việc giảm thiểu các rủi ro đang tồn tại, thay vì các vấn đề nên dành cho từng quốc gia, chẳng hạn như xác định AI nên được phép nói gì.
Thứ ba, chúng ta cần khả năng công nghệ để đảm bảo siêu trí tuệ. Đây là một vấn đề nghiên cứu mở và rất nhiều công việc đang được thực hiện bởi chúng tôi và những người khác.
những gì không nằm trong phạm vi
Chúng tôi tin rằng điều quan trọng là cho phép các công ty và dự án nguồn mở phát triển các mô hình dưới ngưỡng khả năng đáng kể mà không có loại quy định mà chúng tôi mô tả ở đây (bao gồm các cơ chế phiền hà như giấy phép hoặc kiểm toán).
Các hệ thống ngày nay sẽ tạo ra giá trị to lớn trên thế giới và mặc dù chúng có rủi ro nhưng những mức độ rủi ro đó dường như tương xứng với các công nghệ internet khác và những gì xã hội có thể làm có vẻ phù hợp.
Ngược lại, các hệ thống mà chúng tôi tập trung vào sẽ có động lực để vượt trội hơn bất kỳ công nghệ nào chưa được tạo ra và chúng tôi nên cẩn thận để không hạ thấp sự tập trung vào các công nghệ kém xa bằng cách áp dụng các tiêu chuẩn tương tự cho chúng.
Đầu vào và tiềm năng của công chúng
Nhưng việc quản lý các hệ thống mạnh mẽ nhất và các quyết định về việc triển khai chúng phải có sự giám sát chặt chẽ của công chúng. Chúng tôi tin rằng mọi người trên khắp thế giới nên xác định một cách dân chủ các ranh giới và mặc định của các hệ thống AI. Chúng tôi chưa biết cách thiết kế một cơ chế như vậy, nhưng chúng tôi dự định thử nghiệm sự phát triển của nó. Chúng tôi vẫn tin rằng trên những phạm vi rộng này, người dùng cá nhân nên có nhiều quyền kiểm soát đối với hành vi của AI mà họ sử dụng.
Với những rủi ro và khó khăn, thật đáng để xem xét lý do tại sao chúng tôi xây dựng công nghệ này.
Tại OpenAI, chúng tôi có hai lý do cơ bản. Đầu tiên, chúng tôi tin rằng điều này sẽ dẫn đến một thế giới tốt đẹp hơn những gì chúng ta tưởng tượng ngày nay (chúng tôi đã thấy những ví dụ ban đầu về điều này trong các lĩnh vực như giáo dục, công việc sáng tạo và năng suất cá nhân). Thế giới phải đối mặt với nhiều vấn đề và chúng ta cần thêm trợ giúp để giải quyết chúng; công nghệ này có thể cải thiện xã hội của chúng ta và khả năng sáng tạo của mọi người khi sử dụng những công cụ mới này chắc chắn sẽ làm chúng ta ngạc nhiên. Tăng trưởng kinh tế và cải thiện chất lượng cuộc sống sẽ là một hiện tượng.
Thứ hai, chúng tôi tin rằng việc ngăn chặn siêu trí tuệ sẽ có những rủi ro và khó khăn không trực quan. Vì lợi ích quá lớn, chi phí xây dựng nó đang giảm hàng năm, số lượng người chơi xây dựng nó đang tăng lên nhanh chóng và về cơ bản, đó là một phần của con đường công nghệ mà chúng tôi đang đi, việc ngăn chặn nó đòi hỏi một thứ gì đó giống như hệ thống giám sát toàn cầu , Ngay cả điều này không được đảm bảo để làm việc. Vì vậy, chúng ta phải làm cho nó đúng.