OpenAI liderlik üçlüsü, süper zekayı denetlemesi için uluslararası bir organ çağrısında bulunan bir makaleyi ortaklaşa yazdı.

Kaynak: Kağıt

Muhabir Fang Xiao

"Süper zeka çabaları için IAEA (Uluslararası Atom Enerjisi Ajansı) gibi bir şeye ihtiyaç duyabiliriz; belirli bir yetenek eşiğini (veya bilgi işlem gibi kaynakları) aşan herhangi bir çabanın uluslararası bir otorite tarafından kontrol edilmesi gerekir, bu da denetimler, Uyumluluk testleri gerektirir. güvenlik standartları, dağıtım derecesine ve güvenlik düzeyine ilişkin kısıtlamalar vb.

OpenAI liderliği, resmi blogunda "Governance of Superintelligence" yayınladı.

Yapay zekadaki gelişmeler yeterince hızlı ve olası tehlikeler yeterince açık ki, ChatGPT'nin geliştiricisi OpenAI'nin liderliği, dünyanın nükleer enerjiyi yönetene benzer bir süper zeka için uluslararası bir kuruluşa ihtiyacı olduğu konusunda gönüllü oldu.

22 Mayıs yerel saatinde, OpenAI'nin kurucusu Sam Altman (Sam Altman), başkan Greg Brockman (Greg Brockman) ve baş bilim adamı Ilya Sutskever (Ilya Sutskever) şirkette güçlerini birleştirdi. o kadar hızlı ki mevcut kurumların teknolojiyi yeterince kontrol etmesini bekleyemeyiz.

"Governance of Superintelligence" başlıklı makale, yapay zekanın kendi kendini yönetemeyeceğini kabul ediyor, "Sonunda süper zeka çabaları için IAEA'ya (Uluslararası Atom Enerjisi Ajansı) benzer bir şeye ihtiyacımız olabilir; herhangi bir veya bilgi işlem gibi kaynaklar) eşik çabaların olması gerekiyor uluslararası otoriteler tarafından kontrol edilir, denetim gerektirir, güvenlik standartlarını karşılayıp karşılamadıklarını test eder, dağıtım derecesini ve güvenlik seviyesini sınırlar vb.

Önde gelen yapay zeka araştırmacısı ve eleştirmeni Timnit Gebru, o gün The Guardian'a verdiği bir röportajda benzer bir şey söyledi: "Farklı bir şey yapmak için dış baskı olmadıkça, şirketler kendi kendini düzenlemiyor. Düzenlemeye ihtiyacımız var, saf bir kâr amacından daha iyi bir şeye ihtiyacımız var. Gebru, yapay zekanın tehlikeleri hakkında konuştuğu için Google'dan kovuldu.

OpenAI'nin önerisi, dünyanın en büyük AI markalarının ve satıcılarının düzenlemeyi desteklediğini ve acilen kamu gözetimine ihtiyaç duyduğunu, ancak "böyle bir mekanizmanın nasıl tasarlanacağını henüz bilmediğini" gösteren bir endüstri sohbeti başlatıcı olabilir.

Geçen hafta Altman, ABD Kongresi önünde OpenAI'nin seçimlerin AI tarafından üretilen içerikten etkilenmesinden "çok endişeli" olduğunu ifade etti. Yapay zeka endüstrisinin "dünyaya önemli zararlar verebileceğinden" endişeleniyor. "Bence bu teknoloji ters giderse, çok kötü gidebilir ve biz bu konuda açık sözlü olmak istiyoruz." "Bunun olmasını önlemek için hükümetle birlikte çalışmak istiyoruz." Altman, Kongre'nin yeni ajanslar oluşturmasını önerdi. "belirli bir yetenek ölçeğinin ötesinde" yapay zeka teknolojileri lisansları, bir yapay zeka sistemini halka sunmadan önce modelin bu düzenlemelere uyup uymadığına karar verebilecek uzmanlar tarafından bağımsız denetime tabi tutulmalıdır.

Aşağıda "Süper Zekâ Yönetişimi"nin tam metni yer almaktadır:

Şu anda gördüğümüz resim göz önüne alındığında, önümüzdeki on yıl içinde yapay zeka sistemlerinin çoğu alandaki uzmanların beceri düzeylerini aşacağı ve günümüzün en büyük şirketlerinden biri kadar verimli faaliyetler yürüteceği düşünülebilir.

Potansiyel faydalar ve dezavantajlar açısından, süper zeka, insanların geçmişte uğraşmak zorunda kaldığı diğer teknolojilerden daha güçlü olacaktır. Daha müreffeh bir geleceğe sahip olabiliriz; ancak oraya ulaşmak için riskleri yönetmeliyiz. Risk potansiyeli göz önüne alındığında, sadece reaktif olamayız. Nükleer enerji, bu tür bir teknolojinin yaygın tarihsel bir örneğidir, sentetik biyoloji ise bir diğeridir.

Ayrıca günümüzün AI teknolojilerinin risklerini de azaltmalıyız, ancak süper zeka özel kullanım ve koordinasyon gerektirir.

Bir başlangıç noktası

Bu gelişmeyi başarılı bir şekilde yönlendirme şansımız için önemli olan birkaç fikir var; burada bunlardan üçüyle ilgili ilk düşüncelerimizi sunuyoruz.

İlk olarak, süper zekanın gelişiminin hem bizi güvende tutacak hem de bu sistemlerin toplumla sorunsuz bir şekilde bütünleşmesine yardımcı olacak şekilde ilerlemesini sağlamak için, önde gelen geliştirme çabaları arasında bir dereceye kadar koordinasyona ihtiyacımız var. Bunu gerçekleştirmenin birçok yolu vardır; dünyanın önde gelen hükümetleri, mevcut çabaların birçoğunun parçası olduğu bir program oluşturabilir veya en yeni AI yeteneklerinin (aşağıda önerilen yeni organizasyonun desteğiyle) toplu olarak kabul edebiliriz. Şirketin büyüme hızı her yıl belli bir oran ile sınırlandırılmalıdır.

Tabii ki bireysel şirketlerden de sorumlu ve son derece yüksek standartlarda hareket etmeleri bekleniyor.

İkincisi, süper zeka çabaları için IAEA'ya (Uluslararası Atom Enerjisi Ajansı) benzer bir şeye ihtiyaç duyabiliriz; belirli bir yetenek eşiğini (veya bilgi işlem kaynakları vb.) aşan herhangi bir çabanın uluslararası bir otorite tarafından kontrol edilmesi gerekir; denetim , güvenlik standartlarına uygunluğun test edilmesi, dağıtım ve güvenlik düzeylerinin sınırlandırılması ve daha fazlası. Bilgi işlem ve enerji kullanımını izlemek çok yardımcı olur ve bize bu fikrin gerçekten ulaşılabilir olduğuna dair biraz umut verir. İlk adım olarak, şirketler gönüllü olarak böyle bir ajansın bir gün ihtiyaç duyabileceği unsurları uygulamaya başlamayı kabul edebilirken, ikinci adım olarak tek tek ülkeler bunları uygulayabilir. Böyle bir kurumun yapay zekanın ne söylemesine izin verilmesi gerektiğini belirlemek gibi tek tek ülkelere bırakılması gereken meseleler yerine var olan riskleri azaltmaya odaklanması önemlidir.

Üçüncüsü, süper zekayı güvence altına almak için teknolojik yeteneklere ihtiyacımız var. Bu açık bir araştırma problemidir ve biz ve başkaları tarafından birçok çalışma yapılmaktadır.

kapsam dışında kalanlar

Şirketlerin ve açık kaynak projelerinin, burada tanımladığımız türde bir düzenleme olmaksızın (lisanslar veya denetimler gibi külfetli mekanizmalar dahil) önemli bir yetenek eşiğinin altında modeller geliştirmesine izin vermenin önemli olduğuna inanıyoruz.

Bugünün sistemleri dünyada muazzam bir değer yaratacak ve riskleri olsa da, bu risk seviyeleri diğer İnternet teknolojileriyle orantılı görünüyor ve toplumun yapabilecekleri uygun görünüyor.

Buna karşılık, odaklandığımız sistemler henüz yaratılmamış herhangi bir teknolojiden daha iyi performans gösterecek ivmeye sahip olacak ve benzer standartlar uygulayarak bunun çok altındaki teknolojilere odaklanmayı küçümsememeye dikkat etmeliyiz.

Kamu girdisi ve potansiyeli

Ancak en sağlam sistemlerin yönetişimi ve bunların konuşlandırılmasıyla ilgili kararlar, güçlü bir kamu gözetimine sahip olmalıdır. Dünyanın dört bir yanındaki insanların yapay zeka sistemlerinin sınırlarını ve varsayılanlarını demokratik olarak belirlemesi gerektiğine inanıyoruz. Henüz böyle bir mekanizmayı nasıl tasarlayacağımızı bilmiyoruz, ancak geliştirmesi için deneyler yapmayı planlıyoruz. Bu geniş ölçeklerde, bireysel kullanıcıların kullandıkları AI'nın davranışı üzerinde büyük bir kontrole sahip olması gerektiğine hala inanıyoruz.

Riskler ve zorluklar göz önüne alındığında, bu teknolojiyi neden oluşturduğumuzu düşünmeye değer.

OpenAI'de iki temel nedenimiz var. İlk olarak, bunun bugün hayal ettiğimizden daha iyi bir dünyaya yol açacağına inanıyoruz (bunun ilk örneklerini eğitim, yaratıcı çalışma ve kişisel üretkenlik gibi alanlarda gördük). Dünya birçok sorunla karşı karşıya ve bunları çözmek için daha fazla yardıma ihtiyacımız var; bu teknoloji toplumumuzu geliştirebilir ve bu yeni araçları kullanan herkesin yaratıcı yeteneği bizi kesinlikle şaşırtacaktır. Ekonomik büyüme ve yaşam kalitesindeki iyileşme olağanüstü olacak.

İkincisi, süper zekayı önlemenin sezgisel olmayan riskler ve güçlükler doğuracağına inanıyoruz. Yararları çok büyük olduğundan, onu inşa etmenin maliyeti her yıl düşüyor, onu inşa eden oyuncu sayısı hızla artıyor ve esasen üzerinde bulunduğumuz teknolojik yolun bir parçası, onu durdurmak için küresel bir gözetleme sistemine benzer bir şey gerekiyor. , Bunun bile çalışması garanti edilmez. Bu yüzden doğru anlamalıyız.

View Original
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
  • Pin