قام ثلاثي قيادة أوبن إيه آي بتأليف مقال مشترك يدعو إلى وجود هيئة دولية للإشراف على الذكاء الخارق

المصدر: الورقة

المراسل فانغ شياو

"قد ينتهي بنا الأمر إلى شيء مثل الوكالة الدولية للطاقة الذرية (IAEA) لجهود الذكاء الفائق ؛ أي جهد يتجاوز حدًا معينًا من القدرات (أو موارد مثل الحوسبة) يجب أن يتم فحصه من قبل سلطة دولية ، تتطلب عمليات تدقيق ، واختبار الامتثال لـ المعايير الأمنية ، والقيود على درجة الانتشار ومستوى الأمن ، وما إلى ذلك ".

نشرت قيادة OpenAI "Governance of Superintelligence" على مدونتها الرسمية.

التقدم في الذكاء الاصطناعي سريع بما فيه الكفاية ، والأخطار المحتملة واضحة بما فيه الكفاية ، أن قيادة OpenAI ، مطور ChatGPT ، قد تطوعت بأن العالم يحتاج إلى هيئة دولية للذكاء الخارق مماثلة لتلك التي تحكم الطاقة النووية.

في 22 مايو بالتوقيت المحلي ، انضم مؤسس OpenAI Sam Altman (Sam Altman) ، والرئيس Greg Brockman (Greg Brockman) وكبير العلماء Ilya Sutskever (Ilya Sutskever) إلى شركة الكتابة على المدونة ، قائلين إن وتيرة الابتكار في الذكاء الاصطناعي سريع للغاية بحيث لا يمكننا أن نتوقع من المؤسسات الحالية أن تتحكم بشكل مناسب في التكنولوجيا.

تقر المقالة ، التي تحمل عنوان "حوكمة الذكاء الخارق" ، بأن الذكاء الاصطناعي لن يدير نفسه ، "قد نحتاج في النهاية إلى شيء يشبه الوكالة الدولية للطاقة الذرية من أجل جهود الذكاء الفائق ؛ أي أو موارد مثل الحوسبة) يجب أن تكون فحصتها من قبل السلطات الدولية ، وطلب عمليات تدقيق ، واختبار ما إذا كانت تفي بالمعايير الأمنية ، والحد من درجة النشر ومستوى الأمان ، وما إلى ذلك. "

قال الباحث والناقد الرائد في مجال الذكاء الاصطناعي ، Timnit Gebru ، شيئًا مشابهًا في مقابلة مع The Guardian في ذلك اليوم: "ما لم يكن هناك ضغط خارجي للقيام بشيء مختلف ، فإن الشركات ليست ذاتية التنظيم. نحن بحاجة إلى التنظيم ، نحتاج إلى شيء أفضل من دافع الربح الخالص . "تم طرد جيبرو من شركة جوجل لتحدثه علانية عن مخاطر الذكاء الاصطناعي.

يمكن أن يكون اقتراح OpenAI بمثابة بداية محادثة في المجال ، مما يوضح أن أكبر العلامات التجارية للذكاء الاصطناعي والبائعين في العالم يدعمون التنظيم ويحتاجون بشكل عاجل إلى إشراف عام ، لكن "لا يعرفون حتى الآن كيفية تصميم مثل هذه الآلية".

في الأسبوع الماضي ، أدلى ألتمان بشهادته أمام الكونجرس الأمريكي بأن شركة أوبن إيه آي كانت "قلقة للغاية" بشأن تأثر الانتخابات بالمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. إنه قلق من أن صناعة الذكاء الاصطناعي يمكن أن "تلحق ضرراً كبيراً بالعالم". "أعتقد أنه إذا حدث خطأ في هذه التكنولوجيا ، فقد يحدث خطأ فادح ، ونريد أن نكون صريحين بشأن ذلك." "نريد العمل مع الحكومة لمنع حدوث ذلك." اقترح ألتمان أن ينشئ الكونجرس وكالات جديدة تعنى بهذا الأمر. يجب أن تخضع تراخيص تقنيات الذكاء الاصطناعي "التي تتجاوز نطاقًا معينًا من القدرات" لعمليات تدقيق مستقلة من قبل خبراء يمكنهم الحكم على ما إذا كان النموذج يتوافق مع تلك اللوائح قبل طرح نظام الذكاء الاصطناعي للجمهور.

** فيما يلي النص الكامل لـ "Governance of Superintelligence": **

بالنظر إلى الصورة التي نراها الآن ، من المتصور أنه في غضون العقد القادم ، ستتجاوز أنظمة الذكاء الاصطناعي مستويات مهارة الخبراء في معظم المجالات وتؤدي العديد من الأنشطة الإنتاجية كواحدة من أكبر الشركات اليوم.

من حيث الفوائد والعيوب المحتملة ، سيكون الذكاء الخارق أقوى من التقنيات الأخرى التي كان على البشر التعامل معها في الماضي. يمكننا أن نحظى بمستقبل أكثر ازدهارًا ؛ لكن يجب علينا إدارة المخاطر للوصول إلى هناك. بالنظر إلى احتمالية المخاطرة ، لا يمكننا أن نكون مجرد رد فعل. الطاقة النووية هي مثال تاريخي شائع لتكنولوجيا من هذا النوع ؛ والبيولوجيا التركيبية هي مثال آخر.

يجب علينا أيضًا التخلص من مخاطر تقنيات الذكاء الاصطناعي الحالية ، لكن الذكاء الخارق يتطلب معالجة وتنسيقًا خاصين.

نقطة انطلاق

هناك عدد من الأفكار المهمة لفرصنا الجيدة في التنقل بنجاح في هذا التطور ؛ هنا نقدم أفكارنا الأولى حول ثلاثة منها.

أولاً ، نحتاج إلى درجة معينة من التنسيق بين جهود التطوير الرائدة لضمان أن تطوير الذكاء الخارق يسير بطريقة تحافظ على سلامتنا وتساعد هذه الأنظمة على الاندماج بسلاسة مع المجتمع. هناك العديد من الطرق التي يمكن من خلالها تحقيق ذلك ؛ يمكن للحكومات الرائدة في العالم إنشاء برنامج تكون فيه العديد من الجهود الحالية جزءًا منه ، أو يمكننا أن نتفق بشكل جماعي (بدعم من المنظمة الجديدة المقترحة أدناه) على قدرات الذكاء الاصطناعي المتطورة يجب أن يقتصر معدل نمو الشركة على معدل معين كل عام.

بالطبع ، من المتوقع أيضًا أن تتصرف الشركات بمسؤولية وبمعايير عالية للغاية.

ثانيًا ، قد ينتهي بنا المطاف بالحاجة إلى شيء يشبه الوكالة الدولية للطاقة الذرية (الوكالة الدولية للطاقة الذرية) لجهود الذكاء الخارق ؛ أي جهد يتجاوز حدًا معينًا من القدرات (أو موارد الحوسبة ، وما إلى ذلك) يجب أن يتم فحصه من قبل سلطة دولية ، مما يتطلب التدقيق والاختبار للامتثال لمعايير الأمان والحد من مستويات النشر والأمان والمزيد. سيساعد تتبع الحوسبة واستخدام الطاقة كثيرًا ويعطينا بعض الأمل في أن هذه الفكرة قابلة للتحقيق بالفعل. كخطوة أولى ، يمكن للشركات الموافقة طواعية على البدء في تنفيذ العناصر التي قد تتطلبها مثل هذه الوكالة يومًا ما ، بينما كخطوة ثانية ، يمكن للبلدان الفردية تنفيذها. من المهم أن تركز هذه الوكالة على الحد من المخاطر الموجودة ، بدلاً من القضايا التي يجب تركها للدول الفردية ، مثل تحديد ما يجب السماح للذكاء الاصطناعي بقوله.

ثالثًا ، نحن بحاجة إلى قدرات تكنولوجية لتأمين الذكاء الخارق. هذه مشكلة بحث مفتوحة ، وكثير من العمل نقوم به نحن والآخرون.

ما ليس في النطاق

نعتقد أنه من المهم السماح للشركات ومشاريع المصادر المفتوحة بتطوير نماذج أقل من حد كبير من القدرة دون نوع التنظيم الذي نصفه هنا (بما في ذلك الآليات المرهقة مثل التراخيص أو عمليات التدقيق).

ستخلق أنظمة اليوم قيمة هائلة في العالم ، وعلى الرغم من أنها تنطوي على مخاطر ، فإن هذه المستويات من المخاطر تبدو متناسبة مع تقنيات الإنترنت الأخرى ، ويبدو أن ما قد يفعله المجتمع يبدو مناسبًا.

على النقيض من ذلك ، سيكون للأنظمة التي نركز عليها الزخم لتتفوق في الأداء على أي تقنية لم يتم إنشاؤها بعد ، ويجب أن نكون حريصين على عدم التقليل من أهمية التركيز على التقنيات التي هي أقل بكثير من ذلك من خلال تطبيق معايير مماثلة عليها.

المدخلات العامة والإمكانات

لكن إدارة أقوى الأنظمة ، والقرارات المتعلقة بنشرها ، يجب أن تخضع لرقابة عامة قوية. نعتقد أن الناس في جميع أنحاء العالم يجب أن يحددوا بشكل ديمقراطي الحدود والافتراضيات لأنظمة الذكاء الاصطناعي. لا نعرف حتى الآن كيف نصمم مثل هذه الآلية ، لكننا نخطط لتجربة تطويرها. ما زلنا نعتقد أنه على هذه النطاقات الواسعة ، يجب أن يتمتع المستخدمون الفرديون بقدر كبير من التحكم في سلوك الذكاء الاصطناعي الذي يستخدمونه.

نظرًا للمخاطر والصعوبات ، يجدر التفكير في سبب بناء هذه التكنولوجيا.

في OpenAI ، لدينا سببان أساسيان. أولاً ، نعتقد أن هذا سيؤدي إلى عالم أفضل مما نتخيله اليوم (رأينا أمثلة مبكرة على ذلك في مجالات مثل التعليم والعمل الإبداعي والإنتاجية الشخصية). يواجه العالم العديد من المشاكل ، ونحن بحاجة إلى مزيد من المساعدة لحلها ؛ هذه التكنولوجيا يمكن أن تحسن مجتمعنا ، والقدرة الإبداعية لكل شخص يستخدم هذه الأدوات الجديدة ستفاجئنا بالتأكيد. سيكون النمو الاقتصادي وتحسين نوعية الحياة هائلين.

ثانيًا ، نعتقد أن منع الذكاء الخارق سيكون له مخاطر وصعوبات غير متوقعة. نظرًا لأن الفوائد كبيرة جدًا ، فإن تكلفة بنائه تتراجع كل عام ، ويتزايد عدد اللاعبين الذين يقومون ببنائه بسرعة ، وهو في الأساس جزء من المسار التكنولوجي الذي نسير فيه ، ويتطلب إيقافه شيئًا يشبه نظام المراقبة العالمي ، حتى هذا غير مضمون للعمل. لذلك علينا أن نفهمها بشكل صحيح.

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت