تحدي هيمنة Nvidia H100! تحاكي شركة IBM شريحة الشبكة العصبية الاصطناعية للدماغ البشري، مما يؤدي إلى تحسين الكفاءة بمقدار 14 مرة وحل مشكلة استهلاك الطاقة لنموذج الذكاء الاصطناعي

المصدر الأصلي: Xinzhiyuan

مصدر الصورة: تم إنشاؤها بواسطة Unbounded AI

في الآونة الأخيرة، أطلقت شركة IBM شريحة AI تناظرية جديدة مقاس 14 نانومتر، وهي أكثر كفاءة بـ 14 مرة من وحدة معالجة الرسومات الرائدة، والتي يمكن أن تجعل H100 يستحق المال.

عنوان الورقة:

حاليًا، أكبر عقبة أمام تطوير الذكاء الاصطناعي التوليدي هي استهلاكه المذهل للطاقة. إن الموارد اللازمة للذكاء الاصطناعي لا يمكن أن تنمو بشكل مستدام.

ومن ناحية أخرى، تبحث شركة IBM عن طرق لإعادة تشكيل حوسبة الذكاء الاصطناعي. أحد إنجازاتهم هو محاكاة حوسبة الذاكرة/طريقة محاكاة الذكاء الاصطناعي، والتي يمكن أن تقلل من استهلاك الطاقة باستخدام السمات الرئيسية للشبكات العصبية التي تعمل في الأدمغة البيولوجية.

يقلل هذا النهج من الوقت والجهد الذي ننفقه في الحساب.

هل احتكار Nvidia على وشك التخريب؟

## أحدث مخطط لشركة IBM لمستقبل الذكاء الاصطناعي: تتميز رقائق الذكاء الاصطناعي التناظرية بكفاءة أكبر في استهلاك الطاقة بمقدار 14 مرة

وفقًا لتقرير نشرته وسائل الإعلام الأجنبية Insider، حلل ديلان باتيل، كبير المحللين في شركة أبحاث أشباه الموصلات SemiAnalogy، أن تكلفة التشغيل اليومية لـ ChatGPT تجاوزت 700000 دولار أمريكي.

يتطلب ChatGPT قدرًا كبيرًا من قوة الحوسبة لإنشاء إجابات بناءً على مطالبات المستخدم. يتم تكبد معظم التكاليف على خوادم باهظة الثمن.

وفي المستقبل، سوف ترتفع تكلفة نماذج التدريب والبنية التحتية التشغيلية أكثر فأكثر.

نشرت شركة IBM في مجلة Nature أن هذه الشريحة الجديدة يمكن أن تقلل من ضغط بناء وتشغيل مؤسسات الذكاء الاصطناعي التوليدية مثل Midjourney أو GPT-4 عن طريق تقليل استهلاك الطاقة.

تم تصميم هذه الرقائق التناظرية بشكل مختلف عن الرقائق الرقمية، والتي يمكنها التعامل مع الإشارات التناظرية وفهم التدرجات بين 0 و1، ولكن فقط للإشارات الثنائية المختلفة.

محاكاة حوسبة الذاكرة/محاكاة الذكاء الاصطناعي

ويتمثل النهج الجديد لشركة IBM في محاكاة حوسبة الذاكرة، أو محاكاة الذكاء الاصطناعي باختصار. فهو يقلل من استهلاك الطاقة من خلال استغلال الميزة الرئيسية للشبكات العصبية العاملة في العقول البيولوجية.

في أدمغة البشر والحيوانات الأخرى، تحدد قوة (أو "وزن") المشابك العصبية التواصل بين الخلايا العصبية.

بالنسبة لأنظمة الذكاء الاصطناعي التناظرية، تقوم شركة IBM بتخزين هذه الأوزان المتشابكة في قيم التوصيل لأجهزة الذاكرة المقاومة بمقياس نانومتر (مثل ذاكرة تغيير الطور PCM)، وتستخدم قوانين الدوائر لتقليل الحاجة إلى إرسال البيانات باستمرار بين الذاكرة والذاكرة. المعالج، يقوم بإجراء عملية التراكم المضاعف (MAC) - العملية الرئيسية في DNN.

تعمل الآن العديد من منصات الذكاء الاصطناعي التوليدية على تشغيل Nvidia's H100 وA100.

ومع ذلك، إذا كررت شركة IBM النموذج الأولي للرقاقة ودفعته بنجاح إلى السوق الشامل، فقد تحل هذه الشريحة الجديدة محل Nvidia كدعامة أساسية جديدة.

يمكن لشريحة الذكاء الاصطناعي التناظرية مقاس 14 نانومتر تشفير 35 مليون جهاز ذاكرة متغير الطور لكل مكون ويمكنها محاكاة ما يصل إلى 17 مليون معلمة.

وتحاكي الشريحة الطريقة التي يعمل بها الدماغ البشري، حيث تقوم الشريحة بإجراء العمليات الحسابية مباشرة في الذاكرة.

يمكن لنظام الشريحة أن يحقق كفاءة في التعرف على الكلام والنسخ، بدقة قريبة من دقة الأجهزة الرقمية.

تحقق هذه الشريحة حوالي 14 ضعفًا، وتظهر عمليات المحاكاة السابقة أن كفاءة استخدام الطاقة في هذا الجهاز تصل إلى 40 إلى 140 ضعفًا من وحدات معالجة الرسوميات الرائدة اليوم.

مجموعة العارضة PCM والبرمجة ومعالجة الإشارات الرقمية

لقد بدأت للتو ثورة الذكاء الاصطناعي التوليدية هذه. أحدثت الشبكات العصبية العميقة (DNNs) ثورة في مجال الذكاء الاصطناعي، واكتسبت أهمية كبيرة مع تطوير النماذج الأساسية والذكاء الاصطناعي التوليدي.

ومع ذلك، فإن تشغيل هذه النماذج على بنيات الحوسبة الرياضية التقليدية يحد من أدائها وكفاءتها في استخدام الطاقة.

على الرغم من إحراز تقدم في تطوير الأجهزة لاستدلال الذكاء الاصطناعي، فإن العديد من هذه البنى تفصل فعليًا بين وحدات الذاكرة والمعالجة.

وهذا يعني أن نماذج الذكاء الاصطناعي يتم تخزينها عادةً في مواقع ذاكرة منفصلة، وتتطلب مهام الحوسبة خلطًا مستمرًا للبيانات بين الذاكرة ووحدات المعالجة. يمكن أن تؤدي هذه العملية إلى إبطاء العمليات الحسابية بشكل كبير، مما يحد من الحد الأقصى لكفاءة الطاقة التي يمكن تحقيقها.

خصائص أداء أجهزة PCM، باستخدام تكوين الطور والقبول لتخزين الأوزان المتشابكة ذات النمط التناظري

تتخلص شريحة تسريع الذكاء الاصطناعي المستندة إلى ذاكرة تغيير الطور (PCM) من IBM من هذا القيد.

يمكن لذاكرة تغيير الطور (PCM) تحقيق التكامل بين الحساب والتخزين، وإجراء الضرب المباشر لمتجه المصفوفة في الذاكرة، وتجنب مشكلة نقل البيانات.

وفي الوقت نفسه، تحقق شريحة الذكاء الاصطناعي التناظرية من IBM تسريعًا فعالاً للذكاء الاصطناعي من خلال الحوسبة على مستوى الأجهزة وتكامل التخزين، وهو تقدم مهم في هذا المجال.

تحديان رئيسيان لمحاكاة الذكاء الاصطناعي

من أجل إحياء مفهوم محاكاة الذكاء الاصطناعي، يجب التغلب على تحديين رئيسيين:

  1. يجب أن تكون الدقة الحسابية لمصفوفة الذاكرة مماثلة لتلك الخاصة بالأنظمة الرقمية الموجودة

  2. يمكن لمجموعة الذاكرة أن تتفاعل بسلاسة مع وحدات الحوسبة الرقمية الأخرى وبنية الاتصالات الرقمية على شريحة الذكاء الاصطناعي التناظرية

تقوم شركة IBM بتصنيع شريحة تسريع الذكاء الاصطناعي القائمة على الذاكرة المتغيرة في مركزها التكنولوجي في ألباني نانو.

تتكون الشريحة من 64 نواة حوسبة للذاكرة التناظرية، ويحتوي كل نواة على 256 × 256 وحدة متشابكة متقاطعة.

ويتم دمج كل شريحة في محول تناظري إلى رقمي مدمج يعتمد على الوقت للتحويل بين العالمين التناظري والرقمي.

يمكن لوحدة المعالجة الرقمية خفيفة الوزن الموجودة في الشريحة أيضًا إجراء وظائف بسيطة لتنشيط الخلايا العصبية غير الخطية وعمليات القياس.

يمكن اعتبار كل نواة بمثابة بلاطة يمكنها إجراء مضاعفة ناقل المصفوفة والعمليات الأخرى المرتبطة بطبقة (مثل الطبقة التلافيفية) لنموذج الشبكة العصبية العميقة (DNN).

يتم تشفير مصفوفة الوزن في قيمة التوصيل المحاكاة لجهاز PCM وتخزينها على الشريحة.

يتم دمج وحدة معالجة رقمية عالمية في منتصف المصفوفة الأساسية للرقاقة لتنفيذ بعض العمليات الأكثر تعقيدًا من مضاعفة ناقل المصفوفة، وهو أمر بالغ الأهمية لأنواع معينة من تنفيذ الشبكات العصبية (مثل LSTM).

يتم دمج مسارات الاتصال الرقمية على الشريحة بين جميع النوى ووحدات المعالجة الرقمية العالمية لنقل البيانات بين النوى وبين النوى والوحدات العالمية.

ج: لقطة لأتمتة التصميم الإلكتروني وصورة مجهرية للرقاقة، يمكنك رؤية 64 مركزًا و5616 لوحة

ب: رسم تخطيطي للمكونات المختلفة للرقاقة، بما في ذلك 64 نواة و8 وحدات معالجة رقمية عالمية وروابط البيانات بين النوى

ج: هيكل نواة حوسبة واحدة في الذاكرة قائمة على PCM

د: هيكل وحدة المعالجة الرقمية العالمية للحسابات المتعلقة بـ LSTM

باستخدام الشريحة، أجرت شركة IBM دراسة شاملة حول الدقة الحسابية لحوسبة الذاكرة التناظرية وحققت دقة قدرها 92.81% في مجموعة بيانات الصور CIFAR-10.

أ: بنية شبكة ResNet-9 لـ CIFAR-10

ب: طريقة تعيين هذه الشبكة على الشريحة

ج: دقة اختبار CIFAR-10 المُنفذة بالأجهزة

وهذه هي أعلى دقة تم الإبلاغ عنها حتى الآن لشريحة تستخدم تقنية مماثلة.

تقوم IBM أيضًا بدمج الحوسبة التناظرية في الذاكرة بسلاسة مع وحدات المعالجة الرقمية المتعددة وهياكل الاتصالات الرقمية.

تتميز مضاعفة مصفوفة الإدخال والإخراج ذات 8 بت للرقاقة بإنتاجية مساحة الوحدة تبلغ 400 GOPS/mm2، وهو أعلى بأكثر من 15 مرة من رقائق حوسبة الذاكرة متعددة النواة السابقة المستندة إلى الذاكرة المقاومة، مع تحقيق كفاءة كبيرة في استخدام الطاقة.

في مهمة التنبؤ بالحروف ومهمة إنشاء التعليقات التوضيحية للصورة، قامت شركة IBM بمقارنة النتائج التي تم قياسها على الأجهزة بطرق أخرى، وأظهرت بنية الشبكة وبرمجة الوزن ونتائج القياس للمهام ذات الصلة التي تعمل على شريحة الذكاء الاصطناعي المحاكاة.

قياسات LSTM للتنبؤ بالحرف

قياسات شبكة LSTM لإنشاء التعليقات التوضيحية للصور

عملية برمجة الوزن

**خندق نفيديا لا نهاية له؟ **

هل من السهل كسر احتكار Nvidia؟

نافين راو هو رجل أعمال متخصص في علم الأعصاب وتحول إلى مجال التكنولوجيا وحاول التنافس مع شركة نفيديا، الشركة الرائدة في مجال صناعة الذكاء الاصطناعي في العالم.

قال راو: "الجميع يتطور على Nvidia. إذا كنت تريد إطلاق أجهزة جديدة، عليك اللحاق بـ Nvidia والتنافس معها."

عمل راو على رقائق مصممة لتحل محل وحدات معالجة الرسومات الخاصة بشركة Nvidia في شركة ناشئة استحوذت عليها شركة Intel، ولكن بعد ترك شركة Intel، استخدم رقائق Nvidia في شركة MosaicML، وهي شركة برمجيات ناشئة قادها.

قال راو إن Nvidia لم تفتح فجوة كبيرة مع المنتجات الأخرى الموجودة على الشريحة فحسب، بل حققت أيضًا تمايزًا خارج الشريحة من خلال إنشاء مجتمع كبير من مبرمجي الذكاء الاصطناعي ——

يستخدم مبرمجو الذكاء الاصطناعي تكنولوجيا الشركة في الابتكار.

لأكثر من عقد من الزمان، قامت شركة Nvidia ببناء ريادة لا يمكن تعويضها تقريبًا في إنتاج الرقائق التي يمكنها أداء مهام الذكاء الاصطناعي المعقدة مثل الصور والتعرف على الوجه والكلام، بالإضافة إلى إنشاء نص لروبوتات الدردشة مثل ChatGPT.

تمكنت الشركة الناشئة التي كانت في يوم من الأيام من تحقيق الهيمنة في صناعة شرائح الذكاء الاصطناعي لأنها أدركت الاتجاهات في الذكاء الاصطناعي في وقت مبكر، وصممت شرائح مخصصة لتلك المهام، وطورت برمجيات مهمة سهلت تطوير الذكاء الاصطناعي.

منذ ذلك الحين، قام جينسين هوانغ، المؤسس المشارك والرئيس التنفيذي لشركة Nvidia، برفع مستوى Nvidia.

وهذا يجعل Nvidia موردًا شاملاً لتطوير الذكاء الاصطناعي.

في حين أن شركات جوجل وأمازون وميتا وآي بي إم وغيرها تصنع أيضًا شرائح الذكاء الاصطناعي، فإن إنفيديا تمثل حاليًا أكثر من 70% من مبيعات شرائح الذكاء الاصطناعي، وفقًا لشركة الأبحاث أومديا.

وفي يونيو من هذا العام، تجاوزت القيمة السوقية لشركة Nvidia تريليون دولار، مما يجعلها صانع الرقائق الأكثر قيمة في العالم.

وقال محللو شركة FuturumGroup: "سينتظر العملاء 18 شهرًا لشراء أنظمة Nvidia بدلاً من شراء الرقائق الجاهزة من الشركات الناشئة أو المنافسين الآخرين. إنه أمر لا يصدق".

NVIDIA، تعيد تشكيل أساليب الحوسبة

شارك جنسن هوانغ في تأسيس شركة Nvidia في عام 1993، حيث قام بتصنيع الرقائق التي تعرض الصور في ألعاب الفيديو. كانت المعالجات الدقيقة القياسية في ذلك الوقت جيدة في إجراء العمليات الحسابية المعقدة بالتسلسل، لكن Nvidia صنعت وحدات معالجة الرسومات التي يمكنها التعامل مع عدة مهام بسيطة في وقت واحد.

وفي عام 2006، أخذ جنسن هوانغ العملية خطوة أخرى إلى الأمام. أطلق تقنية برمجية تسمى CUDA تساعد على برمجة وحدات معالجة الرسومات للقيام بمهام جديدة، وتحويل وحدات معالجة الرسومات من شرائح ذات غرض واحد إلى شرائح ذات أغراض عامة يمكنها القيام بوظائف أخرى في مجالات مثل محاكاة الفيزياء والكيمياء.

في عام 2012، استخدم الباحثون وحدات معالجة الرسوميات لتحقيق دقة تشبه دقة الإنسان في مهام مثل تحديد القطط في الصور، وهو إنجاز كبير ومقدمة للتطورات الحديثة مثل توليد الصور من الإشارات النصية.

هذا الجهد، الذي تقدر شركة Nvidia تكلفته بأكثر من 30 مليار دولار على مدى عقد من الزمن، يجعل Nvidia أكثر من مجرد مورد لقطع الغيار. بالإضافة إلى التعاون مع كبار العلماء والشركات الناشئة، قامت الشركة بتجميع فريق يشارك بشكل مباشر في أنشطة الذكاء الاصطناعي مثل إنشاء نماذج اللغة وتدريبها.

بالإضافة إلى ذلك، أدت احتياجات الممارسين إلى قيام Nvidia بتطوير طبقات متعددة من البرامج الرئيسية بما يتجاوز CUDA، والتي تضمنت أيضًا مكتبات تضم مئات الأسطر من التعليمات البرمجية المعدة مسبقًا.

من ناحية الأجهزة، اكتسبت Nvidia سمعة طيبة في تقديم شرائح أسرع باستمرار كل عامين أو ثلاثة أعوام. في عام 2017، بدأت Nvidia في ضبط وحدات معالجة الرسومات للتعامل مع حسابات الذكاء الاصطناعي المحددة.

في سبتمبر الماضي، أعلنت شركة إنفيديا أنها تنتج شريحة جديدة تسمى H100، والتي تم تحسينها للتعامل مع ما يسمى بعمليات المحولات. وتثبت مثل هذه الحسابات أنها الأساس لخدمات مثل ChatGPT، والتي أطلق عليها هوانج اسم "لحظة الآيفون" للذكاء الاصطناعي التوليدي.

اليوم، ما لم تتمكن منتجات الشركات المصنعة الأخرى من تشكيل منافسة إيجابية مع وحدة معالجة الرسومات الخاصة بشركة Nvidia، فمن الممكن كسر احتكار Nvidia الحالي لقوة حوسبة الذكاء الاصطناعي.

هل من الممكن استخدام شريحة الذكاء الاصطناعي التناظرية من IBM؟

مراجع:

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت