شركة إنفيديا (NVDA) تعيد كتابة قواعد مصنع الذكاء الاصطناعي في CES 2026... تعلن عن "قانون مور الثلاثي"

robot
إنشاء الملخص قيد التقدم

في سوق أشباه الموصلات للذكاء الاصطناعي، أعادت شركة إنفيديا(NVDA)، التي تعزز مكانتها الرائدة، عرض ابتكاراتها التقنية في مؤتمر CES 2026، معيدة تعريف معيار اقتصاديات مصانع الذكاء الاصطناعي بشكل كامل. هذا الابتكار في بنية النظام الذي أعلنه الرئيس التنفيذي هوانغ رنشن شخصيًا يتجاوز المستوى الأحادي لأشباه الموصلات، وهو نوع من “التصميم التعاوني الأقصى” الذي يربط بشكل وثيق الشبكات، والذاكرة، والبرمجيات، وغيرها من مكونات الطيف الكامل.

خلال هذا الإعلان، لم تقتصر إنفيديا على تحسين الأداء الحسابي فحسب، بل أطلقت أيضًا زيادة هائلة في كفاءة توليد الرموز، مما غيّر من هيكل تكلفة البنية التحتية للذكاء الاصطناعي ذاته. على سبيل المثال، أُشير إلى أن أداء وحدات GPU زاد بمقدار 5 أضعاف مقارنة بالماضي، وأن السعة الإجمالية زادت بمقدار 10 أضعاف على مستوى النظام، والنتيجة أن الطلب على الرموز يمكن أن ينمو حتى 15 ضعفًا. يُطلق على هذا الابتكار الهيكلي الذي يُعرف بـ"قانون مور الثلاثي"، والذي يغير بشكل جذري اقتصاديات تشغيل مصانع الذكاء الاصطناعي واستراتيجيات التوسع.

كما هو الحال مع الشركات التي نجت في تاريخ المنافسة الشرسة من خلال بناء أنظمة بيئية تعتمد على الحجم، فإن الفائز المطلق في عصر الذكاء الاصطناعي الحالي لا يقتصر على حجم الأداء، بل يتوقف على اتساق تصميم النظام، والاقتصاديات الناتجة عن منحنيات التعلم القائمة على الحجم. لقد وضعت شركات مثل إنتل(INTC)، وAMD(AMD)، وTSMC(TSMC)، وApple(AAPL)، أسس بقائها من خلال طرق مختلفة تتعلق بقابلية توسعة النظام وسرعة التعلم، بينما تسعى إنفيديا الآن لفرض سيطرتها على كامل سلسلة تكنولوجيا الذكاء الاصطناعي بسرعة أكبر وأكثر حدة من منافسيها.

يركز الإعلان على منصة Rubin كمحور، حيث لا يقتصر الأمر على GPU وCPU، بل يعيد تصميم واجهات الشبكة عالية الأداء(Spectrum-X Ethernet)، وDPU(BlueField)، والشبكة الداخلية المبنية على InfiniBand NVLink، جميعها ضمن إطار واحد، مما يشكل بنية متكاملة. هذا النظام الطيفي الكامل لا يهدف فقط إلى تحسين أداء مكون واحد، بل يركز على تعظيم السعة الإجمالية وتحسين كثافة استخدام الموارد بشكل مكثف. في الواقع، النتائج ليست مجرد زيادة في الأداء، بل تحسين جوهري في بنية المعالجة على مستوى النظام بأكمله.

في مهام التدريب والاستنتاج في الذكاء الاصطناعي، يتحول المؤشر الرئيسي إلى “تكلفة توليد كل رمز”. استنادًا إلى كفاءة هذا النظام، تمكنت إنفيديا من خفض تكلفة كل رمز إلى عُشر ما كانت عليه سابقًا. بفضل ذلك، يمكن لتطبيقات الذكاء الاصطناعي ذات الجدوى الاقتصادية الضعيفة سابقًا أن تتوسع بشكل كبير بطريقة اقتصادية كافية. هذا التحول الثوري في الاقتصاديات من المتوقع أن يثير إعادة هيكلة ميزانيات تكنولوجيا المعلومات وتحول هيكل التكاليف المركز على الرموز في صناعة الذكاء الاصطناعي بأكملها.

سرعة التحسينات مذهلة. إذا كان قانون مور التقليدي في أشباه الموصلات يتوقع دورة زمنية من 18 إلى 24 شهرًا، فإن إنفيديا الآن تغير الإطار العام للأداء والكفاءة خلال 12 شهرًا. هذا ليس مجرد قيادة تقنية، بل يخلق مسار تعلم جديد يسرع من فجوة التنافس مع المنافسين. الرمزية هنا تكمن في أن مزايا البنية التحتية في منصة الذكاء الاصطناعي الجديدة ستكون أكثر اعتمادًا على القيادة الاقتصادية بدلاً من القدرات التقنية فقط.

على الرغم من أن منافسي إنفيديا مثل إنتل لا زالوا يحتفظون بدور معين في مجال المعالجات المركزية، إلا أنهم يواجهون صعوبة في الحفاظ على مكانتهم الاحتكارية السابقة بدون تعاون مع إنفيديا. على الجانب الآخر، تمتلك AMD قدرة تنافسية في سوق معالجات x86، لكن في بيئة تدفق حركة البيانات السريعة التي تنتقل فيها أعباء العمل بين التدريب والاستنتاج، تظهر حدودها الفيزيائية من حيث السرعة والحجم.

أما في سوق الشرائح المخصصة، فشركات مثل Groq التي تتمتع بميزة تقليل الكمون، وCerebras التي تستكشف حدود تصميم الشرائح العملاقة، تسيطر على سوق الثغرات في نظام مصانع الذكاء الاصطناعي. ومع ذلك، يعتقد الخبراء أن هذه الشركات ستواجه قيودًا واضحة في استبدال القدرة على التكامل الشامل لنظام إنفيديا واستراتيجيتها في توسيع الكفاءة بناءً على منحنى التعلم.

أما جوجل(GOOGL)، التي تتقدم في استراتيجية منصة الذكاء الاصطناعي عبر TPU، وأمازون(AWS)، التي تطور Trainium، فتمتلك أيضًا مستوى عالٍ من الكفاءة التقنية، لكن من حيث قابلية التوسع على مستوى النظام، خاصة في التعامل مع عنق الزجاجة الشبكي في بيئات المصانع الكبيرة، يبدو أن هناك قيودًا هيكلية تمنعها من اللحاق بإنفيديا. خاصة في مشاريع الذكاء الاصطناعي الكبرى مثل Gemini، حيث سرعة تطور النماذج تؤثر مباشرة على النتائج، فإن سرعة التكرار باستخدام CUDA والأجهزة الحديثة قد تصبح ميزة استراتيجية.

في الوقت الذي يتوسع فيه نطاق المنافسة من وحدات تصنيع أشباه الموصلات إلى ما يتجاوز “وحدة الرف” ويدخل في عمليات تشغيل المصنع على مستوى المصنع، أصبح على الشركات التي تفكر في استراتيجيات الذكاء الاصطناعي أن تركز على اكتساب القيمة من خلال التجارب السريعة والتعلم التكراري بدلاً من بناء بنية تحتية ضخمة. إن نظام المصنع الجديد الذي اقترحته إنفيديا يقلل من عتبة دخول عصر الذكاء الاصطناعي، ويعزز أيضًا فعالية استراتيجية التنفيذ التي تضع التجارب قبل تنقية البيانات.

جوهر هذا التحول في نموذج تكنولوجيا المعلومات لا يقتصر على أداء قطعة واحدة، بل هو توازن بين النظام واقتصاديات الرموز. مع تسارع وتيرة التنفيذ وتقليص دورة اتخاذ القرار، فإن ميزة التعلم التي يتمتع بها الشركات الرائدة ستتحول مباشرة إلى قوة هيمنة داخل الصناعة. مع بداية CES 2026، تتضح مرة أخرى ملامح النظام الجديد لعصر مصانع الذكاء الاصطناعي.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت