كشف تسريب البيانات أن "كلود" قد لا يكون ذكيًا بشكل كافٍ، وأن ذلك ليس مجرد قصة شائعة في المدينة، فالنماذج الذكية غير مستقرة وتشكل مخاطر على الشركات

ChainNewsAbmedia

بعد أن أصبح الذكاء الاصطناعي أداة قياسية في الشركات، فإن ظاهرة كان يُنظر إليها في الماضي على أنها «مسألة إحساس» تظهر بسرعة على السطح: إن نماذج اللغات الكبيرة LLM (Large Language Models) أصبحت «أغبى». أشار مستخدم الإنترنت Wisely Chen إلى أن ما يُسمى بـ «هبوط ذكاء LLM» ليس مجرد حكاية متداولة في المدينة، بل يمكن تتبعه باستمرار عبر البيانات، وهو ما يسبب بالفعل تأثيرًا ملموسًا على سير عمل الشركات.

واستخدم مثالًا من تجربته الشخصية، ففي 15 أبريل، حدثت عملية تدهور شاملة في خدمات سلسلة Claude التابعة لـ Anthropic، بما في ذلك claude.ai وAPI وClaude Code، حيث تظهر جميعها عبارة «Degraded Performance». ولا يتعلق الأمر بمجرد بطء أو أخطاء عارضة، بل إن جودة الاستجابة تنهار بوضوح، بل وحتى تظهر حالات لا يمكن فيها استخدام الخدمة بشكل طبيعي، ما أدى إلى تأجيل جميع مهام التطوير الثلاث في ذلك اليوم.

قد تكون هذه الظروف بالنسبة للمطورين الأفراد مجرد انخفاض في الكفاءة، لكن بالنسبة لفرق تكنولوجيا المعلومات في الشركات فإن الأثر يتضاعف. عندما يعتمد فريق يضم عدة مهندسين على أدوات الذكاء الاصطناعي لإجراء البرمجة وكتابة المستندات وأتمتة العمليات، فإن أي تدهور في النموذج يعني أن الإنتاجية الإجمالية تتراجع بشكل جماعي في الوقت نفسه، وهو ما يتحول إلى خسائر ملموسة في الوقت والتكلفة.

هل شعرت أن الذكاء الاصطناعي أصبح «أغبى»؟ تؤكد البيانات أنه تم «تدهوره» منذ وقت طويل

أشار Wisely Chen إلى أن مثل «GPT أصبح أغبى» و«Claude ليس كما كان من قبل» قد انتشرت في المجتمع منذ فترة طويلة، لكن ظلّت تفتقر إلى دعم بيانات موضوعية لفترة طويلة. وحتى ظهور منصات بدأت في الآونة الأخيرة بالمراقبة المستمرة لجودة النماذج، لم تتمكن هذه الظاهرة من أن تُقاس لأول مرة بشكل كمي.

ضمن ذلك، أجرى StupidMeter اختبارات آلية على مدار 24 ساعة على نماذج شائعة تشمل OpenAI وAnthropic وGoogle وغيرها، وتتبع مؤشرات مثل الدقة وقدرات الاستدلال والثبات. وبخلاف اختبارات benchmark التقليدية لمرة واحدة، فإن مثل هذه الأنظمة تكون أقرب إلى طريقة مراقبة واجهات برمجة التطبيقات أو قابلية خدمات التشغيل في الشركات، إذ تراقب تقلب أداء النموذج في بيئات الاستخدام الفعلية.

والنتائج واضحة جدًا: حاليًا، توجد أغلبية النماذج الرئيسية في حالة تحذير أو حالة تدهور، ولا تحافظ سوى قلة قليلة من النماذج على وضعها الطبيعي. وهذا يعني أن جودة النماذج غير مستقرة، وليست مشكلة تخص منتجًا واحدًا فقط، بل ظاهرة شائعة على مستوى الصناعة بأكملها.

LLM يهبط تدريجيًا في الذكاء، ويؤثر على استقرار سير عمل الذكاء الاصطناعي للشركات

بالنسبة للشركات، تعني هذه التغييرات أن الذكاء الاصطناعي انتقل من «أداة لتحسين الكفاءة» إلى «متغير يؤثر على الاستقرار». إذا كانت العمليات اليومية في الشركة، من كتابة البرامج إلى إجراء مراجعات الكود وصولًا إلى إنتاج المستندات وتقارير التحليل، تعتمد بالفعل بشكل كبير على LLM. ففي حال ظهرت في يومٍ ما تراجع في قدرات الاستدلال أو هبوط في جودة الإجابات لدى النموذج، فلن تظهر هذه المشكلات كما في عيوب البرمجيات التقليدية بشكل جزئي في مكان واحد، بل ستتسرب في الوقت نفسه إلى جميع مراحل استخدام الذكاء الاصطناعي.

والأكثر أهمية هو أن هذا النوع من التذبذب غالبًا ما يكون صعبًا على التنبؤ، وصعبًا أيضًا اكتشافه في الوقت المناسب. لا تمتلك معظم الشركات آليات لمراقبة جودة النماذج بشكل مستمر؛ وعادة ما يكتشفون المشكلة بعد أن تكون النتائج غير طبيعية، أو بعد أن تنخفض كفاءة الفريق، فيلاحظون أن السبب يعود إلى النموذج نفسه. في مثل هذا السياق، لم يعد «هبوط الذكاء» مجرد إحساس ذاتي لدى المستخدمين، بل أصبح خطرًا منهجيًا يؤثر مباشرة على إيقاع تشغيل الشركة.

عندما يصبح الذكاء الاصطناعي مثل الكهرباء والمياه، تصبح الاستقرارية مؤشرًا أساسيًا جديدًا

شبه Wisely Chen دور LLM بمقولة «كهرباء ومياه الشركات الحديثة». عندما يتغلغل الذكاء الاصطناعي في العمليات اليومية ويصبح قدرة أساسية لا غنى عنها، تزداد أهمية استقراريته تبعًا لذلك.

في الماضي، عند تقييم أدوات الذكاء الاصطناعي، كانت الشركات تركز على قدرات النموذج والسعر والوظائف. لكن مع بروز ظاهرة «هبوط الذكاء»، يظهر مؤشر أكثر أهمية، وهو الاستقرارية. عندما يمكن أن تتغير جودة النموذج دون إشعار، فإن الشركات لم تعد تقتصر على «استخدام الذكاء الاصطناعي»، بل يتعين عليها تحمل نوع جديد من مخاطر البنية التحتية. والأكثر يأسًا هو أنه إذا ركزت فقط على نماذج اللغات الكبيرة المتقدمة، ففي الأساس، ما دامت مشكلة القدرة الحاسوبية غير محلولة، فمن المحتمل أن يستمر حدوث ذلك.

هذه المقالة أُول مرة ظهرت في 鏈新聞 ABMedia.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.

مقالات ذات صلة

Cognition AI تجمع تمويلاً بتقييم $25B في مفاوضات مرحلة مبكرة

جيت نيوز رسالة، 24 أبريل — شركة Cognition AI، وهي شركة ناشئة في مجال برمجة الذكاء الاصطناعي، تجري مفاوضات في مرحلة مبكرة لجولة تمويل جديدة من شأنها أن تضاعف أكثر من قيمتها إلى $25 مليار، وفقًا لمصادر مطلعة على الأمر. تهدف الشركة إلى جمع مئات الملايين من الدولارات أو أكثر، حيث تستمر الطلبات على تكنولوجيا الذكاء الاصطناعي التوليدي في تطوير البرمجيات في النمو.

GateNewsمنذ 41 د

Anthropic 发现:Claude Code 质量下降背后是三项产品层变更,而非模型问题

Gate News 消息,4 月 23 日——Anthropic 的工程团队确认,用户在过去一个月报告的 Claude Code 质量退化源于三个相互独立的产品层变更,而非来自 API 或底层模型问题。三个问题分别在 4 月 7 日、4 月 10 日和 A 日修复。

GateNewsمنذ 1 س

ستصبح شركة NEC أول شريك عالمي لـ Anthropic في اليابان

أعلنت NEC أنها ستصبح أول شريك عالمي لـ Anthropic في اليابان، حيث ستعمل الشركتان على تطوير حلول ذكاء اصطناعي آمنة ومبنية على معرفة صناعية للصناعات شديدة التنظيم مثل المالية والتصنيع والجهات الحكومية المحلية، كما ستقومان بدمج سلسلة Claude في NEC BluStellar، مع التركيز على التحول في إدارة قائمة على البيانات وتحسين تجربة العملاء. وفي الوقت نفسه، قدمتا Claude Cowork ودمج SOC لتعزيز الحماية الأمنية. وللتحقق من الفعالية، أطلقت NEC برنامج العميل رقم صفر لإجراء اختبارات شاملة لوكلاء الذكاء الاصطناعي داخليًا، كما تخطط للترويج لنشر Claude عالميًا، بهدف إنشاء أكبر مركز تميز (CoE) على مستوى اليابان لهندسة AI الأصلية.

ChainNewsAbmediaمنذ 3 س

توسع اختراق أمني من Vercel ليصل إلى مئات المستخدمين؛ مطورو الذكاء الاصطناعي على قدر أعلى من المخاطر

رسالة Gate News ، 23 أبريل — كشفت Vercel في 19 أبريل أن حادثة أمنية لديها، التي وُصفت في البداية بأنها تؤثر على "فئة محدودة من العملاء"، قد توسعت لتشمل مجتمعًا أوسع بكثير من المطورين، ولا سيما أولئك الذين يبنون سير عمل وكلاء الذكاء الاصطناعي. قد يؤثر الهجوم في مئات المستخدمين

GateNewsمنذ 4 س

OpenAI تُطلق GPT-5.5: سياق 12M، مؤشر AA يتصدر القمة، وTerminal-Bench بنسبة 82.7% يعيد كتابة معيار الوكلاء

أعلنت OpenAI عن GPT-5.5، مع التركيز على العمل بنهج الوكلاء ومعالجة المعرفة للشركات، كما تم طرحها بالتزامن على ChatGPT وCodex. تتضمن النقاط الرئيسية نافذة سياق مكونة من 1200 مليون توكن، وAA Intelligence Index 60، وتتقدم على Claude Opus 4.7 وGemini 3.1 Pro؛ السعر هو 5 دولارات أمريكية لإدخال كل مليون توكن و30 دولارًا أمريكيًا للإخراج لكل مليون توكن، وينخفض عدد التوكنات الناتجة بنحو 40%، وترتفع التكلفة الفعلية بنحو 20%.

ChainNewsAbmediaمنذ 5 س

Cluster Protocol 融资 $5M ,加速 CodeXero:面向 EVM 的原生浏览器 AI IDE

Gate News 消息,4月23日——Cluster Protocol,这家人工智能深科技与 Web3 基础设施公司宣布,它已在一轮由 DAO5 牵头的新融资中募集到 $5 百万美元,Paper Ventures、JPEG Trading 和 Mapleblock Capital 参与其中,使融资总额达到 7.75 million 美元。该资本将

GateNewsمنذ 5 س
تعليق
0/400
لا توجد تعليقات