يُحذّر فيتاليك بوتيرين، مؤسس إيثيريوم، من مخاطر أمان وكلاء الذكاء الاصطناعي، ويشارك مكدس LLM الخاص به

Coinpedia
ETH0.83%

انتقل مؤسس إيثيريوم، فيتالik بوتيرين، بالكامل بعيدًا عن خدمات الذكاء الاصطناعي المستندة إلى السحابة، وشرح بالتفصيل إعداد ذكاء اصطناعي (AI) يعمل بالكامل محليًا وضمن بيئة معزولة (sandboxed) في منشور مدونة نُشر هذا الأسبوع.

النتائج الرئيسية:

  • تخلّى مؤسس إيثيريوم، فيتالik بوتيرين، عن الذكاء الاصطناعي السحابي في أبريل 2026، من خلال تشغيل Qwen3.5:35B محليًا على لابتوب من Nvidia 5090 بسرعة 90 رمزًا في الثانية.
  • وجد بوتيرين أن نحو 15% من قدرات وكلاء الذكاء الاصطناعي تتضمن تعليمات خبيثة، مستشهدًا بالبيانات الصادرة عن شركة أمنية Hiddenlayer.
  • يفرض برنامج خادم المراسلة (messaging daemon) مفتوح المصدر قاعدة تأكيد “بشري + LLM” بنظام 2-of-2 لكل الإجراءات الصادرة المتعلقة بإرسال إشارات Signal والبريد الإلكتروني إلى أطراف ثالثة.

كيفية تشغيل فيتالik بوتيرين لنظام ذكاء اصطناعي سيادي ذاتي بدون وصول إلى السحابة

وصف بوتيرين النظام بأنه “سيادي ذاتيًا / محلي / خاص / آمن”، وقال إنه بُني ردًا مباشرًا على ما يراه إخفاقات خطيرة في الأمن والخصوصية تنتشر عبر مساحة وكلاء الذكاء الاصطناعي (AI agent space). وأشار إلى أبحاث تُظهر أن نحو 15% من قدرات الوكلاء، أو أدوات الإضافات (plug-in tools)، تحتوي على تعليمات خبيثة. وأظهرت شركة Hiddenlayer للأمن أن تحليل صفحة ويب خبيثة واحدة يمكن أن يَخترِق بالكامل مثيل Openclaw، مما يسمح له بتنزيل وتشغيل سكربتات shell دون وعي المستخدم.

“أنا أتبنى عقلية تتمثل في أنني خائف جدًا من أنه تمامًا كما كنا نخطو أخيرًا خطوة إلى الأمام في الخصوصية من خلال اعتماد التشفير من طرف إلى طرف على نطاق أوسع وكوننا نعتمد على برامج محلية من الأساس بشكل متزايد، فإننا على وشك التراجع عشر خطوات إلى الوراء”، كتب بوتيرين.

المعدة التي يفضلها هي لابتوب يعمل على وحدة GPU من Nvidia 5090 بسعة 24 جيجابايت من ذاكرة الفيديو. وعند تشغيل نموذج Qwen3.5:35B بأوزان مفتوحة من Alibaba عبر llama-server، يصل الإعداد إلى 90 رمزًا في الثانية، وهو ما يسميه بوتيرين الهدف لتحقيق استخدام يومي مريح. اختبر AMD Ryzen AI Max Pro مع 128 جيجابايت من الذاكرة الموحدة، والذي بلغ 51 رمزًا في الثانية، وDGX Spark التي وصلت إلى 60 رمزًا في الثانية.

وقال إن DGX Spark، المُسوّق بوصفه حاسوبًا فائقًا للذكاء الاصطناعي مكتبيًا، كان غير مُقنع بالنظر إلى تكلفته ومعدل الإنتاجية الأدنى مقارنةً بوحدة GPU جيدة على لابتوب. وبالنسبة لنظام التشغيل، انتقل بوتيرين من Arch Linux إلى NixOS، الذي يتيح للمستخدمين تحديد إعدادات نظامهم بالكامل في ملف تصريحي واحد (declarative file). يستخدم llama-server كخادم (daemon) في الخلفية يكشف منفذًا محليًا يمكن لأي تطبيق الاتصال به.

وأضاف أن Claude Code يمكن توجيهه إلى نسخة محلية من llama-server بدلًا من خوادم Anthropic. ويُعدّ العزل (Sandboxing) محورًا في نموذج أمانه. يستخدم bubblewrap لإنشاء بيئات معزولة من أي دليل بأمر واحد. يمكن للعمليات التي تعمل داخل هذه الـ sandboxes الوصول فقط إلى الملفات المسموح بها بشكل صريح والمتحكم بها، وإلى منافذ الشبكة المتحكم بها. وقد نشر بوتيرين كود خادم مراسلة مفتوح المصدر على github.com/vbuterin/messaging-daemon والذي يلتف على signal-cli والبريد الإلكتروني.

وأشار إلى أن الخادم يستطيع قراءة الرسائل بحرية وإرسال الرسائل إلى نفسه دون تأكيد. أي رسالة صادرة إلى طرف ثالث تتطلب موافقة بشرية صريحة. سماه نموذج “البشري + LLM 2-of-2”، وقال إن المنطق نفسه ينطبق على محافظ Ethereum. ونصح الفرق التي تبني أدوات محافظ مرتبطة بالذكاء الاصطناعي بتحديد المعاملات الذاتية عند حد 100 دولار يوميًا، وطلب تأكيد بشري لأي شيء أعلى من ذلك أو أي معاملة تتضمن calldata يمكن أن يؤدي إلى تسريب بيانات (exfiltrate data).

الاستدلال عن بُعد، وفق شروط بوتيرين

بالنسبة لمهام البحث، قارن بوتيرين الأداة المحلية Local Deep Research مع إعداده الخاص باستخدام إطار عمل pi agent المقترن بـ SearXNG، وهو محرك بحث ميتا مُستضاف ذاتيًا ويركز على الخصوصية. وقال إن pi مع SearXNG قدمت إجابات بجودة أفضل. ويحتفظ بوتيرين بنسخة محلية من ويكيبيديا بحجم يقارب 1 تيرابايت إلى جانب وثائق تقنية، لتقليل اعتماده على استعلامات البحث الخارجية، والتي يعتبرها تسريبًا للخصوصية.

كما نشر خادمًا محليًا لتحويل الصوت إلى نص (transcription) على github.com/vbuterin/stt-daemon. تعمل الأداة دون GPU للاستخدام الأساسي، وتغذي المخرجات إلى LLM للتصحيح والملخصة. وبخصوص تكامل Ethereum، قال بوتيرين إنه يجب ألا تمتلك وكلاء الذكاء الاصطناعي أبدًا وصولًا غير مُقيّد إلى المحفظة. ونصح بمعاملة العامل البشري والعامل LLM كعاملين مختلفين للتأكيد، يلتقط كل منهما أوضاع فشل مختلفة.

في الحالات التي لا تكفي فيها النماذج المحلية، وضع بوتيرين نهجًا يحافظ على الخصوصية للاستدلال عن بُعد. وأشار إلى اقتراحه الخاص ZK-API مع الباحث Davide، ومشروع Openanonymity، واستخدام mixnets لمنع الخوادم من ربط الطلبات المتتالية بواسطة عنوان IP. كما أشار إلى البيئات التنفيذية الموثوقة (trusted execution environments) كطريقة لتقليل تسرب البيانات من الاستدلال عن بُعد في المدى القريب، مع الإشارة إلى أن التشفير المتجانس بالكامل (fully homomorphic encryption) للاستدلال على سحابة خاصة لا يزال بطيئًا جدًا ليكون عمليًا اليوم.

اختتم بوتيرين بملاحظة أن المنشور يصف نقطة بداية، وليس منتجًا مكتملًا، وحذّر القراء من نسخ أدواته بالضبط وافتراض أنها آمنة.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات