المعلومات سلاح: الذكاء الاصطناعي لم يقتل الحقيقة، إنه فقط جعل الحقيقة غير ذات صلة

كتابة: لا تفهم الاقتصاد، عمّي روست

5 أبريل 2026، الأحد. الرئيس الأمريكي ترامب نشر منشورًا على منصته الاجتماعية Truth Social، بنبرة كأنه يوجه إنذارًا أخيرًا.

“الثلاثاء، الساعة 8 مساءً بتوقيت الساحل الشرقي!”

إذا لم تفتح إيران مضيق هرمز من جديد، ستقوم الولايات المتحدة بقصف محطاتها الكهربائية وجسورها. بعد يومين، زاد الطين بلة: “حضارتها بأكملها ستموت الليلة”. بعد ساعات، أعلن فجأة عن وقف إطلاق النار لمدة أسبوعين.

من هو الأسرع في الرد على هذا المنشور؟

هو سفارة إيران في زيمبابوي. كتبوا على إكس: “الساعة 8 مساءً غير مناسب. هل يمكن أن نغيرها إلى 1-2 ظهرًا، أو 1-2 صباحًا؟ شكرًا لاهتمامكم بهذا الأمر المهم.”

الجملة الأخيرة “شكرًا لاهتمامكم بهذا الأمر المهم” كانت تقلد صيغة توقيع ترامب نفسه.

دولة تتعرض للقصف ترد بمزحة على تهديدات الحرب.

وهذا ليس استثناء. سفارة إيران في تايلاند ردت على تصريحات ترامب “بقصف إيران إلى عصور ما قبل التاريخ” بصورة مولدة بالذكاء الاصطناعي: ترامب يرتدي جلد حيوانات جالسًا في كهف. السفارة في جنوب أفريقيا نشرت مجموعة صور لجنرالات أمريكيين مع علامات X، وكتبت: “نجحت عملية تغيير النظام.” العلامة X لم تكن لجنرالات إيران، بل لجنرالات الجيش الأمريكي الذين أقالهم وزير الدفاع بيتر هيجسث(.

وفي الوقت ذاته، فريق يُدعى “وسائل الإعلام الانفجارية”)Explosive Media( يُنتج بكميات كبيرة رسوم متحركة بلُعب الليغو بالذكاء الاصطناعي. ترامب، الجيش الأمريكي، القوات الإيرانية، كلهم تحولوا إلى شخصيات بلاستيكية صفراء. أحد الفيديوهات الغنائية يهاجم ترامب ويصفه بـ"الخاسر" ويدعو رئيس وزراء إسرائيل نتنياهو بـ"الدمية"، وحصد ملايين المشاهدات على وسائل التواصل العالمية.

البيت الأبيض لم يقف مكتوف الأيدي. حسابه الرسمي على إكس نشر فيديو مولد بالذكاء الاصطناعي يصور النظام الإيراني كزجاجة بولينج، يُسقطها الجيش الأمريكي بضربة واحدة. مسؤول كبير في البيت الأبيض قال لـ Politico:

“يا رفاق، نحن ننتج بشكل مستمر ومكثف ميمات ناجحة.”

وأضاف مسؤول آخر أن فيديو الحرب على إيران من البيت الأبيض حصل على “أكثر من 3 مليارات ظهور” على الإنترنت.

3 مليارات.

توقف لحظة وفكر ثانية. هذه حرب حقيقية. قنابل حقيقية، خسائر بشرية حقيقية، انقطاع حقيقي في إمدادات النفط. لكن في فضاء المعلومات العام، تبدو كأنها مسابقة ميمات. قوة عظمى ودولة تتعرض للقصف، على منصة واحدة، بلغة واحدة، يهاجمان بعضهما البعض. تلك اللغة تسمى الميم.

هذه هي مشهد المعلومات في 2026. المعلومات لم تعد مجرد وصف للواقع. هي ساحة معركة بحد ذاتها.

جوهر الفجوة المعلوماتية، ليس في المعلومات ذاتها

نقطة تحول معرفية في زمن: ما لم يكن مشكلة، أصبح الآن مشكلة أساسية

الهدف الحقيقي من تدفق المعلومات، ليس خداعك أو تضليلك

معظم الناس لا تزال تفهم “المعلومات المضللة” ضمن إطار بسيط: شخص يقول كذبًا، وشخص يصدق، ويتسبب ذلك في ضرر. لذا، فإن الحلول تبدو بديهية: التحقق من الحقائق، كشف الأكاذيب، رفع مستوى الوعي الإعلامي للجمهور.

لكن هذا الإطار أصبح قديمًا.

الهدف النهائي في الحرب المعلوماتية الحديثة، لم يكن أبدًا جعلك تصدق كذبة معينة. هدفها هو جعل التمييز بين “الحقيقة” و"الكذب" ذاتها يتحول إلى بعد لا تهتم به.

هانا أرندت (Hannah Arendt، واحدة من أهم فلاسفة السياسة في القرن العشرين، ومؤلف “أصول الشمولية”) كتبت عام 1951:

“المواطن المثالي في حكم الشمولية، ليس هو النازي المتشدد أو الشيوعي المتشدد، بل هو الشخص الذي لم يعد يميز بين الحقيقة والخيال، وبين الواقع والوهم.”

وصف ذلك آلة الدعاية في القرن العشرين. بعد سبعة وسبعين عامًا، الذكاء الاصطناعي يُحوّل هذا التوقع بسرعة غير متخيلة إلى تجربة يومية لكل مستخدم هاتف ذكي حول العالم.

جورج أورويل (George Orwell)، قبل ذلك بكثير، كتب عام 1943 في “مراجعة حرب إسبانيا”:

“مفهوم الحقيقة الموضوعية يتلاشى من العالم. الأكاذيب ستُخلد في التاريخ.”

كان يتحدث عن ألمانيا النازية. لكن اليوم، لم يعد هناك حاجة لدولة شمولية لقيادة هذه العملية. يكفي أن يكون هناك خوارزمية.

بطل الشطرنج، ثم الناشط السياسي الشهير غاري كاسباروف (Garry Kasparov)، قال الأمر بشكل أدق:

“هدف الدعاية الحديثة ليس فقط تضليلك أو دفعك لاتباع جدول أعمال معين. هدفها هو استنزاف قدرتك على النقد، والقضاء على الحقيقة ذاتها.”

استنزاف. ليس هزيمتك، بل استنفادك. هذا التعبير دقيق جدًا.

الذكاء الاصطناعي هدم الأساس الذي يقوم عليه التمييز بين الحقيقة والكذب على مستوى التقنية

ما سبق قد يبدو نظريًا وفلسفيًا. فلننظر إلى الواقع الذي حدث.

إشارات عصر الذكاء الاصطناعي قد انعكست.

في السابق، صورة بدون أثر رقمي كانت تعني أنها أصلية ولم تُعدّل. في 2026، غياب الأثر الرقمي قد يدل على أنها لم تُلتقط أصلًا، لأنها من إنتاج الذكاء الاصطناعي منذ البداية. نظام الإشارات الحقيقي قد انقلب تمامًا. كأنه فيلم فوتوغرافي مقلوب الألوان.

الأكثر خطورة هو “المزيج”.

مؤخرًا، نشرت مجلة WIRED تقريرًا معمقًا بعنوان “الإنترنت يخرّب جميع أجهزة كشف التزييف”، استشهدت فيه هينك فان إيس (Henk van Ess)، مدرب صحافة استقصائية هولندي. قال إن أصعب الصور في التمييز ليست تلك التي أنتجها الذكاء الاصطناعي بالكامل، بل تلك التي تكون 95% حقيقية و5% معدلة.

صورة واحدة، بيانات وصفية حقيقية، ضوضاء حقيقية من الحساسات، ظلال وخصائص فيزيائية حقيقية. التعديل يكون في تفصيل واحد: شعار على الزي العسكري، سلاح في يد، أو وجه تم استبداله بشكل دقيق. أدوات فحص البكسل قد تؤكد أنها حقيقية، لأنها في معظم الأبعاد حقيقية. الجزء المزيف قد يكون فقط بوصة مربعة واحدة.

“كل طرق التحقق السابقة كانت تعتمد على فرضية أن الصورة توثق لشيء معين،” قال فان إيس. “الوسائط التوليدية دمرت هذه الفرضية من الأساس.”

الباحث في التزييف العميق هنري أجدير (Henry Ajder)، الذي قدم استشارات لشركات مثل Adobe، قال إن الذكاء الاصطناعي لم يعد شيئًا يمكن كشفه بسهولة، لأنه أصبح جزءًا من المحتوى اليومي. انتهى زمن رسم إصبع خاطئ أو نص مشوش. المحتوى الجديد يبدو موثوقًا تمامًا.

أما أدوات الكشف؟ قال أجدير: “لا ينبغي الاعتماد على أدوات الكشف كعلامة حاسمة للحقيقة.” فهي ليست محرك الحقيقة. حتى أفضلها قد يفشل كثيرًا. معظمها يعطي فقط “درجة ثقة” غير مفهومة. 85% حقيقي؟ 62% زائف؟ هذه الأرقام لا تقول شيئًا.

لماذا يهرب الأذكياء من وسائل التواصل الاجتماعي؟

نشرة الأطلنطي: عصر وسائل التواصل انتهى، لكن ما يحل محله أسوأ

رؤساء دول يرسلون منشورات في وقت متأخر من الليل

وفي الوقت ذاته، تُغلق أبواب التحقق.

في 4 أبريل 2026، أعلنت شركة Planet Labs عن إيقاف مؤقت غير محدود لصور الأقمار الصناعية لإيران ومنطقة الصراعات في الشرق الأوسط. تعتبر Planet Labs واحدة من أكبر مزودي الصور الفضائية للأخبار عن الصراعات. جاء هذا الإيقاف بناءً على طلب الحكومة الأمريكية، ويبدأ من 9 مارس.

رد وزير الدفاع الأمريكي هيجسث كان صريحًا: “المعلومات المفتوحة ليست المكان الذي نحدد فيه الحقائق.”

بمعنى آخر: أنت لست بحاجة لرؤية ما يحدث بنفسك، نحن نقول لك.

وفي الوقت نفسه، وفقًا لتقرير معايير تدفق الذكاء الاصطناعي والتهديدات على الإنترنت لعام 2026، فإن التدفق الآلي على الإنترنت يمثل الآن 51% من إجمالي الحركة، بمعدل نمو 8 أضعاف حركة البشر. هذه الروبوتات لا تكتفي بنشر المحتوى، بل تركز على نشر محتوى فيروسي منخفض الجودة. المحتوى المُركب يتسابق، والتحقق لا يزال يلبس حذاءه.

جانب واحد: محركات التضليل تعمل بسرعة قصوى. والجانب الآخر: أبواب التحقق تُغلق. ليست مسابقة عادلة. أحدهما يتسارع، والآخر يُفكك محركه.

شبح مك لوهان: لماذا “الأجواء” أقوى من “الحقائق”؟

حتى الآن، قد يظن الكثيرون أن المشكلة أصبحت خطيرة بما يكفي. لكن الأمر ليس كذلك. انهيار التحقق التقني هو فقط قمة جبل الجليد. ما تحت الماء أكبر وأصعب على المواجهة.

مارشال مك لوهان، الذي كان يُعتبر نبي الرقمية، قال عام 1964 في كتابه “فهم الوسائط”: “الوسيط هو الرسالة.”

يفهم الكثيرون هذه العبارة على أنها “وسائل الإعلام مهمة”. وهو فهم خاطئ وخطير.

المقصود الحقيقي لمك لوهان هو: الوسيط، قبل أن تبدأ في تقييم المحتوى بوعي، يُعيد تشكيلك على مستوى أعمق من الإدراك.

التلفزيون لا يحتاج لعرض برنامج معين ليغيرك. شكله ذاته يغير طريقة فهم البشر للعالم. والطباعة لا تحتاج لنشر كتاب معين لخلق قومية. فهي تتيح نشر لغة موحدة، وهذا بحد ذاته يُولد الهوية الوطنية.

اليوم، المحتوى المُركب بالذكاء الاصطناعي لا يحتاج أن يخدعك مرة واحدة. يكفي أن يكون موجودًا بكثرة، ليحول الحالة النفسية الافتراضية لديك من “ما أراه حقيقي” إلى “كل شيء قد يكون زائفًا.”

هذه الحالة الإدراكية، في جوهرها، هي نتيجة سلاح المعلومات. تؤثر على الجميع، بغض النظر عن الذكاء أو التعليم أو الموقف.

مؤخرًا، قرأت مقالًا عن دمج الوسائط مع الآلات، اقترح فيه مك لوهان صيغة جديدة:

في عصر النماذج اللغوية الكبيرة، الوسيط هو المعلومات، والوسيط هو الآلة.

اللغة الطبيعية الآن ليست فقط واجهة تفاعل بين الإنسان والآلة، بل هي البنية التحتية الأساسية. الكتابة تُبنى، والبناء يُكتب. الكود والثقافة ينبعان من مصدر واحد. هذا الاندماج يُشكل حلقة مفرغة، حيث يُبدع الوسيط الآلة، والآلة تُعيد إبداع الوسيط، بشكل لا نهائي.

وفي ساحة حرب الميمات الإيرانية، يجب أن نذهب خطوة أبعد.

لماذا كانت فيديوهات السفارة الإيرانية بالذكاء الاصطناعي فعالة؟ ليس لأنها محتوى. المحتوى هو مجرد سخرية دعائية بسيطة، لا يحمل الكثير من المعلومات. فعاليتها تكمن في أن شكل الوسيط ذاته هجوم.

المحتوى المُنتج بالذكاء الاصطناعي، والمنشأ أصلاً من المنصات، مُحسن للمشاركة. ميمات البيت الأبيض أيضًا كذلك. “نشر الرئيس لميم” هو بحد ذاته رسالة.

ما ينقله ليس سياسة محددة، بل ميتا-معلومة: القواعد لم تعد موجودة، الجدية لم تعد موجودة، والنظام الذي ظننته “مرتبًا” لم يعد موجودًا.

قال أستاذ التاريخ في جامعة تكساس إيه آند إم، غريغوري داديس (Gregory Daddis، الذي خدم في الجيش الأمريكي لأكثر من 20 عامًا): “أسلوب ترامب على وسائل التواصل يخدم بشكل أساسي قاعدته السياسية المحلية: الجمهور الذي يعتقد أن موسيقي الروك كيد روك ووزير الصحة كينييدي يبدوان رائعين أثناء التمرين في الساونا. هذا ليس أسلوب دبلوماسي جدي.”

لكن إيران تعلمت الدرس. قال خبير في تنظيمات الوكلاء الإيرانيين، فيليب سميث (Phillip Smyth): إن أدوات الذكاء الاصطناعي ساعدت إيران والصين على جسر الفجوة الثقافية، وتمكنهم من إنتاج محتوى دعائي يثير إعجاب الجمهور الغربي، حتى لو لم يكن صانعوه على دراية كاملة بالثقافة الغربية.

نشرت قناة CCTV الصينية فيديو دعائي بالذكاء الاصطناعي يصور الأمريكيين كنسور بيضاء، والإيرانيين كقطط فارسية. هذا الفيديو ترجمه ونشره الإعلام العالمي، وتناقلته وسائل الإعلام الكبرى.

الوسيط هو المعلومات، والوسيط هو الآلة. وفي سياق الحرب، يمكن أن نضيف معادلة أخرى: الوسيط هو السلاح.

أنت تتعقب 5000 شخصية بارزة باستخدام الذكاء الاصطناعي، لكن عالمك يتضيق

ما هو أغلى أصل اليوم؟ وول ستريت مباشرة أرسلت محللين إلى مضيق هرمز

لماذا يعيد أغنى عقول وادي السيليكون قراءة شخص واحد؟

ماذا يتلقى الناس من هذه الوسائط المسلّحة؟

مقال حديث في “فايننشال تايمز” يطرح رأيًا غير بديهي: تأثير وسائل التواصل على وجهات نظر الناس مبالغ فيه. “ليس كل من يقرأ الإنجيل يصبح مسيحيًا، وليس كل من يقرأ الويكلي ستاندرد يصبح يساريًا.” الناس أكثر شكًا في المعلومات العشوائية على وسائل التواصل مقارنة بالمصادر التقليدية.

هذا الرأي يبدو كأنه يدافع عن وسائل التواصل.

لكن، في الحقيقة، يكشف عن شيء أعمق. ما يتلقاه الناس على وسائل التواصل ليس “معلومات”، بل هو “أجواء” (vibes). أنت لا تحتاج لتصديق خبر زائف معين، فقط تتشبع بأجواء معينة من خلال مئات الرسائل. غاضبة، قلقة، فارغة.

وهذا هو أدق تأكيد لنظرية مك لوهان في 2026: تأثير الوسيط لا يحدث على مستوى “المحتوى”، بل على مستوى “هيكل الإدراك”. أنت تظن أنك تقرأ، وتفكر، وتتحكم، لكن الوسيط غير وجهة نظرك عن العالم قبل أن تتخذ قرارك. كما قال مك لوهان، الوسيط هو التدليك.

تظن أنك تختار ما تصدقه. لكنك في الحقيقة تتشبع بالأجواء.

الأجواء هي السيطرة

كيف حدث استنزاف غاري كاسباروف، بطل الشطرنج، ثم الناشط السياسي؟

تخيل استهلاكك اليومي للمعلومات. تفتح هاتفك يوميًا، وتلتقط صورة صادمة. لا تعرف إن كانت حقيقية أم لا. تريد التحقق، لكن كيف؟ البحث العكسي عن الصور على Google Lens، Yandex، TinEye يعطي نتائج مختلفة. عدم التطابق لم يعد يعني أنها أصلية، بل قد يعني أنها لم تُلتقط أصلًا، لأنها من إنتاج الذكاء الاصطناعي. الإشارة الرقمية قد تكون مفقودة. أدوات التحقق تعطي ثقة بنسبة 72%. ماذا يعني ذلك؟ تغلق الصفحة وتتابع التمرير.

وفي اليوم التالي، صورة أخرى. وفي اليوم الذي يليه، صورة ثالثة.

بعد شهر، لن تصبح أكثر حذرًا. ستتوقف عن الحكم. ليس لأنك غبي، بل لأن موارد الإدراك لديك محدودة. هذه الحرب مصممة لاستهلاك كل عرض من وعيك. كل معلومة تتطلب منك أن تميز بين “حقيقي” و"زائف"، وتفرض عليك ضريبة انتباه. الضريبة تزداد، ومواردك من الانتباه لا تتغير.

الشك الصحي يبدو كأنه “دعني أتحقق”. لكن عندما يصبح التحقق مكلفًا جدًا، يتحول الشك إلى تشاؤم، ويصبح “لا أصدق شيئًا على أي حال”.

الانتقال من “كل شيء قد يكون زائفًا” إلى “كل شيء زائف” خطوة واحدة، وأنت لا تدرك أنك قد خطوتها.

تكتمل نبوءة أرندت هنا: عندما يصل غالبية المجتمع إلى حالة “لا أصدق شيئًا”، لن يتحولوا إلى مفكرين ناقدين، بل إلى “رعايا مثاليين”. رعايا غير مقتنعين، غير مهتمين بالحقيقة، غير مهتمين بالنظام.

وفي قسم التعليقات على مقال “فايننشال تايمز”، كتب أحدهم: “الكراهية، والانقسام، والغضب تجلب النقرات. مارك زوكربيرج، إيلون ماسك، لم يربحوا ملياراتهم من تشجيع احترام بعضهم البعض.”

الخوارزمية تُحسن من التوصيل، لا من الحقيقة. عندما تصبح المشاعر وقودًا للخوارزمية، فإن الأجواء تصبح الحاكم الحقيقي لهذا العصر.

الحقيقة لم تُهزم. فقط غُمرت بقوة لا تستطيع مجاراتها أبدًا: تكلفة صفر، سرعة غير محدودة، وتأثير مباشر على العواطف.

الذكاء الاصطناعي يُظهر حقيقة التعليم، والجامعات الأمريكية تبدأ في إحياء تقليد قديم

الأشخاص الذين يستخدمون الذكاء الاصطناعي بشكل مكثف يُعَدون الآن للتشغيل الآلي.

وفي خضم موجة الأجواء الزائفة، حاول أن تثبت نفسك.

إذا شعرت أن “ماذا أفعل؟ لا أستطيع مقاومة الخوارزمية”، فهذه إشارة إلى أن تلك الأجواء تؤثر عليك بالفعل.

هذه ليست وصفة سحرية. لا توجد وصفة سحرية. لكن هناك استراتيجيات هيكلية، على الأقل تجعلك أقل عرضة للانجراف.

أولاً: توقف عن سؤال “هل هو حقيقي؟”. وابدأ بالسؤال “من أين أتى؟”

في تقرير WIRED، قدم خبير التحقق فان إيس طريقة من خمس خطوات، تعتمد على الانتقال من “التحقق من المحتوى” إلى “تتبع المصدر”. يسميها “العثور على المريض صفر”، أي تتبع أول ظهور للمعلومة.

المواد الحقيقية غالبًا ما تكون مرتبطة بشخص معين: شاهد عيان، مصور، إحداثية يمكن تحديدها. أما المحتوى المُولد بالذكاء الاصطناعي، فميزته الأساسية: مجهول المصدر، متقن، ومصمم للمشاركة. كأنه يتيم. بلا والدين، بلا أصل، فقط مظهر مثالي.

كما قال فان إيس، هناك قاعدة بسيطة لكنها فعالة: “إذا بدت الصورة وكأنها من فيلم، والإضاءة مثالية، والتكوين متناسق جدًا، فهذه علامة تحذير. الكوارث الحقيقية نادرًا ما تكون متناسقة.”

عصر التحقق من المعلومات ينتهي، وعصر تتبع المصدر يبدأ. رغم أن ذلك يستهلك الكثير من الحوسبة.

ثانيًا: فرض “ضرائب” على انتباهك.

ليس مجرد نصيحة “قلل من استخدام الهاتف”، بل وضع حاجز تباطؤ واعٍ قبل أن تصل المعلومات إلى دماغك.

الطريقة: عندما تصادف محتوى يثير عاطفة قوية، امنح نفسك 24 ساعة لتهدأ، ثم قرر إذا كنت ستشاركه أم لا. ستجد أن غالبًا، بعد يوم، لن ترغب في مشاركته، لأن الأجواء قد تلاشت، وما تبقى هو المحتوى فقط، والذي غالبًا لا يستحق المشاركة.

بالنسبة للأحداث الكبرى التي تنوي تصديقها، ابحث عن ثلاثة مصادر مستقلة للتحقق. ليست ثلاثة حسابات على منصة واحدة (قد تكون كلها تنقل من مصدر واحد)، بل ثلاثة أنواع مختلفة من المصادر.

عود إلى النصوص الطويلة. الكتب والتقارير العميقة تمتلك وظيفة لا توفرها الخوارزميات: التباطؤ. الخوارزمية تضغط كل شيء ليحكم عليه في 3 ثوانٍ. الكتب تجبرك على قضاء 3 ساعات في استكشاف فكرة واحدة. ليست خسارة في الكفاءة، بل تصحيح في التفكير. وهي عملية مكلفة جدًا في الحوسبة.

ثالثًا: إعادة بناء شبكة ثقة صغيرة، تعتمد على علاقات حقيقية.

إذا أصبح الفضاء المعلوماتي العام غير قابل للاسترجاع، ومُهيمن عليه “الأجواء”، فإن أهم شيء يمكن أن تفعله هو أن تجد مرساة خارج ذلك الفضاء.

تلك المقالة عن دمج الوسائط مع الآلات تقول إن: عندما يُبتلع كل شيء مرئي، فإن “العائد الإضافي” الوحيد هو الأشياء التي ترفض الرقمنة. التجربة غير المتصلة، الحدس، الصمت بين الأصدقاء الحقيقيين.

مك لوهان مرة أخرى، ربما يكون على حق، الوسيط الإلكتروني سيعيدنا إلى حالة “القبيلة”، ويجب أن تعيد بناء قبيلتك. ليست تلك التي يختارها لك الخوارزم، بل تلك التي تعرفها حقًا، وتشاركها ذكريات، ويمكنك مواجهتها وجهًا لوجه.

في عالم يمكن تزوير كل شيء فيه، أصعب شيء يمكن تزويره هو العلاقات طويلة الأمد.

AI 2028 - AI 2027 - AI 2026: العد التنازلي للتغيرات الكبرى ودليل الإنقاذ للناس العاديين

انهيار الطبقة الوسطى: تاريخ إدارة يمتد لألفي عام ينتهي بدورة ذكاء اصطناعي

في زمن التسارع، كن شخصًا يبطئ

عد إلى المشهد الافتتاحي.

رئيس دولة عظمى يهدد في ساعة متأخرة من الليل بتدمير حضارة. الدولة المهددة ترد بمقطع فيديو بالذكاء الاصطناعي. البيت الأبيض يحتفل بقصفه عبر فيديو بولينج بالذكاء الاصطناعي. سفارة إيران تسخر من التهديدات بمزحة. 3 مليارات ظهور.

كل مشارك يسرع. الذكاء الاصطناعي يُنتج بسرعة، والخوارزميات تُوزع بسرعة، والعواطف تنتشر بسرعة.

كما قال WIRED في ختام تقريره:

“في نظام يُنشر فيه المحتوى المُركب بسرعة تفوق التحقق، الحماية الحقيقية الوحيدة قد تكون سلوكًا: التردد. توقف قبل المشاركة. في نظام مصمم لعدم التفكير، خذ بضع دقائق للتفكير.”

في عالم تتسارع فيه كل الأنظمة، ربما يكون أبلغ ما يمكن أن تفعله هو أن تبطئ. ليس لأن التباطؤ دائمًا سيساعدك على العثور على الحقيقة، بل لأن التباطؤ هو نوع من الرفض.

رفض أن تكون “رعايا مثاليين” كما تقول أرندت. رفض أن تصبح “الحقائق والزيف” وضعًا افتراضيًا لديك.

قال أورويل إن الأكاذيب ستُخلد في التاريخ.

ربما، لكن طالما هناك من يتوقف قبل أن يعيد نشر، فالتاريخ لم يُكتب بعد.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت