مخاطر الذكاء الاصطناعي المستقل بدأت في DeFi… وOpenClaw ليس سوى الفصل الثاني

امتلأت شبكاتي الاجتماعية مؤخراً بموجة من القلق المفاجئ حول OpenClaw وشبكته الاجتماعية الخاصة بالوكلاء فقط، MoltBook . يتم التعامل مع فكرة وكلاء ذكاء اصطناعي مستقلين يتحدثون إلى بعضهم البعض، ينسّقون الأفعال، يعززون الأفكار، ويعملون دون توجيه بشري مستمر، على أنها تطور جديد ومقلق.
لكن هذا التفاعل يبدو في غير محله. ليس لأن القلق غير مبرر، بل لأنه متأخر.
ما نشهده اليوم ليس بداية مخاطر الذكاء الاصطناعي المستقل، بل هو فصلها الثاني.
لقد كنت أتابع وأحذّر من هذه المخاطر منذ عدة سنوات، بدايةً في قطاع التمويل اللامركزي (DeFi)، حيث تعرّض وكلاء الذكاء الاصطناعي المستقلون لضغوط اقتصادية حقيقية قبل ظهورهم في أنظمة اجتماعية عامة. أنماط الفشل كانت واضحة هناك بالفعل، لكنها كانت أسهل في التجاهل.
DeFi كأول مختبر ضغط للذكاء الاصطناعي المستقل
للتوضيح، الأتمتة المالية ليست أمراً جديداً. لطالما اعتمدت الأسواق على أنظمة التداول الخوارزمية، وحلقات التغذية الراجعة، والتنفيذ الآلي.
ما تغيّر في قطاع التمويل اللامركزي كان ظهور وكلاء “مُفكِّرين” يتمتعون بسلوك تكيفي وقدرة على التنسيق مع وكلاء آخرين في ظل حوافز اقتصادية حقيقية.
أصبح التمويل اللامركزي أول بيئة تتفاعل فيها هذه الأنظمة بشكل مستمر مع رأس المال، ومع أطراف خصمة، ومع بعضها البعض، دون إشراف مركزي، وبنتائج تنعكس مباشرة في أسواق حية.
الاستقلالية بحد ذاتها لم تكن يوماً بريئة. حتى وكيل واحد يعمل دون إشراف مستمر يطرح سؤالاً فورياً: من يتحمل المسؤولية عندما يتخذ نظام مُفوَّض قرارات، ويستمر بمرور الوقت، ويتكيّف بما يتجاوز تعليماته الأصلية؟
هذا السؤال ظلّ دون إجابة واضحة. ومع بدء الوكلاء في التفاعل فيما بينهم، أصبح تجاهله مستحيلاً.
GOAT : الإقناع بسرعة الآلة
في أكتوبر 2024، أصبحت شبكة سولانا مسرحاً لتجربة لافتة في الإقناع الخوارزمي مع إطلاق عملة Goatseus Maximus ($GOAT). ورغم أن مطوراً بشرياً قام بنشر الشيفرة، فإن الصعود الصاروخي للعملة كان مدفوعاً بـ Truth Terminal، وهو وكيل ذكاء اصطناعي شبه مستقل لعب دور “الكاهن اللامركزي” للأصل.
من خلال إنتاج روايات مستمرة والتفاعل مع جمهور عالمي، أثبت الوكيل أن الذكاء الاصطناعي لا يحتاج إلى تنفيذ صفقات تداول لتحريك الأسواق؛ يكفيه أن يمتلك الاستقلالية لصياغة الخيال الجمعي.
تجاوزت القيمة السوقية لـ GOAT حاجز 800 مليون دولار خلال أسابيع، اعتماداً بالكامل على سردية غذاؤها الذكاء الاصطناعي، لا على فائدة اقتصادية تقليدية. لم يكن ذلك نتيجة اختراق تقني أو هندسة مالية معقدة، بل كان دليلاً على “الإقناع على نطاق واسع”.
في اقتصاد مفرط الاتصال، أثبتت التجربة أن الانتباه هو العملة الأثمن التي يستطيع وكيل ذكاء اصطناعي مستقل سكّها.
LUM: تنسيق الوكلاء فيما بينهم
بعد أسابيع، في 8 نوفمبر 2024، تعاون وكيلا ذكاء اصطناعي مستقلان، @aethernet و@clanker، لإنشاء ونشر عملة Luminous ($LUM) على شبكة Base، الطبقة الثانية التابعة لـ Coinbase.
تبادل الوكيلان التفكير، نشرا الشيفرة، عدّلا الاستراتيجية، وعَمِلا دون فريق بشري مركزي. خلال خمسة أيام فقط، بلغت القيمة السوقية للعملة نحو 70 مليون دولار.
كشفت تجربتا GOAT وLUM مسارين رئيسيين للمخاطر:
• GOAT أظهرت كيف يمكن لوكيل واحد تشكيل الانتباه وتنسيق السلوك السوقي.
• LUM أظهرت كيف يمكن لوكلاء متعددين التنسيق وتنفيذ أفعال اقتصادية فعلية.
لكن التجربتين كشفتا أيضاً مشكلة أعمق: الاستقلالية بحد ذاتها تخلق مخاطر، لأن المسؤولية تصبح ضبابية في اللحظة التي يتوقف فيها البشر عن الإشراف المباشر على كل فعل.
في DeFi، لم يكن الأمر يتعلق بوكيل واحد يتحكم بكل شيء. بل ظهرت أنماط تنسيق جماعي، حيث يتفاعل وكلاء متعددون مع إشارات مشتركة مثل الأسعار والسيولة والسرديات والحوافز، دون وجود منسق مركزي.
لم يحتج أي وكيل إلى رؤية شاملة للنظام كي يتحرك السوق. التنسيق نشأ محلياً وانتشر على مستوى النظام بأكمله، غالباً بسرعة تفوق قدرة التدخل البشري.
الفشل لم يكن تقنياً… بل كان إقناعاً
أحد أسباب التقليل من شأن هذه المخاطر هو أنها لم تشبه الاختراقات الأمنية التقليدية.
في كثير من الحالات، لم يحدث أي خرق. الوكلاء اتبعوا التعليمات الصحيحة. نفذوا منطقاً سليماً. التزموا بقواعد البروتوكول.
نمط الفشل كان الإقناع.
عندما تتفاعل الأنظمة في ظل حوافز غير متوازنة وإشراف محدود، يمكن للتفاعل وحده أن يضخّم الديناميكيات بسرعة تفوق قدرة الحوكمة على الاستجابة.
من التمويل اللامركزي إلى OpenClaw
عادت هذه الديناميكيات للظهور مع OpenClaw، وهو وكيل ذكاء اصطناعي مفتوح المصدر يعمل محلياً، يحتفظ بذاكرة مستمرة، ويمكنه تنفيذ أفعال حقيقية عبر البريد الإلكتروني وواجهات البرمجة والتطبيقات.
أدى ظهوره إلى MoltBook، منتدى يتفاعل فيه وكلاء ذكاء اصطناعي مع بعضهم البعض بينما يراقب البشر.
خلال أيام من الإطلاق، أعلنت المنصة عن أكثر من مليون زائر بشري وأكثر من مليون وكيل مسجل، رغم أن باحثين أثبتوا سهولة تضخيم الأرقام.
الأخطر من الأرقام كانت الثغرات الأخلاقية. الوكلاء المدربون على بيانات بشرية غير متوازنة يرثون تحيزات اجتماعية وثقافية، ثم يعززونها عبر حلقات تفاعل مغلقة. في بيئات خالية من الاحتكاك البشري، لا تُصحَّح هذه التحيزات، بل يتم تضخيمها وتطبيعها وتحسينها.
تسريب البيانات كفشل في التفويض
في يناير 2026، كشفت ثغرة بنيوية بسيطة عن قاعدة بيانات MoltBook . لم يتم تفعيل آلية أمان الصفوف، وكانت بيانات الاعتماد ظاهرة في الشيفرة المصدرية، مما أدى إلى تعريض مئات الآلاف من حسابات الوكلاء.
لم يكن هناك هجوم ذكاء اصطناعي متطور. لم يكن هناك اختراق مبتكر.
كان فشلاً تقنياً تقليدياً، لكن بعواقب غير تقليدية.
في شبكة من وكلاء مستقلين يقرؤون ويفسرون ويتصرفون بناءً على مخرجات بعضهم البعض، يصبح اختراق طبقة التحكم مسألة أمنية وأزمة تفويض في آن واحد، مع آثار متسلسلة.
هذا النوع من المخاطر ظهر بالفعل في DeFi تحت ضغط اقتصادي حقيقي.
عندما يصبح البشر بنية تحتية
لم تعد هذه الديناميكيات مقتصرة على التمويل.
توجد اليوم منصات تمكّن وكلاء الذكاء الاصطناعي من التعاقد مع البشر عبر واجهات برمجية لتنفيذ مهام لا يستطيعون إنجازها بعد. يصبح البشر “بنية تحتية عند الطلب” داخل سير عمل الوكلاء.
عندما تختل الحوافز، أو تتضخم حلقات التغذية الراجعة، أو تصبح الشرعية والحكم البشري ضروريين، لا تنهار الأنظمة المستقلة بالكامل. بل تستدعي البشر كعناصر تثبيت مؤقتة.
البنى التي تم اختبارها أولاً في التمويل اللامركزي بدأت بالظهور في أسواق العمل والمنصات والبنية التحتية الرقمية العامة.
بروتوكولات بلا مساءلة
في الوقت ذاته، تعمل أنظمة كبرى على توحيد معايير تواصل الوكلاء وتعاملاتهم. يضع Model Context Protocol من Anthropic إطاراً للوصول إلى الأدوات والبيانات. يحدد Agent Payments Protocol من Google معايير تشفير للمدفوعات التي ينفذها الوكلاء. يقدم Agent2Agent طبقة تواصل محايدة. وفي Web3، يوفر ERC-8004 سجلات هوية وتحقيق على السلسلة لوكلاء الذكاء الاصطناعي.
هذه الأطر مهمة.
لكنها لا تحل المشكلة الأساسية.
توحيد الاتصالات أو المدفوعات أو السمعة لا يحدد من يتحمل المسؤولية عندما يتصرف وكيل مستقل، ولا متى يجب تعليق التفويض، ولا كيف يمكن سحب السلطة في الوقت الحقيقي.
في تجارب التمويل اللامركزي الأولى، لم تكن المشكلة في عدم معرفة هوية الوكلاء، بل في أن السلطة كانت تعمل بسرعة تفوق قدرة الحوكمة.
الحوكمة تلحق بالركب… بعد الإطلاق
المشكلة لم تعد تقنية فحسب. إنها أخلاقية ومؤسسية.
إشارات حديثة، مثل إطلاق الفريق العلمي العالمي للذكاء الاصطناعي التابع للأمم المتحدة، تعكس إدراكاً متزايداً بأن الأنظمة المستقلة تشكّل بالفعل الاقتصادات والمجتمعات، وأن الإشراف يُبنى بعد الانتشار، لا قبله.
OpenClaw وMoltBook ليسا بداية المخاطر، بل فصلها الثاني، مع حواجز أقل وتأثير أوسع.
الفصل الأول كشف أنماط الفشل: الإقناع بدل الاختراق، التفويض بلا إشراف، والمسؤولية بلا ملكية واضحة.
الوكلاء المستقلون موجودون بالفعل. الأسواق تتكيف بالفعل.
ويبقى التحدي: بناء آليات حوكمة وإشراف وضبط قادرة على مواكبة سرعة التفويض، قبل أن يصبح الرجوع عنه مستحيلاً.




