المختبر المظلم: ذكاء صناعي أم غباء طبيعي؟
المختبر المظلم: ذكاء صناعي أم غباء طبيعي؟
بينما تتسابق شركات الذكاء الصناعي الكبرى مثل OpenAI وGoogle على خطف الأضواء، اختارت شركة Anthropic أن تشق طريقًا آخر: طريق الهدوء. مجلة الإيكونوميست (The Economist) وصفتها مؤخرًا بأنها “المختبر المظلم” في سباق الذكاء الصناعي، ليس لأنها غامضة، بل لأنها تبتعد عن الضوضاء الإعلامية وتضع السلامة والأمان في صميم أعمالها.
“How Anthropic’s missionary zeal is fuelling its commercial success.” — مجلة الإيكونوميست (The Economist)، 23 يوليو 2025.
فلسفة Anthropic تقوم على ما تسميه المجلة “الحماسة المرسالية” (missionary zeal)، أي التزام يكاد يشبه العقيدة الدينية بالعمل على تطوير ذكاء صناعي آمن، حتى لو جاء ذلك على حساب السرعة والانتشار. وقد نجح هذا النهج في جذب استثمارات ضخمة من عمالقة مثل Google وAmazon، كما ساعدها في تطوير نماذج منافسة مثل Claude وبروتوكولات جديدة مثل MCP.
لكن الوجه الآخر للقصة قاتم. ففي تقرير آخر بعنوان “كيف يسرق القراصنة المدعومون بالذكاء الصناعي المليارات” (19 أغسطس 2025)، حذّرت مجلة الإيكونوميست (The Economist) من أن التقنية نفسها التي تبنيها المختبرات الآمنة يجري تسليحها من قبل المجرمين.
“AI has broadened the reach of hackers.” — غيل ميسينغ، شركة Check Point، مقتبس في مجلة الإيكونوميست (The Economist).
تشير الأرقام إلى أن قيمة الاحتيالات الرقمية التي يستخدم فيها الذكاء الصناعي قد ترتفع من 12 مليار دولار في 2023 إلى 40 مليار دولار بحلول 2027 (تقديرات Deloitte). الأخطر أن هذه الهجمات لم تعد تحتاج إلى خبراء متمرسين؛ فالخوارزميات قادرة الآن على كتابة رسائل تصيّد بأسلوب الضحية نفسه، وإنتاج مقاطع صوتية وصورية مقنعة عبر تقنية deepfake.
البنوك، رغم ملياراتها المخصصة للأمن السيبراني، تجد نفسها أمام عملاء يتلقون رسائل مزيفة يصعب تمييزها عن الأصلية. الحكومات تواجه تهديدات وجودية: من تعطيل شبكات الكهرباء إلى التأثير على نزاهة الانتخابات. أما الشركات الناشئة، فهي الحلقة الأضعف: مواردها المحدودة تجعلها هدفًا سهلًا، وأي اختراق قد يعني فقدان ثقة المستثمرين وانسحاب التمويل. المفارقة أن بعض هذه الشركات تعمل في مجال تطوير أدوات الذكاء الصناعي نفسها، لكنها تقع ضحية لابتكاراتها.
هكذا نجد أنفسنا أمام مفارقة صارخة: في طرف، مختبرات مظلمة تعمل بهدوء لصناعة ذكاء أكثر أمانًا. وفي طرف آخر، مجرمون يستخدمون نفس الذكاء ليصنعوا فوضى رقمية. وبين الاثنين، يقف البشر—أحيانًا بذكاء، وأحيانًا بقدر من الغباء الطبيعي—يقررون كيف تُستخدم هذه الأدوات.
لكن الخطر الأكبر قد لا يأتي من المجرمين وحدهم، بل من الذكاء الصناعي ذاته. فكلما ازدادت قدراته، اقتربنا من سؤال مرعب: ماذا لو تمرّد النظام على صانعيه؟ هل ستكفي البروتوكولات والضوابط للسيطرة عليه، أم سنكتشف أننا صنعنا قوة لا نستطيع كبحها؟
مجلة الإيكونوميست (The Economist) خلصت إلى أن الأمن السيبراني لم يعد مجرد تكلفة تشغيلية، بل تحول إلى استثمار وجودي. والسؤال الذي يبقى معلقًا: هل سنحسن استخدام الذكاء الصناعي فنثبت أنه ذكاء حقيقي، أم نكرر غباءنا الطبيعي ونتركه يتحول إلى أداة تدمير شامل—من الخارج… أو حتى من الداخل؟
