Contact Us
Ektisadi.com
تكنولوجيا

جدل حول اختبار أسلحة الذكاء الاصطناعي يكشف الحاجة إلى رقابة مستقلة أقوى على تطوير النماذج

8 مايو 2026 | 05:25 ص
تطوير أسلحة الذكاء الاصطناعي_صورة مولدة عبر الذكاء الاصطناعي

وافقت شركات مايكروسوفت (Microsoft Corp) وألفابت (Alphabet Inc) وشركة xAI التابعة لإيلون ماسك على منح مسؤولين أميركيين وصولاً مبكراً إلى نماذج ذكاء اصطناعي جديدة بهدف اختبارها لأغراض الأمن القومي، في خطوة تعكس تصاعد الجهود الحكومية لمراقبة التطور السريع لهذه التكنولوجيا.

وذكرت بلومبيرغ أن هذا التوجه يأتي في وقت يواجه فيه النهج الأميركي لتنظيم الذكاء الاصطناعي انتقادات متزايدة، إذ تدرس إدارة البيت الأبيض إصدار أمر تنفيذي ينشئ مجموعة عمل تضم مسؤولين تنفيذيين من شركات التكنولوجيا للمساهمة في تصميم إطار الرقابة على القطاع.

في المقابل، يُنظر إلى معهد سلامة الذكاء الاصطناعي في لندن (AI Security Institute – AISI) على أنه جهة أكثر تمويلاً واستقلالية نسبياً، إذ يمتلك ميزانية سنوية تقارب 65 مليون دولار، مدعومة بوقف مالي لمدة خمس سنوات بقيمة 240 مليون جنيه إسترليني (325 مليون دولار) قدمته الحكومة البريطانية في العام 2025، ما جعله أحد أبرز الجهات العالمية في تقييم سلامة الذكاء الاصطناعي.

وفي خضم السباق العالمي لنشر تقنيات الذكاء الاصطناعي، بدأت بعض شركات التكنولوجيا بفرض قيود ذاتية على تطويرها، حيث وافقت مايكروسوفت وألفابت وxAI على منح السلطات الأميركية وصولاً مبكراً إلى نماذجها الجديدة لاختبارها أمنياً، فيما تتجه إدارة البيت الأبيض إلى التخلي عن نهج التنظيم المحدود والبحث في وضع معايير رسمية للقطاع.

وبحسب تحليل بلومبيرغ، فإن أبرز ما يفتقده قطاع الذكاء الاصطناعي حالياً هو الرقابة الحكومية الفعالة، إلا أن الولايات المتحدة ليست في الموقع الأفضل لقيادتها، مقارنة ببريطانيا التي تبدو أكثر جاهزية لهذا الدور.

ورغم أن شركات التكنولوجيا الكبرى تتمركز في الولايات المتحدة وبدعم من وادي السيليكون، إلا أن فعالية التنظيم تتطلب استقلالية وتمويلاً كافياً، وهما عنصران يواجه النظام الأميركي فيهما ضعفاً نسبياً.

وتدرس الإدارة الأميركية إنشاء مجموعة عمل تضم ممثلين عن شركات التكنولوجيا للمشاركة في صياغة إطار الرقابة، وهو ما يثير مخاوف من أن تكون الشركات نفسها جزءاً من صياغة القواعد التي ستنظم عملها.

كما أُثيرت مخاوف من استخدام اختبارات السلامة كأداة للتأثير على سياسات الذكاء الاصطناعي، في ظل توجهات سابقة لفرض “حيادية أيديولوجية” على أدوات الذكاء الاصطناعي المستخدمة حكومياً.

أما الهيئة الأميركية المعنية باختبار الذكاء الاصطناعي، وهي مركز معايير وابتكار الذكاء الاصطناعي (CAISI)، فتواجه انتقادات تتعلق بضعف التمويل، إذ لا يتجاوز ميزانيتها 10 ملايين دولار، إضافة إلى تحديات تشغيلية شملت تسريحات وظروف عمل غير مستقرة، بحسب ما نقلته بلومبيرغ.

في المقابل، عزز معهد AISI في لندن مكانته كمرجع عالمي مستقل لتقييم سلامة الذكاء الاصطناعي، إذ أُسس في العام 2023 خلال قمة سلامة الذكاء الاصطناعي في بليتشلي بارك، ويقع مقره في قصر وايتهول التاريخي في لندن، ويضم نحو 200 موظف.

وقد استقطب المعهد خبرات من شركات رائدة في المجال، حيث انضم عدد من الباحثين بعد انتقالهم من شركات مثل OpenAI وAnthropic PBC وGoogle DeepMind، رغم أن بعضهم عاد لاحقاً إلى القطاع الخاص، في ظل استمرار التنقل بين الطرفين.

ويعتمد المعهد على تعاون طوعي من شركات مثل OpenAI وألفابت للحصول على نماذج الذكاء الاصطناعي واختبارها، بما في ذلك تقييمات تتعلق بالمخاطر المحتملة.

ومن الأمثلة التي أوردتها بلومبيرغ نموذج Mythos الذي طورته شركة Anthropic PBC، والذي اعتُبر في اختبارات AISI قادراً على الاستخدام كسلاح في مجال الأمن السيبراني، رغم أن المخاطر الأكبر تتركز في الأنظمة ذات الحماية الضعيفة.

وبحسب التحليل، ورغم أن المعهد البريطاني أصبح جهة مرجعية عالمية في تقييم سلامة الذكاء الاصطناعي، إلا أن تأثيره قد يتراجع إذا بدأت الشركات بالاعتماد أكثر على الجهات التنظيمية الأميركية لاعتماد نماذجها.

ويشير التقرير إلى أن تعزيز دور AISI قد لا يحتاج إلى تشريع كبير، بل إلى تطور تدريجي شبيه بما حدث مع الوكالة الدولية للطاقة الذرية، التي اكتسبت دورها العالمي عبر اتفاقات طوعية ودعم دولي تدريجي.

ويخلص تحليل بلومبيرغ إلى أن تنظيم الذكاء الاصطناعي قد يتبلور قبل وقوع أزمة كبرى، مع بروز معهد لندن كجهة مرجعية عالمية محتملة في هذا المجال.