شركات الذكاء الاصطناعي الأميركية تتحالف لمواجهة استنساخ النماذج في الصين

بدأت شركات OpenAI وAnthropic PBC وGoogle التابعة لشركة Alphabet العمل معًا لمحاولة الحد من قيام منافسين صينيين باستخراج نتائج من نماذج الذكاء الاصطناعي الأميركية المتقدمة بهدف الحصول على ميزة في السباق العالمي. وبحسب ما نقلت بلومبيرغ اليوم الثلاثاء، يتم تبادل المعلومات من خلال “منتدى النماذج المتقدمة” (Frontier Model Forum)، وهي منظمة غير ربحية أسستها الشركات الثلاث بالتعاون مع Microsoft Corp. في عام 2023، للكشف عما يُعرف بمحاولات “التقطير العدائي” التي تنتهك شروط الاستخدام.
ويُعد هذا التعاون النادر مؤشرًا على حجم القلق الذي تواجهه شركات الذكاء الاصطناعي الأميركية من قيام بعض المستخدمين، خاصة في الصين، بإنشاء نسخ مقلدة من منتجاتها، ما قد يقلل من قيمتها السوقية ويجذب العملاء بعيدًا عنها، إلى جانب المخاطر المحتملة على الأمن القومي. وقدّر مسؤولون أميركيون أن عمليات التقطير غير المصرح بها تكلف شركات وادي السيليكون مليارات الدولارات سنويًا.
وأكدت OpenAI مشاركتها في جهود تبادل المعلومات حول التقطير العدائي عبر المنتدى، وأشارت إلى مذكرة أرسلتها إلى الكونغرس تتهم فيها شركة DeepSeek الصينية بمحاولة “الاستفادة المجانية من القدرات التي طورتها OpenAI ومختبرات أميركية أخرى”. فيما امتنعت Google وAnthropic والمنتدى عن التعليق.
ويُعرّف التقطير بأنه استخدام نموذج ذكاء اصطناعي قديم لتدريب نموذج أحدث، يقوم بمحاكاة قدرات النموذج السابق، وغالبًا بتكلفة أقل بكثير من تطوير نموذج جديد من الصفر. بعض أشكال التقطير مقبولة ومشجعة داخل المختبرات نفسها، مثل إنشاء نسخ أصغر وأكثر كفاءة من النماذج الخاصة بها أو السماح لمطورين خارجيين باستخدام التقطير لتطبيقات غير تنافسية.
لكن استخدام التقطير من قبل أطراف ثالثة، خاصة في دول مثل الصين أو روسيا، لإعادة إنتاج أعمال محمية دون إذن، يثير جدلًا واسعًا. وقد حذرت المختبرات الأميركية من أن الدول المنافسة قد تستخدم هذه التقنية لتطوير نماذج ذكاء اصطناعي خالية من ضوابط الأمان، مثل القيود التي تمنع المستخدمين من إنشاء مسببات أمراض قاتلة.
وتعتمد معظم النماذج الصينية على مفهوم “الأوزان المفتوحة”، أي أن أجزاء من النظام الأساسي متاحة للجمهور ليتمكن المستخدمون من تنزيلها وتشغيلها على منصاتهم، ما يقلل التكاليف ويزيد المنافسة الاقتصادية، مقارنة بالنماذج الأميركية المغلقة التي تعتمد على استثمارات ضخمة في البنية التحتية بمئات المليارات من الدولارات.
ولفتت بلومبيرغ إلى أن قضية التقطير حظيت باهتمام كبير في كانون الثاني/يناير 2025 بعد إطلاق DeepSeek لنموذج R1 المفاجئ، الذي أحدث صدمة في أسواق الذكاء الاصطناعي. لاحقًا، تحقق كل من Microsoft وOpenAI فيما إذا كانت الشركة الصينية قد استخرجت بيانات من نماذج أميركية لإنشاء R1.
وفي شباط/فبراير، حذرت OpenAI المشرعين الأميركيين من استمرار DeepSeek في استخدام أساليب متطورة لاستخراج النتائج من النماذج الأميركية، وأكدت في مذكرة إلى لجنة الصين بمجلس النواب أن الشركة الصينية تعتمد على التقطير لتطوير نسخة جديدة من برنامج الدردشة المتقدم الخاص بها.
ويشبه تبادل المعلومات بين شركات الذكاء الاصطناعي ما هو معمول به في قطاع الأمن السيبراني، حيث تتبادل الشركات بيانات حول الهجمات وأساليب الخصوم لتعزيز الدفاعات. وتسعى الشركات الأميركية من خلال التعاون إلى الكشف عن محاولات التقطير العدائي، وتحديد المسؤولين عنها، ومنع المستخدمين غير المصرح لهم من الاستفادة منها. وأشارت إدارة ترامب إلى دعمها لتشجيع تبادل المعلومات بين شركات الذكاء الاصطناعي للحد من التقطير العدائي، حيث دعا “خطة العمل للذكاء الاصطناعي” التي كشف عنها الرئيس ترامب العام الماضي إلى إنشاء مركز لتبادل المعلومات والتحليل لهذا الغرض.
ورغم ذلك، لا يزال تبادل المعلومات محدودًا بسبب عدم وضوح القوانين المتعلقة بمكافحة الممارسات الاحتكارية أمام التهديد التنافسي من الصين، وفقًا لمصادر مطلعة، حيث تحتاج الشركات إلى مزيد من التوجيه من الحكومة الأميركية.
وقد ظل التقطير مصدر قلق رئيسيًا منذ أن أطلقت DeepSeek نموذج R1 في أوائل 2025، مع استمرار انتشار النماذج مفتوحة المصدر القوية في الصين. في العام الماضي، منعت Anthropic الشركات ذات السيطرة الصينية من استخدام نموذج Claude، وحددت في شباط ثلاث مختبرات صينية — DeepSeek وMoonshot وMiniMax — كجهات استخرجت القدرات بطريقة غير قانونية. وقالت Anthropic هذا العام إن التهديد “يتجاوز أي شركة أو منطقة محددة” ويشكل خطرًا على الأمن القومي، لأن النماذج المقطرة غالبًا ما تفتقر لضوابط الأمان المصممة لمنع الاستخدامات الضارة.
وأصدرت Google تدوينة أشارت فيها إلى زيادة محاولات استنساخ النماذج. ولم تقدم المختبرات الأميركية الثلاث بعد أدلة رقمية حول مدى اعتماد الابتكارات الصينية على التقطير، لكنها أشارت إلى أن حجم الهجمات يمكن قياسه من خلال كميات طلبات البيانات الكبيرة.



