مجتمع التحقق العربي هو منظمة بحثية غير ربحية معنية بدراسة الأخبار الزائفة والمعلومات المضللة باللغة العربية على الانترنت، وتقديم الحلول الرائدة والمبتكرة لرصدها

التعلم من المخاطر: رؤى من نموذج الحوكمة الصينية الشاملة للذكاء الاصطناعي

التعلم من المخاطر: رؤى من نموذج الحوكمة الصينية الشاملة للذكاء الاصطناعي

 

في أكتوبر 2022، أصدرَت إدارة الرئيس الأميركي جو بايدن حزمةً واسعةً من القيود على تصدير أشباه الموصلات المتقدمة ومعدات تصنيعها إلى الصين وإلى عدد من الكيانات المرتبطة بها. وبعد عام، جرى تحديث الحزمة وتوسيع نطاقها بشكل كبير. وردّت الحكومة الصينية بفرض حظر على تصدير التقنيات المستخدمة في استخراج وتكرير العناصر الأرضية النادرة اللازمة لتصنيع أشباه الموصلات المتقدمة، وبناء البنية التحتية للبيانات، والصناعات العسكرية المتطورة. لكن السجال الدائر بين الولايات المتحدة والصين حول الذكاء الاصطناعي تجاوز تبادل اللكمات بالقيود التصديرية على الرقائق والعناصر النادرة، ليمتد إلى التنافس على تنظيم الذكاء الاصطناعي.

في أعقاب تحديث قيود الرقائق عام 2023، أصدر بايدن أمراً تنفيذياً شاملاً يشكّل رؤية حكومية متكاملة لتوظيف إمكانات الذكاء الاصطناعي مع إدارة مخاطره. استندت السياسة إلى ثمانية مبادئ توجيهية شملت جعل الذكاء الاصطناعي آمناً وقابلاً للتحكم، وحماية الخصوصية والحقوق المدنية، وتعزيز الابتكار المسؤول والمنافسة والعدالة، وصون حقوق العمال والمستهلكين والمصلحة العامة. ودعا الأمر التنفيذي إلى تطوير آليات لإثبات مصدر المحتوى ووضع إشارات واضحة تنبه المستخدمين حال كان المحتوى مولداً بالذكاء الاصطناعي. وعلى مستوى السلامة، سعى القرار الأمريكي إلى خلق بيئة تنافسية في حقل الذكاء الاصطناعي من خلال دعم الابتكار والمطورين الصغار، وضمان المساواة في الوصول إلى الفرص، مع حماية العمال ومنع تراكم القوة في يد الشركات المسيطرة. كما وُجهت الحكومة الفيدرالية إلى قيادة جهود الدمج الآمن للذكاء الاصطناعي عبر بناء قدراتها الداخلية في هذا الحقل وتوظيف كوادر متمرسة، وضمان التزام استخدام الحكومة للذكاء الاصطناعي بمعايير السلامة والمساواة والحقوق المدنية نفسها.

مع ذلك، كانت الصين قد أخذت بزمام المبادرة بالفعل في هذا الصدد ولم تنتظر في مربع ردّ الفعل. فقبل أسابيع من إعلان بايدن إطاره السياسي، أعلن الرئيس الصيني شي جين بينغ المبادرة العالمية لحوكمة الذكاء الاصطناعي، التي قدّمت رؤية شاملة لكيف ينبغي على المجتمع الدولي أن يضع إطاراً لتنظيم الذكاء الاصطناعي جماعياً. وجوهر المبادرة هو الدعوة إلى تعاون عالمي أعمق لتعزيز تبادل المعلومات والتعاون التقني، وتطوير أطر ومعايير وقواعد مشتركة، بهدف جعل الذكاء الاصطناعي «آمناً وموثوقاً ومنضبطاً وعادلاً».

طرحت المبادرة سلسلة من الالتزامات الأساسية التي ينبغي أن توجه الحوكمة العالمية للذكاء الاصطناعي. أولها مركزية الإنسان في تطوير الذكاء الاصطناعي عبر تعزيز رفاه البشر، ودعم التنمية المستدامة، والمساهمة في مواجهة تحديات عالمية كالتغيّر المناخي وفقدان التنوع الحيوي. أما الالتزام الثاني فهو احترام السيادة الوطنية، إذ على الدول أن تلتزم بالقوانين المحلية عند تقديم منتجات أو خدمات الذكاء الاصطناعي في الخارج، وألا تستخدم تقنيات الذكاء الاصطناعي للتلاعب بالرأي العام أو نشر التضليل أو التدخل في الشؤون الداخلية للدول الأخرى أو أنظمتها الاجتماعية واستقرارها.

كما شكلت قيم الإنصاف والمساواة محوراً رئيسياً في الإطار الصيني. إذ ينبغي لجميع الدول، بصرف النظر عن حجمها أو قوتها الاقتصادية أو نظامها الاجتماعي، أن تتمتع بحقوق متساوية في تطوير واستخدام الذكاء الاصطناعي. واعترضت المبادرة على التحالفات التكنولوجية الحصرية والاصطفافات الأيديولوجية، والقيود على التصدير التي قد تعيق تنمية الدول الأخرى، في إشارة ضمنية إلى القيود الأمريكية والتحالفات الغربية الموجهة ضد الصين. ودعت أيضاً إلى مشاركة مفتوحة للمعرفة المرتبطة بالذكاء الاصطناعي وحماية سلسلة الإمداد العالمية من الاحتكار أو الإكراه.

دعت الوثيقة كذلك إلى مشاركة واسعة وقرارات قائمة على التوافق في حوكمة الذكاء الاصطناعي عالميا. وكان هذا نداء لرفع تمثيل الدول النامية، ودعم المناقشات التي تقودها الأمم المتحدة لإنشاء مؤسسة دولية لحوكمة الذكاء الاصطناعي تتولى تنسيق القضايا الرئيسية المرتبطة بالتطوير والأمن والتنظيم العالمي.

لاحقا، أصدرت اللجنة الوطنية الصينية لتقنية الأمن السيبراني (TC260) في سبتمبر 2024، إطار حوكمة سلامة الذكاء الاصطناعي، الذي قدم نموذجاً شاملاً لإدارة الذكاء الاصطناعي عبر جميع مراحل دورة حياته. وصيغ الإطار على هيئة معيار تنظيمي يضم المبادئ والأسس، وهيكل الحوكمة، وتصنيف المخاطر، والإجراءات التقنية، وآليات الحوكمة، وتوجيهات للمطوّرين، ومقدمي الخدمة، والمستخدمين.

بدأ الإطار بتأكيد مجموعة من المبادئ العليا؛ إذ تبّنى نهج «الذكاء الاصطناعي من أجل الخير»، مؤكدا ضرورة الموازنة بين التنمية والأمن، وشدّد على مفهوم الأمن المشترك والشامل والتعاوني والمستدام، مع اعتبار منع المخاطر والتخفيف منها نقطة الانطلاق والهدف النهائي للحوكمة. ورغم تشجيع الابتكار، دعا إلى الحذر، ولاسيما عندما يكون الأمن القومي أو المصلحة العامة أو الحقوق الفردية مهددة.

هيكل الإطار يوضح أن إدارة المخاطر هي الأساس الذي تستند إليه كل منظومة الحوكمة، ويبرز أربعة مكونات رئيسية:

١. تحديد مخاطر السلامة بناءً على خصائص التقنية وسيناريوهات التطبيق.

٢. تطوير تدابير تقنية تستهدف المخاطر عبر النماذج والخوارزميات والبيانات والبنية التحتية والخدمات.

٣. اعتماد تدابير حوكمة شاملة تشمل جميع أصحاب المصلحة: الباحثين ومقدّمي الخدمة والمستخدمين والهيئات التنظيمية والمنظمات الاجتماعية.

٤. تقديم إرشادات عملية لفئات مختلفة من المستخدمين لضمان تطوير ونشر مسؤول للذكاء الاصطناعي.

 

مخاطر الذكاء الاصطناعي

خصصت الوثيقة مساحة واسعة لتصنيف المخاطر بدقة، مقسّمة إياها إلى مخاطر كامنة في النماذج والبيانات والأنظمة، ومخاطر تظهر في التطبيقات عبر الفضاء السيبراني والعالم الواقعي والمجال المعرفي والمجال الأخلاقي:

أ. المخاطر المتأصلة

١. المخاطر المرتبطة بالنماذج:

- افتقاد هذه النماذج لإمكانية التفسير بسبب طبيعة عملها بوصفها "صندوقاً أسود" إذ تعتمد التعلم العميق من البيانات دون قواعد محددة يفرضها الإنسان.

- التحيّز والتمييز الناتجان عن استخدام بيانات ضعيفة الجودة أو غير ممثلة لمختلف المكونات الاجتماعية والبشرية بشكل عادل ومتوازن.

- الهشاشة وضعف المرونة عند استخدام نفس النماذج في بيئات متغيرة.

- التدخلات الخبيثة مثل سرقة النماذج أو الهندسة العكسية لمعلومات حساسة ينطوي عليها النموذج أو إدخال "أبواب خلفية" (معلومات أو خصائص تقحم في النموذج وتقود إلى انحرافات في أدائه).

- الهلوسة أو إنتاج مخرجات غير صحيحة.

٢. المخاطر المرتبطة بالبيانات:

- جمع البيانات بشكل غير قانوني أو دون موافقة أصحاب الحقوق القانونية فيها.

- المحتوى المنحاز أو "المسموم" الذي يؤدي إلى نشر مخرجات خاطئة.

- ضعف جودة الوسم الممنوح للأشياء في العالم الخارجي حتى تستوعبها الآله، بما قد ينتقص من دقتها أو قدرتها على التعميم، ويتسبب في إقحام انحيازات.

- تسرب البيانات بسبب ضعف المعالجة أو الهجمات الخبيثة.

٣. المخاطر المرتبطة بالأنظمة:

- العيوب والأبواب الخلفية الكامنة في واجهات البرمجة (اتصال نماذج الذكاء الاصطناعي بنماذج أو برامج أخرى أثناء عملية البرمجة) والأدوات البرمجية والمكتبات البرمجية والأطر التقنية المستخدمة أثناء عملية تطوير نموذج الذكاء الاصطناعي.

- هشاشة البنية التحتية الحاسوبية أمام الهجمات.

- المخاطر في سلاسل الإمداد، بما في ذلك الاعتماد على الرقائق والبرمجيات والبيانات المقيدة جيوسياسيا.

ب. مخاطر التطبيقات

١. مخاطر الفضاء السيبراني:

- نشر التضليل والمحتوى غير القانوني.

- تضليل المستخدمين بمحتوى مزيف بواسطة الذكاء الاصطناعي.

- تسهيل الهجمات الإلكترونية.

٢. مخاطر العالم الواقعي:

- القرارات الخاطئة في قطاعات حساسة مثل الطاقة والطب والمال.

- تمكين الأنشطة الإجرامية.

- تسهيل الحصول على معلومات حول تطوير أسلحة الدمار الشامل.

٣. المخاطر الثقافية:

- تعزيز فقاعات المعلومات ما يتسبب في تعميق الاستقطاب.

- التلاعب بالرأي العام والتدخل السياسي في الانتخابات والشئون الداخلية للبلدان.

- تصعيد الحروب الفكرية.

٤. المخاطر الأخلاقية:

- تفاقم التمييز عبر استخدام الذكاء الاصطناعي في أنظمة لتصنيف الناس على أسس عرقية أو طبقية.

- اضطرابات سوق العمل.

- مخاطر طويلة المدى تتعلق بإمكانية تطوير الذكاء الاصطناعي لأهداف مستقلة ووعي ذاتي وخروجه عن سيطرة البشر.

 

ضوابط الحوكمة والتوجيهات

للتخفيف من المخاطر المتأصلة والتطبيقية، يقترح الإطار مجموعة من الضوابط التقنية، ولا سيما يتصل بدور المطورين:

- فيما يخص مخاطر النماذج، ينبغي على المطورين تعزيز القابلية للتفسير والتنبؤ، واعتماد عمليات تطوير آمنة، والقضاء على الثغرات الأمنية والنزعات التمييزية، وتعزيز اختبارات المتانة.

- وفيما يتعلق بمخاطر البيانات، يجب على المطوّرين الالتزام بقواعد حماية المعلومات الشخصية، وأمن البيانات، وحقوق الملكية الفكرية، ونقل البيانات عبر الحدود؛ وضمان التنوع والمشروعية والدقة في بيانات التدريب؛ وتنقية المحتوى الحساس أو الضار.

- أما الإجراءات على مستوى الأنظمة، فتشمل الكشف عن قدرات النموذج ومخاطره، ووضع علامات على المخرجات لتأكيد أنها منتجة بواسطة الذكاء الاصطناعي، وتعزيز قدرات المنصات على رصد المخاطر، وضمان استمرارية تشغيل البنى التحتية الحاسوبية، وتتبع الثغرات عبر سلاسل التوريد.

- أما تدابير الحد من مخاطر التطبيقات، فتشمل حماية النماذج من التدخل، وضمان الامتثال عند التعامل مع البيانات الحساسة، وتقييد وظائف الذكاء الاصطناعي في السيناريوهات عالية الخطورة، وضمان قابلية التتبع في الاستخدام النهائي، ورصد المخرجات الضارة أو غير الدقيقة، وتطوير تقنيات لكشف المحتوى المُنشأ بواسطة الذكاء الاصطناعي.

- وتتطلب الضوابط الأخلاقية ترشيح بيانات التدريب والمخرجات لمنع التمييز، وتجهيز أنظمة الذكاء الاصطناعي في القطاعات الحيوية بقدرات إدارة الطوارئ.

 

إلى جانب الإجراءات التقنية المقترحة للمطوّرين، يحدد الإطار بنى حوكمة أوسع موجهة للمنظمين ومقدمي الخدمة وتشمل ما يلي:

- إدارة مُصنَّفة وهرمية للأنظمة الذكية وفق فئات ومستويات الخطورة.

- متطلبات خاصة لاختبار وترخيص الأنظمة التي تتجاوز حدوداً تشغيلية معينة.

- آليات للتتبع عبر الشهادات الرقمية ومعايير لوضع علامات على المحتوى لتحديد مصدره.

- تحسين لوائح أمن البيانات وحماية المعلومات الشخصية.

- بناء منظومة بحث وتطوير وتطبيق للذكاء الاصطناعي المسؤول بما ينسجم مع المعايير الأخلاقية.

- تدابير لتعزيز أمن سلاسل التوريد ودعم التعاون في المصادر المفتوحة.

- بحوث متقدمة حول قابلية التفسير وآليات تصحيح الأخطاء.

- تطوير أنظمة لتبادل المعلومات والاستجابة الطارئة لحوادث أمن الذكاء الاصطناعي.

- توسيع برامج إعداد الكفاءات المتخصصة في سلامة الذكاء الاصطناعي.

- تطوير آليات للتوعية بسلامة الذكاء الاصطناعي، والتنظيم الذاتي للصناعة، والرقابة المجتمعية.

- تعزيز التعاون الدولي عبر الأمم المتحدة، ومجموعة العشرين، ومجموعة دول البريكس، ومبادرات الحزام والطريق.

 

ويخلص الإطار إلى تحديد أربعة مخاطبين أساسيين بالإرشادات، كما يلي:

- المطوّرون: مدعوّون إلى اتباع المبادئ الأخلاقية، وتعزيز أمن البيانات وحماية حقوق الملكية الفكرية، وتأمين بيئات التدريب، وتقييم التحيزات، وإدارة نسخ المنتجات، وإجراء اختبارات شاملة، وإصدار تقارير تفصيلية.

- المزوّدون: يُطلب منهم اختبار  قدرات الأنظمة وحدودها، وإحاطة المستخدمين علماً بالمخاطر، ودعم اتخاذ القرار المستنير، ومراقبة المخاطر آنياَ، والإبلاغ عن الحوادث، وتطبيق القواعد التي تمنع إساءة الاستخدام.

- المستخدمون في القطاعات الحسّاسة: مدعوّون بدورهم إلى إجراء تقييمات للمخاطر، والمحافظة على الإشراف البشري، واستخدام وسائل تحقق آمنة، وضمان السرية وحماية البيانات.

- المستخدمون العامّون: ينبغي تشجيعهم على فهم حدود المنتجات، وحماية معلوماتهم الشخصية، وتجنب الكشف غير الضروري عنها، والانتباه إلى مخاطر الأمن السيبراني والإدمان.

 

الخاتمة

يظهر إطار الحوكمة الصيني بوضوح أن تنظيم الذكاء الاصطناعي بات أداةً استراتيجية في صندوق أدوات السياسة الخارجية لبكين. فمن خلال الترويج لبنية دولية قائمة على التوافق، والدفاع عن معايير مرتكزة على السيادة والمساواة والتعاون متعدد الأطراف، تسعى الصين إلى إعادة تشكيل بيئة صنع القواعد العالمية على نحو يحد من النفوذ الأميركي، ولاسيما استخدام واشنطن لقيود التصدير وضوابط سلاسل التوريد. وفي الوقت نفسه، تقدم الصين نفسها ممثلا لدول الجنوب العالمي، مقدمة رؤيتها للحوكمة كبديل للمقاربات الغربية التي تؤثر عليها الشركات الكبرى. 

ويعزز من هذا التموضع الاستراتيجي إدراك صيني وعالمي لتراجع الدور القيادي الأميركي في مجال تنظيم الذكاء الاصطناعي بسبب ممارسة المؤسسات الكبرى في قطاع التكنولوجيا نفوذاً مفرطاً على الإدارات الأمريكية، حيث تعطي الإدارات الأميركية الأولوية لتسريع الابتكار على حساب بناء ضوابط تنظيمية قوية. ونتيجة لذلك، نشأ فراغ في منظومة الحوكمة العالمية للذكاء الاصطناعي تسعى الصين على نحو متزايد، إلى ملئه عبر المعايير والأطر والمبادرات الدبلوماسية.

أما بالنسبة لدعاة حوكمة الذكاء الاصطناعي في الجنوب العالمي، فإن هذا المشهد يقدم فرصاً ومخاطر معاً. فالمقاربة الصينية القائمة على إدارة المخاطر، والشاملة لجميع مراحل دورة حياة التقنية، واليقظة تجاه الهشاشات المنهجية، تمنح دروساً قيمة يمكن أن تسهم في بناء تنظيم مسؤول في سياقات الدول النامية. غير أن الاستفادة من هذه الدروس ينبغي أن تتسم بالحس النقدي والاستقلال، لمنع تحول هؤلاء الفاعلين إلى أدوات في صراعات القوى الكبرى. فالمهمة الأساسية لدعاة حكومة الذكاء الاصطناعي، خاصة في دول الجنوب العالمي، هي استخلاص الجوانب التقنية القوية في هذا الإطار الصيني المقترح، مع تجنّب الانخراط في الاستقطابات الجيوسياسية، وتثبيت أولوياتنا الخاصة: التنمية العادلة، والسيادة الرقمية، وحماية مجتمعاتنا من أضرار التكنولوجيا الصاعدة واختلالاتها. ومن خلال الانخراط الانتقائي والاستراتيجي، يمكننا توظيف أفضل أفكار الحوكمة المتاحة مع الحفاظ على استقلالية القرار وتعزيز تنظيم عالمي أكثر شمولاً للذكاء الاصطناعي.