غير مصنف

باحثتان: نموذج الحوكمة النووية لا يصلح للذكاء الاصطناعي

يمن مونيتور/ (د ب أ)

مع تطور وانتشار تكنولوجيات الذكاء الاصطناعي على نطاق واسع، يتزايد القلق حول المخاطر التي تشكلها. وفي أيار/ مايو الماضي ذهب بعض كبار العاملين في هذا القطاع والعلماء إلى حد القول بأن الذكاء الاصطناعي يمثل تهديدا كبيرا للبشرية تماما مثل الحرب النووية.

وتقول ياسمين أفينا الباحثة بمبادرة المجتمع الرقمي بمعهد تشاتام هاوس والمعروف رسميا باسم المعهد الملكي للشؤون الدولية والدكتورة باتريشيا ليويس، مديرة برنامج الأمن الدولي بالمعهد إن المقارنة بين المجالين تكتسب زخما متزايدا واهتمام شخصيات مؤثرة من بينها سام التمان الرئيس التنفيذي لشركة أوبن إي آي، واقترح انطونيو غوتيريش أمين عام الأمم المتحدة تأسيس وكالة دولية مشابهة للوكالة الدولية للطاقة الذرية.

وتؤكد أفينا وليويس في تقرير نشره معهد تشاتام هاوس أن المجالين نوعان مختلفان من التكنولوجيا، وأن نموذج الحوكمة النووية لا يصلح على الإطلاق بالنسبة للذكاء الاصطناعي. فالوكالة الدولية للطاقة الذرية تأسست عام 1957 من أجل تعزيز الاستخدام السلمي للتكنولوجيا النووية بفضل الرئيس الأمريكي إيزنهاور، الذي اقترح إنشاء الوكالة في خطابه “الذرة من أجل السلام”، على أمل احتمال أن يؤدي انقسام الذرة إلى توحيد كل العالم المنقسم على نفسه.

 

ووفقا لقانونها الأساسي تعتبر الوكالة مكلفة بتعزيز الطاقة النووية من أجل السلام، والصحة والازدهار وضمان- بقدر الإمكان- عدم استخدامها بطرق تعزز الأغراض العسكرية. وتقوم الوكالة بعمليات تفتيش تتعلق بالضمانات في المنشآت النووية المدنية مثل محطات الطاقة النووية ومفاعلات الأبحاث لضمان عدم تحويل المواد النووية في الدول غير الحائزة على الأسلحة النووية إلى برامج عسكرية.

وحققت الوكالة نجاحا كبيرا في عملها، واكتشفت عدة حالات عدم التزام، وباستثناء حالة كوريا الشمالية، اسهمت إلى حد كبير في منع الانتشار وشمل ذلك إيران حتى الآن.

وتوضح الباحثتان أن الأسلحة النووية منذ تطويرها تمثل خطرا وجوديا يمكن قياسه. ويؤكد القصف النووي لهيروشيما ونغازاكي الطابع المدمر لهذه الأسلحة والذي لا يمكن احتوائه. وكان الخوف الشديد من الحرب النووية هو أحد الدوافع الرئيسية لتأسيس الوكالة الدولية للطاقة الذرية ومعاهدات الحد من التسلح مثل معاهدة منع الانتشار النووي.

وكان لهذه المخاوف ما يبررها. ففي أوج الحرب الباردة، يقال إنه كان لدى الولايات المتحدة والاتحاد السوفيتي ما يكفي من الأسلحة النووية “لتدمير البشرية كما نعرفها”. وفي الوقت الحالي تكشف التقديرات الحديثة أن عدد الأسلحة النووية المطلوبة للقضاء على الأحوال المناسبة للتعايش البشري يقل عن 100 سلاح.

 

ومن ثم فإن المخاطر التي يمثلها وجود الأسلحة النووية نفسه وخطر استخدامها تعتبر وجودية. والمخاطر الانسانية العميقة والتداعيات التي يمكن أن يسفر عنها استخدامها كان قوة دافعة لتبني معاهدة حظر الاسلحة النووية عام 2017. وفي الوقت الحالي لا توجد أي أدلة علمية قوية على أن هناك خطرا وجوديا وكارثيا يمثله الذكاء الاصطناعي. وكثير من المخاوف افتراضية، وتصرف الاهتمام العام عن المخاطر الاخلاقية والقانونية الملحة الناجمة عن الذكاء الاصطناعي وأضراره.

ولا يعني هذا القول إن مخاطر الذكاء الاصطناعي ليست موجودة: فهي موجودة بالفعل. وهناك قدر متزايد من الأدلة يؤكد الضرر الذي يمكن أن تمثله هذه التكنولوجيات، خاصة بالنسبة لأولئك الأكثر عرضة للخطر مثل الأقليات العرقية، وشعوب الدول النامية، وغيرهم من الفئات الأخرى العرضة للخطر.

فالاعتماد الأكثر من اللازم على الذكاء الاصطناعي، خاصة بالنسبة للبنية التحتية الوطنية المهمة، يمكن أن يكون مصدرا لقدر كبير من التعرض للخطر- ولكن ذلك لن يكون كارثيا للبشر.

ومع ذلك يتعين النظر في المخاوف المتعلقة بمخاطر الذكاء الاصطناعي الوجودية الأوسع نطاقا، بعناية وخطوة خطوة، مع جمع الأدلة وتحليلها. ولكن التحرك بسرعة أكثر من اللازم يمكن أن يسبب أيضا أضرارا.

 

وتوضح أفينا وليويس أن تقنيات الأسلحة النووية مختلفة تماما عن تقنيات الذكاء الاصطناعي. فالأسلحة النووية تحتاج لصنعها مواد خاصة لها بصماتها القابلة للقياس والتي يمكن اكتشاف أقل القليل منها أثناء عمليات التفتيش الروتينية. ويؤدي التحكم في وصولها إلى الحيلولة دون الحصول عليها من جانب الدول غير المسموح لها بذلك. وهذا أمر يختلف تماما عن الذكاء الاصطناعي، الذي يعتمد أساسا على البرامج وعلى الأغراض العامة.

وعلى الرغم من أن تطوير الذكاء الاصطناعي والتدريب عليه يمكن أن يتطلب استثمارات كبيرة وأجهزة حاسب آلي ضخمة ذات قدرات تشغيل هائلة، تعتبر تطبيقاته منتشرة على نطاق واسع وتهدف بصورة متزايدة للاستخدام الجماعي في كل قطاعات المجتمع. وعلى هذا الأساس يعتبر الذكاء الاصطناعي عكس الأسلحة النووية تماما.

والطابع غير الملموس للذكاء الاصطناعي يجعل من الصعب، إن لم يكن من المستحيل، احتوائه- خاصة مع زيادة الذكاء الاصطناعي مفتوح المصدر. ومن ثم فإن إجراءات الضمانات ووسائل التحقق المماثلة لتلك التي تستخدمها الوكالة الدولية للطاقة الذرية لن تصلح للذكاء الاصطناعي بسبب هذه الاختلافات الفنية الكامنة.

 

ويمكن القول إنه من الضروري أن تكون هناك أساليب للتعامل مع المخاطر المتعلقة بتطوير ونشر تكنولوجيات الذكاء الاصطناعي. ومن الممكن أن توفر نماذج الحوكمة البعيدة عن المجال النووي إلهاما أفضل.

 

 

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى