مخاطر سيطرة الذكاء الاصطناعي على الأسلحة النووية: منظور قانوني وإنساني
بقلم أ/د. أيمن سلامة
أستاذ القانون الدولي العام،
جَلبت الثورة التكنولوجية في الذكاء الاصطناعي (AI) تغييرات جذرية في العديد من المجالات، من الرعاية الصحية إلى الدفاع. ومع ذلك، فإن واحدة من أكثر الإمكانيات إثارة للقلق هي احتمال السيطرة على الأسلحة النووية من قبل أنظمة الذكاء الاصطناعي. ومع استمرار تطور التكنولوجيا في الذكاء الاصطناعي بوتيرة متسارعة، يبرز الخطر من أن يتم تفويض الأنظمة الآلية باتخاذ قرارات حاسمة بشأن الأسلحة النووية، وهو ما يثير مخاوف كبيرة بشأن الأمن الدولي، وقانون حقوق الإنسان، واستقرار العالم بشكل عام.
تهدف هذه المقالة إلى دراسة التداعيات المحتملة للسيطرة على الأسلحة النووية من قبل الذكاء الاصطناعي من منظور القانون الدولي، مع التركيز على المخاطر التي تنجم عن الأتمتة في الردع النووي وضرورة وجود تنظيم دولي.
دور الذكاء الاصطناعي في اتخاذ القرارات النووية
يتم دمج الذكاء الاصطناعي بشكل متزايد في أنظمة الدفاع على مستوى العالم، مع إمكانياته لتحسين سرعة وفاعلية دقة اتخاذ القرارات، ولكن تكمن المخاطر عندما يتم تكليف الذكاء الاصطناعي بالتحكم في أسلحة الدمار الشامل، وخاصة الأسلحة النووية. يمكن لنظام الذكاء الاصطناعي التحكم اتخاذ قرارات باستخدام قوة نووية بناءً على خوارزميات مبرمجة مسبقًا أو تحليل قائم على البيانات، بعيدًا عن التحكم البشري والاعتبارات الأخلاقية الضرورية في مثل هذه الحالات الحساسة.
قد يبدو الوقت السريع الذي يستغرقه الذكاء الاصطناعي في اتخاذ القرارات وتحليل كميات ضخمة من البيانات ميزة، خاصة في أوقات الأزمات التي تتطلب اتخاذ قرارات عاجلة، ولكن في الوقت نفسه، يمكن أن يؤدي هذا إلى حدوث أخطاء فادحة، خاصة إذا كان الذكاء الاصطناعي غير قادر على تفسير السياق بشكل صحيح، مثل حالة إنذار كاذب أو هجوم إلكتروني يهدف إلى التلاعب بالنظام، وفي لحظة من سوء الفهم، قد يتم إطلاق استجابة نووية، مما يؤدي إلى تدمير ملايين الأرواح والضرر البيئي الذي لا يمكن إصلاحه.
التداعيات القانونية بموجب القانون الدولي
وفقًا للقانون الدولي الإنساني (IHL)، وخاصة القوانين التي تحكم النزاعات المسلحة واستخدام القوة، فإن استخدام الأسلحة النووية مثير للجدل بالفعل ،وتنتهك الأسلحة النووية العديد من المبادئ الأساسية للقانون الدولي الإنساني، بما في ذلك مبدأ التناسب والتمييز والضرورة العسكرية و التحوط ؛ فيحظر تدليلا ، مبدأ التناسب الهجمات التي تتسبب في ضرر مفرط للمدنيين أو الممتلكات المدنية بالنسبة إلى المكسب العسكري المتوقع.
بالإضافة إلى ذلك، يحظر القانون الدولي الإنساني استخدام الأسلحة التي تسبب معاناة غير ضرورية ،ومن الواضح أن الأسلحة النووية، مع آثارها الطويلة الأمد على الصحة البشرية والبيئة، تقع ضمن هذه الفئة، وإذا كانت أنظمة الذكاء الاصطناعي هي من تتحكم في هذه الأسلحة، فإن غياب الإشراف البشري قد يزيد من هذه الانتهاكات القانونية من خلال إزالة المسؤولية الأخلاقية عن صناع القرار، مما يؤدي إلى زوال المحاسبة تمامًا التي توفر الردع و حفظ السلم والأمن الدوليين في حالات كثيرة .
علاوة على ذلك، يحظر ميثاق الأمم المتحدة استخدام القوة و التهديد باستخدامها ، إلا في حالات الدفاع عن النفس أو عند التفويض من قبل مجلس الأمن، وهنا قد يؤدي تفويض مثل هذه القرارات الحيوية إلى الأنظمة الآلية إلى تقويض سيادة الدول وقدرتها على تنظيم سياساتها الأمنية بشكل فعال.
التداعيات الإنسانية الكارثية
قد تكون العواقب المحتملة للسيطرة على الأسلحة النووية من قبل أنظمة الذكاء الاصطناعي كارثية. في عالم يتم فيه الحفاظ على الردع النووي لمنع الحروب الكبرى، يمكن للذكاء الاصطناعي أن يخطئ في تفسير التهديد أو يثير تصعيدًا غير ضروري. فبمجرد إطلاق الأسلحة النووية، يصبح من المستحيل التراجع عنها. ستكون الدمار الناتج ليس فقط في المناطق المتضررة مباشرة ولكن أيضًا يشمل أجيالًا قادمة من خلال التعرض للإشعاع، والدمار البيئي، والانهيار الاقتصادي.
من الأمور الحاسمة التي يجب أخذها في الاعتبار هي مخاطر تعرض أنظمة الذكاء الاصطناعي لتهديدات إلكترونية. قد تتعرض هذه الأنظمة للاختراق أو التلاعب أو حدوث خلل يؤدي إلى نتائج كارثية. قد يستغل طرف معادٍ أو مجموعة متطرفة أنظمة الذكاء الاصطناعي التي تتحكم في الأسلحة النووية، مما يؤدي إلى كارثة عالمية. في مثل هذا السيناريو، سيكون الخطر على السلام والأمن الدوليين أكبر من أي فائدة قد تتحقق من استخدام الذكاء الاصطناعي في اتخاذ القرارات بشأن الأسلحة النووية.
علاوة على ذلك، سيكون التأثير الإنساني حتى في حالة حدوث تبادل نووي محدود مدمرًا ،قد تُفقد عشرات الملايين من الأرواح على الفور، بينما يعاني الملايين الآخرين من آثار الإشعاع طويلة المدى، والتشريد، وانهيار الهياكل الاجتماعية ، ستكون الآثار المترتبة على الأمن الغذائي العالمي، والأنظمة الصحية، واستدامة البيئة خطيرة، مما يؤثر على الدول المتورطة بشكل مباشر وأيضًا على العالم بأسره، ومن المؤكد أن حادثي هيروشيما و نجازاكي ما برحا يدقان أشد ناقوس خطر منذ عام 1945 .
الحاجة إلى معاهدة دولية جديدة
نظرًا للخطر الكبير الذي يهدده سيطرة الذكاء الاصطناعي على الأسلحة النووية، هناك حاجة ملحة لمعاهدة دولية جديدة لتنظيم هذه التكنولوجيا. يجب أن تهدف هذه المعاهدة إلى معالجة المخاطر المحددة التي يشكلها الذكاء الاصطناعي في سياق الأنظمة النووية، وكذلك التداعيات الأوسع على الأمن الدولي، و يجب على الأمم المتحدة ، بما ما تذخر به من خبرات وكفاءات في هذا الصدد ، أن تتولى زمام المبادرة في وضع إطار شامل لتنظيم استخدام الذكاء الاصطناعي في الأنظمة العسكرية، لا سيما الأسلحة النووية.
يجب أن تنص المعاهدة على قواعد صارمة بشأن استقلالية أنظمة الذكاء الاصطناعي، خاصة في الحالات التي تكون فيها الأرواح البشرية على المحك. يجب أن تحظر المعاهدة التفويض الكامل للتحكم في الأسلحة النووية لأنظمة الذكاء الاصطناعي، مع التأكد من أن الإشراف البشري يظل جزءًا أساسيًا في جميع عمليات اتخاذ القرارات المتعلقة باستخدام القوة النووية. علاوة على ذلك، و يجب أن تتضمن المعاهدة أحكامًا للرصد الدولي والتحقق لضمان الامتثال لهذه اللوائح، بالإضافة إلى آليات للمحاسبة في حالات حدوث خلل في أنظمة الذكاء الاصطناعي أو استغلالها بشكل خبيث.
علاوة على ذلك، يجب أن تركز المعاهدة أيضًا على أهمية نزع السلاح وتقليل مخزون الأسلحة النووية ، ويمكن أن يلعب الذكاء الاصطناعي دورًا في تعزيز التحقق من اتفاقيات نزع السلاح النووي وضمان التزام الدول بها. ومع ذلك، يجب أن يتم تطوير هذه الأنظمة وفقًا لإطار قانوني وأخلاقي قوي لمنع استخدامها بشكل ضار.
خاتمة
إن السيطرة على الأسلحة النووية من قبل أنظمة الذكاء الاصطناعي تشكل تهديدًا غير مسبوق للبشرية. إن تفويض هذه المسؤوليات الحاسمة إلى الآلات يقوض المساءلة، ويزيد من مخاطر الأخطاء الحاسمة، ويهدد أسس الأمن الدولي. إن العواقب الإنسانية لاستخدام الأسلحة النووية التي يتحكم فيها الذكاء الاصطناعي كارثية، مع إمكانية تدمير ملايين الأرواح وزعزعة استقرار النظام العالمي.
لمنع هذا التهديد الوجودي، من الضروري أن تتخذ المجتمع الدولي إجراءات عاجلة وحاسمة. إن وجود معاهدة جديدة، تحت إشراف الأمم المتحدة، أمر بالغ الأهمية لتنظيم استخدام الذكاء الاصطناعي في السياقات العسكرية، خاصة فيما يتعلق بالأسلحة النووية. يجب أن تضمن هذه المعاهدة أن يظل الإشراف البشري جزءًا أساسيًا في اتخاذ القرارات المتعلقة بالقوة النووية، وأن تضع ضوابط صارمة ضد التلاعب أو الخلل، وتعزز نزع السلاح لضمان عالم أكثر أمانًا للأجيال القادمة.
المراجع
United Nations. (2023). Treaty on the Non-Proliferation of Nuclear Weapons (NPT): Review Conference. United Nations Publications.
International Committee of the Red Cross (ICRC). (2023). Customary International