قتال الروبوتات: ممنوع لا يمكن السماح به

جدول المحتويات:

قتال الروبوتات: ممنوع لا يمكن السماح به
قتال الروبوتات: ممنوع لا يمكن السماح به

فيديو: قتال الروبوتات: ممنوع لا يمكن السماح به

فيديو: قتال الروبوتات: ممنوع لا يمكن السماح به
فيديو: Bosstown Dynamics: روبوت جديد يمكن أن يقاوم! 2024, يمكن
Anonim

التقى الخبراء في جنيف ، لكن لم يتم التوصل إلى اتفاق: منعت الولايات المتحدة وروسيا كل الأعمال. ربما تكون هذه هي المرة الوحيدة التي يعمل فيها المهيمنون بانسجام.

قتال الروبوتات: ممنوع لا يمكن السماح به
قتال الروبوتات: ممنوع لا يمكن السماح به

اختتمت اجتماعات الخبراء في شكل اتفاقية الأسلحة اللاإنسانية في جنيف لتقرير مصير ما يسمى الروبوتات القتالية - أسلحة مستقلة تستخدم الذكاء الاصطناعي لهزيمة الأهداف. ومع ذلك ، لا يمكن التوصل إلى أي اتفاقات. كانت الولايات المتحدة ، وروسيا ، وكوريا الجنوبية ، وإسرائيل ، وأستراليا من بين دول الأقلية التي نجحت في إعاقة الشعور نحو حظر كامل للروبوتات القاتلة.

لذلك ، على الرغم من عدم وجود سلاح مستقل يعمل حتى الآن في العالم ، تظل التكنولوجيا ، إذا جاز التعبير ، إنسانية - يمكن تطويرها والبحث فيها. ومن المثير للاهتمام أن الولايات المتحدة وروسيا ، وفقًا لمعهد ستوكهولم لأبحاث السلام (SIPRI) ، تتصدران قائمة أكبر مصدري الأسلحة. كما أن كوريا الجنوبية وإسرائيل وأستراليا لا تتأخر في هذا الترتيب - فهي من بين أفضل 20 لاعبًا في السوق.

وعلى الرغم من أن الصين (خامس دولة مصدرة للأسلحة في العالم ، وهي عضو دائم في مجلس الأمن التابع للأمم المتحدة تدعو إلى فرض حظر على الروبوتات القتالية ، إلا أنها لم تتمكن من تعديل الموازين في اتجاهها خلال الاجتماعات. واليوم ، تدعم 26 دولة بشكل علني حظر استخدام الذكاء الاصطناعي في الحرب. يخجل الآخرون من موقف واضح) عرضت فرنسا وألمانيا (المصدران الثالث والرابع للأسلحة) التوقيع على وثيقة من شأنها تعزيز أسبقية الإنسان على الذكاء الاصطناعي ، لكنهم على الأرجح إلى جانب أولئك الذين يرغبون في تطوير مركبات قتالية مستقلة.

وعلقت ماري فيرهم ، منسقة حملة وقف الروبوتات القاتلة ، حول نتائج اجتماعات جنيف: "من المخيب للآمال بالتأكيد أن تتمكن مجموعة صغيرة من العمالقة العسكريين من كبح إرادة الأغلبية".

في الواقع ، يبدو الوضع وكأنه مؤامرة من أباطرة احتكار مسلحين ، بالنظر إلى أن الولايات المتحدة وروسيا عادة لا يمكنهما التوصل إلى نوع من التسوية على الأقل بشأن القضايا المهمة. خذ الأمر السوري على سبيل المثال: واشنطن وموسكو منعت قرارات بعضهما البعض بعد استخدام الأسلحة الكيميائية في سوريا هذا الربيع. بالمناسبة ، كانت الغازات الخانقة وغيرها من المواد السامة للأغراض العسكرية محظورة في السابق بموجب اتفاقية الأسلحة اللاإنسانية.

سيعقد الاجتماع القادم حول مصير الروبوتات القاتلة في جنيف في نوفمبر.

لماذا يريدون حظر الأسلحة المستقلة

يصر أنصار حظر حرب الروبوتات على أن ساحة المعركة ليست مكانًا للذكاء الاصطناعي. في رأيهم ، تشكل هذه التقنيات تهديدًا كبيرًا. على الأقل ، ليس من الواضح اليوم كيف ستميز الآلة بين المقاتلين (أولئك الذين يشاركون بشكل مباشر في الأعمال العدائية) وغير المقاتلين (أفراد الخدمة العسكرية الذين لا يمكنهم استخدام الأسلحة إلا للدفاع عن النفس) والمدنيين بشكل عام. هناك احتمال أن يؤدي العمل إلى قتل الجرحى والمستسلمين ، وهو ما تحظره قواعد الحرب الحالية.

ما الذي يمنع العمل من مقاطعة جميع أطراف النزاع حتى أصحاب مثل هذه الأسلحة؟ تم بالفعل استخدام عناصر الذكاء الاصطناعي بنجاح في المعدات العسكرية والصواريخ ؛ تنجذب الروبوتات للاستطلاع ، لكن الكلمة الأخيرة لا تزال عند البشر. لن تمتثل الأسلحة المستقلة لأوامر القادة - وهذا هو السبب في أنها مستقلة. هذا هو السبب في أن جنرالات عسكريين من دول مختلفة يشككون في إدخال الآلات في صفوف الأفراد.

وهناك سؤال آخر مفتوح هو الإرهاب الدولي. يمكن أن تقع تقنية الأسلحة الذاتية في الأيدي الخطأ ، ويمكن اختراقها في النهاية. قبل عام ، قال الرئيس الروسي فلاديمير بوتين إن حاكم العالم هو الذي سيصبح قائدًا في تطوير الذكاء الاصطناعي.في حالة الأسلحة المستقلة ، سيصبح الشخص الذي يحصل على هذه التقنيات هو حاكم العالم. ولهذا ، في الواقع ، أنت فقط بحاجة إلى جهاز كمبيوتر ومراوغ يمر عبر أنظمة الأمان. بالمناسبة ، تم اختراق البنتاغون أكثر من مرة. وبالتالي ، لا يمكن لأحد أن يعطي ضمانات بأن الأسلحة المستقلة ستبقى مصونة.

كما أنه من غير الواضح من سيتحمل المسؤولية القانونية في حالة ارتكاب جريمة حرب نتيجة لعمل نظام الأسلحة المستقلة. المهندس أو المبرمج أو الصانع أو القائد الذي استخدم السلاح؟ إذا كان لا يمكن تعريف المسؤولية على النحو الذي يقتضيه القانون الدولي الإنساني ، فهل يمكن الاعتراف بنشر مثل هذه الأنظمة على أنه قانوني أو مبرر أخلاقياً؟

ومن المثير للاهتمام أن العلماء دافعوا أيضًا عن حظر الروبوتات القتالية. في يوليو من هذا العام ، وقع أكثر من ألفي عالم ، ولا سيما مبتكر Tesla و SpaceX Elon Musk والمؤسسين المشاركين لـ DeepMind ، وثيقة بأنهم لن يطوروا أسلحة فتاكة ذاتية التشغيل. فعلت جوجل الشيء نفسه. تخلى عملاق التكنولوجيا عن العمل في مشروع Maven التابع للبنتاغون. وفي عام 2017 ، دعا عدد من العلماء الأمم المتحدة بالفعل إلى حظر إنشاء الروبوتات القاتلة.

بالمناسبة ، ظهرت مسألة الذكاء الاصطناعي في الحرب على جدول أعمال الأمم المتحدة في نهاية عام 2013 ، لكن لم يتغير شيء عمليًا منذ ذلك الحين. في هذا العام فقط ، بدأت اجتماعات الخبراء في شكل اتفاقية الأسلحة اللاإنسانية. أي أن الأمر استغرق أكثر من أربع سنوات للوصول إلى مستوى عملي إلى حد ما أو أقل.

لماذا لا يريدون حظر الأسلحة المستقلة

بغض النظر عن مدى البذخ الذي قد يبدو عليه ، فإن سباق التسلح هو السبب الرئيسي لعدم رغبتهم في حظر الروبوتات القاتلة. بوتين محق: من سيحصل على أسلحة مستقلة أولاً سيسيطر على العالم. رسميا ، تم التعبير عن هذا السبب.

الحجة الرئيسية لمعارضي الحظر هي استحالة فصل الذكاء الاصطناعي المدني عن الجيش. مثل ، لن نحظر سكاكين المطبخ فقط لأن الإرهابيين يمكنهم استخدامها. في الواقع ، من المستحيل عملياً فصل التطوير المدني للذكاء الاصطناعي عن الجيش. لكننا الآن نتحدث عن حظر هذا السلاح ، الذي سيكون قادرًا على تحديد الأهداف ومهاجمتها بشكل مستقل. قد يكون هذا هو مشروع Maven ، الذي تعمل عليه وزارة الدفاع الأمريكية بالاشتراك مع Booz Allen Hamilton (رفضت Google العقد).

يريد مطورو Maven تعليم الطائرات بدون طيار لتحليل الصور ، لا سيما من الأقمار الصناعية - وربما - تحديد أهداف للهجوم. بدأ البنتاغون العمل على المشروع في أبريل 2017 ، وكان يأمل في الحصول على أول خوارزميات عاملة بحلول نهاية العام. ولكن من خلال نهج موظفي Google ، تأخر التطوير. اعتبارًا من شهر يونيو من هذا العام ، وفقًا لـ Gizmodo ، يمكن للنظام التمييز بين الكائنات الأولية - السيارات والأشخاص ، ولكن تبين أنه غير مهم تمامًا في المواقف الصعبة. إذا تم اعتماد الحظر المفروض على الأسلحة المستقلة على مستوى الأمم المتحدة ، فسيتعين إلغاء المشروع ، بينما يدعي البنتاغون أن تطويرها يمكن أن ينقذ الأرواح ، لأنه يمكن برمجتها للعمل بشكل أكثر دقة وموثوقية عند مقارنتها بالأشخاص.

"عليك أن تفهم أننا نتحدث عن التكنولوجيا ، وأنه ليس لديها عينات من شأنها أن تعمل. فكرة مثل هذه الأنظمة لا تزال سطحية للغاية ،" هذا ما أشار إليه عشية الاجتماع في جنيف في وزارة الخارجية الروسية. - في رأينا ، يمكن تطبيق القانون الدولي ، ولا سيما القطاع الإنساني ، على الأسلحة ذاتية التشغيل. إنهم لا يحتاجون إلى التحديث أو التكيف مع الأنظمة التي لم توجد بعد ".

حسنًا ، هناك سبب آخر حقيقي ، لكن لم يتم التعبير عنه ، هو المال. اليوم ، يقدر سوق تقنيات الذكاء الاصطناعي العسكرية بأكثر من ستة مليارات دولار. لكن بحلول عام 2025 ، سيتضاعف الرقم ثلاث مرات - إلى ما يقرب من 19 مليارًا ، وفقًا لمحللي شركة MarketsandMarkets الأمريكية.بالنسبة لأكبر مصدري الأسلحة ، يعد هذا دافعًا جيدًا لمنع أي قيود على تطوير الروبوتات القاتلة.

لا يمكن وقف التقدم

يشير مؤيدو حظر الأسلحة المستقلة إلى أن التكنولوجيا تتطور بسرعة كبيرة وأن الذكاء الاصطناعي سيصبح في النهاية سلاحًا - مسألة وقت. هناك منطق في كلامهم. يعد الذكاء الاصطناعي جزءًا لا يتجزأ من الثورة العلمية والتكنولوجية الرابعة ، والتي لا تزال مستمرة حتى الآن. يجب أن يؤخذ في الاعتبار أن التقدم التقني مرتبط بطريقة أو بأخرى بالعمليات العسكرية. استمرت الثورة العلمية والتكنولوجية الثالثة حتى منتصف الخمسينيات من القرن العشرين ، أي أن ذروتها سقطت في فترة الحرب العالمية الثانية.

في عام 1949 ، اعتمدت جنيف اتفاقية حماية الأشخاص المدنيين في وقت الحرب. في فترة ما بعد الحرب ، استكملوا أيضًا اتفاقية لاهاي الرابعة لعام 1907 ، التي حددت قواعد إدارة الحرب. أي أن أهوال الحرب العالمية الثانية أصبحت العامل المحفز لهذه العملية. لذلك ، لا يريد المدافعون عن حقوق الإنسان انتظار الحرب العالمية الثالثة لحماية البشرية من الأسلحة المستقلة. ولهذا يصرون على ضرورة تحديد مصير الروبوتات القاتلة الآن.

وفقًا لخبراء هيومن رايتس ووتش ، فإن استخدام الروبوتات القتالية يتعارض مع إعلان مارتنز - مقدمة اتفاقية لاهاي لعام 1899 لقوانين وأعراف الحرب. بمعنى آخر ، الروبوتات القاتلة تنتهك قوانين الإنسانية ومتطلبات الوعي العام (تم تأكيد الموقف في اتفاقية لاهاي الرابعة).

قالت بوني دوهرتي ، باحثة أولى في قسم الأسلحة في هيومن رايتس ووتش: "يجب أن نعمل معًا لفرض حظر وقائي على أنظمة الأسلحة هذه قبل أن تنتشر في جميع أنحاء العالم".

حسنًا ، لم ينجح حظر الروبوتات القاتلة هذه المرة. وكما كان متوقعا ، ستكون اجتماعات نوفمبر غير مثمرة أيضا. صحيح ، تتفق جميع الدول تقريبًا - لا يمكن السماح للتكنولوجيا بالتدفق عن طريق الجاذبية والروبوتات القتالية تحتاج إلى رافعة توقف. لكن لا يزال من غير الواضح ما إذا كان لدى البشرية الوقت لسحبها عند الحاجة.

موصى به: