على الحدود المنزوعة السلاح (اسمياً) بين الكوريّتين، نصبت كوريا الجنوبية روبوتاً حربياً أنتجته «سامسونغ» عام 2006 ليكون قادراً على تتبّع أي هدف على بعد كيلومترات، ومن ثم دعوته إلى الاستسلام برفع الأيدي أو إلى معرفة كلمة السرّ، فإذا لم يفعل، أطلق هذا الروبوت النار عليه أوتوماتيكياً.
مع مرور الوقت، زادت المخاوف من ضمور العامل البشري في هذه التكنولوجيات، وخصوصاً ما يندرج تحت مسمّى «الروبوتات المستقلة القاتلة» (Lethal Autonomous Robots)، وهي أسلحة لا تحتاج إلى تحكّم أو إشراف الأشخاص، وتقرّر أن تقتل الشخص الذي تختاره، في الوقت الذي تحدّده بناءً على الأسباب التي بُرمجت عليها. هذا التعريف يتفق عليه معارضو هذه الروبوتات من جهة ومن يهتم بتصنيعها من جهة أخرى؛ فقد أصدرت وزارة الدفاع الأميركية عام 2012 تعليمات عن السياسات والأهداف المرجوة من هذه الأسلحة، وأوردت أهدافاً تتطابق مع ما ذكر أعلاه. وهي تعمل حثيثاً على الوصول إلى تلك المرحلة، عبر وكالة الأبحاث «داربا» (DARPA) التابعة لها، والتي تموّل سنوياً مشاريع ومسابقات بحثية تحاول تطوير قدرة الروبوتات مثلاً على تجاوز العوائق والجُدر أو على الإجلاء في حال الكوارث. وهو ما يرى العديد من الخبراء أنه سيصبّ في النهاية في خانة أهداف الوكالة، أي تطوير التكنولوجيا العسكرية، وإن بدأ تحت مسمّيات أخرى.

متى يضغط على الزناد؟

تطرح هذه التكنولوجيا أسئلة كثيرة عن إمكانية تلقين الروبوت ما يمكّنه على التعامل بحكمة مع مختلف الظروف. في الحالة الكورية، نحن أمام منطقة بلا مدنيّين. لكن في منطقة أخرى قد يوضع فيها سلاح كهذا، ما هو تعريف المدني؟ وماذا عن العسكري الذي يستسلم؟ هل يجب أن يتعلم الأخير كيفية الاستسلام لسلاح العدو قبل خوض الحرب؟ وفي أي خانة يمكن وضع صائدي حيوانات أو طيور يحملون أسلحة؟
أجوبة هذه الأسئلة غير محسومة بعد، والحلول كلها تنطوي على مفاضلة بين قدرة الروبوت على قتل العدو الحقيقي، وإمكانية تجنّب قتل المدنيّين. فعلى سبيل المثال، بالإمكان الاستفادة من غياب عامل الخوف عند الروبوت وبرمجته للاقتراب من الهدف إلى حد أقصى للتأكد من طبيعته قبل اتخاذ القرار، ولكن ذلك يزيد من إمكانية تدمير الروبوت نفسه. من جهة أخرى، لدى بعض الجيوش قاعدة تتطلّب أن يتناسب حجم الضرر المحتمل على المدنيّين مع حجم الهدف العسكري، فكيف يُترك تحديد ذلك لروبوت؟


من يتحمّل المسؤولية؟

أمام أعداد الأبرياء التي قد يحصدها خطأ في التقدير من الروبوت، تُطرح إشكالية أخرى عن صاحب المسؤولية في هذه الحالة، إذ لا يُمكن معاقبة الروبوت نفسه! فهل المسؤول هو المبرمج أم المصنّع أم الباحث أم من أعطى القرار بكلّ هذا؟ وهل يتحمّل المسؤولية الجيش الذي يستخدم هذه الأسلحة أم الجيش الذي صنّعها؟ وماذا يحصل إن كان المصنّع هو نفسه المتضرّر؟
كل الإشكاليات أعلاه عن المحاذير والمسؤوليات الناتجة من تطوير هذه التكنولوجيات أسست لحركات عالمية كالحملة لإيقاف الروبوتات القاتلة (Campaign to Stop Killer Robots)، واللجنة الدولية للحدّ من الأسلحة الروبوتية (International Committee for Robot Arms Control (ICRAC).
وترغب جمعيات حقوق الإنسان المُنضوية تحت راية «الحملة الدولية ضد الروبوتات القاتلة»، التي أُطلقت في 28 أيار 2013، في التوصل إلى فرض حظر شامل على تطوير هذا النوع من الأسلحة وصناعته وتسويقه واستخدامه.
وتتسابق هذه الجهود التي تحاول فتح النقاش حول الموضوع مع التطوّر المتصاعد لهذه التكنولوجيا، التي يمكن تصوّر الكثير من أبعادها السلبية في المستقبل. فمثلاً، لدى الجيش الأميركي تقنية غير فتاكة تُعرف بـ«الشعاع الحراري»، سُحبت من أفغانستان قبل أن تُستخدم، وهي تعتمد على مواجهة الجموع في نطاق معيّن عبر إطلاق شعاع لتسخين سطح الجلد، دافعة الأشخاص للهرب من نطاقها. فإذا استبدل الجندي بروبوت يتحكّم بهذا السلاح، فكيف يحدّد أهدافه؟ هل يمكن أن تدفع به دولة ما إلى الشارع لمواجهة المتظاهرين؟
ومن التساؤلات التي تطرحها الأمم المتحدة عن استخدام روبوتات قاتلة مستقلة، مدى إمكانية احترامها لمبادئ القانون الإنساني.

مستقبل تحدّده التوازنات

كما كانت الحال في تصنيع القنبلة النووية، فإن ما قد يردع الحرب هو إيجاد التوازن بين الأطراف. الحرب الأصعب هي بين دولة تدفع بالروبوت إلى المعركة وأخرى تدفع بالبشر، دولة تقيس الخسارة بالدولار وأخرى بالدم. الحرب حينها بين ما لا يتعب أو يرحم أو يخاف أو يرفّ له جفن نظرياً، وبين مَن أقصى همّه قتل الآلة. الروبوت عندها يجعل الخصم على شاكلته، مجرّداً من عاطفة أو حتى من نشوة الانتصار. وأما في حال التوازن، فالحرب الأغرب هي بين الروبوتات أنفسها، فمن سيحارب بالبشر إذا امتلك الآلة؟ أما الباحثون عن حلّ يبقي الروبوت القاتل ويخفّف محاذيره، فما زالوا يحاولون برمجته على التزام القانون عبر تلقينه ما وضعته المواثيق الدولية، وهنا الحلقة المفرغة؛ إذ يبدو أن المستقبل تحت رحمة هذا السباق التسلّحي الذي لم يخضع للنقاش بعد، والذي بدأ ولا نعرف أين هو الآن ولا أين سينتهي.







الروبوت القاتل وحقوق الإنسان



أطلق مجلس حقوق الإنسان في الأمم المتحدة في جنيف نقاشاً حول تطوير أسلحة قادرة على اتخاذ قرار القتل، بعيداً عن التدخل الإنساني. المُقرّر الأممي الخاص المعني بحالات الإعدام خارج نطاق القضاء كريستوف هاينز، عرض لهذه الإشكالية خلال جلسة مجلس حقوق الإنسان في جنيف التي عقدت في أيار 2013،
وخلصت الجلسة إلى ضرورة صياغة
اتفاقية دولية جديدة تحظر استخدامها.