في ظل التطورات التكنولوجية السريعة التي تحصل في العالم، وخاصة المتعلقة بالذكاء الاصطناعي، بات من الضروري ضبط الأمور ووضع قواعد ومعايير أخلاقية لها. فالكثيرون يتخوفون من الذكاء الاصطناعي الذي قد يسيطر يوماً ما على البشر، وبالمقابل هناك كثيرون يرون في الذكاء الاصطناعي تطوراً رائعاً للبشرية قد يؤدي إلى تحقيق حلم خلود الإنسان. الفريق الأول لا يقف ضد التطوّر، بل يطالب بمعايير تنظّم هذه العملية وتسمح بالاستفادة من الذكاء الاصطناعي من دون تدمير البشرية.
أبسط الأمثلة على مخاطر هذا التطور يتعلق بتدمير الذكاء الاصطناعي للوظائف وتركيز الثروات في أيدي من يملكون الكومبيوترات الأقوى. فالثورة التكنولوجية حتى اليوم لم تخلق وظائف بقدر ما دمّرت. مثال آخر يتعلق بتدمير الذكاء الاصطناعي لحق الناس في الخصوصية، بحيث بات الجميع مراقبين في الشوارع والمنازل.
هذا النقاش العالمي يُعَدّ أحد أبرز القضايا التي تشغل الحكومات والمنظمات والشركات والباحثين منذ سنوات. مبادرات عديدة اتخذت في هذا الإطار، آخرها تشكيل وحدة الذكاء الاصطناعي والتعلم الآلي في «غوغل» DeepMind (وهي شركة استحوذت عليها «غوغل» عام 2014) منذ أسبوعين مجموعة بحثية جديدة تحت اسم «DeepMind Ethics & Society» مكرسة للقضايا الشائكة في الذكاء الاصطناعي في 6 مجالات هي: الخصوصية والشفافية والعدل، الأثر الاقتصادي، الحوكمة والمساءلة، إدارة مخاطر الذكاء الاصطناعي، أخلاق وقيم الذكاء الاصطناعي، والذكاء الاصطناعي والتحديات المعقدة في العالم.
تعتقد الوحدة أن الذكاء الاصطناعي يمكن أن يكون ذا فائدة استثنائية للعالم، ولكن فقط إذا اتّبع أعلى المعايير الأخلاقية. فالتكنولوجيا ليست قيمة محايدة، ويجب على الفنيين تحمل المسؤولية عن الأثر الأخلاقي والاجتماعي لعملهم. في بيانها قدّمت الشركة تصريحاً مثيراً للاهتمام، لكونه صادراً عن إحدى أهم الشركات المسؤولة عن تطوير تقنيات الذكاء الاصطناعي، قائلةً: «كما يشهد التاريخ، فإن الابتكار التكنولوجي في حدّ ذاته ليس ضماناً للتقدم الاجتماعي الأوسع نطاقاً. تطوير الذكاء الاصطناعي يخلق أسئلة مهمة ومعقدة. إن تأثيره في المجتمع - وفي حياتنا - ليس شيئاً ينبغي أن يترك للصدفة. يجب أن تكون النواتج المفيدة والحماية ضد الأضرار مدروسة بشكل فعال منذ البداية.

الابتكار التكنولوجي في حد ذاته ليس ضماناً للتقدم الاجتماعي الأوسع نطاقاً

ولكن في حقل معقد مثل الذكاء الاصطناعي، الكلام أسهل من الفعل». بناءً عليه أعلنت المجموعة البحثية أنها تخضع لخمسة مبادئ جوهرية لضمان الدقة والشفافية والمساءلة الاجتماعية لعملها، هي: المنفعة الاجتماعية، الدقة والأدلة في دراسة تأثير الذكاء الاصطناعى على المجتمع، الشفافية والانفتاح على مختلف الأبحاث وعدم التأثير في نتائجها، التنوع وتعدد الاختصاصات، بحيث إن المسائل التي يثيرها الذكاء الاصطناعي تمتد إلى أبعد من المجال التقني، ودعم مجموعات الحوار حول الذكاء الاصطناعي. وفي ما يتعلق بالمبدأ الأول والأبرز، تقول المجموعة إنه ينبغي تطوير الذكاء الاصطناعي بطرق تخدم الخير الاجتماعي والبيئي العالمي، ما يساعد على بناء مجتمعات أكثر عدالة وأكثر مساواة. وستركز أبحاثها مباشرة على الطرق التي يمكن بها استخدام الذكاء الاصطناعي لتحسين حياة الناس، ووضع حقوقهم ورفاههم في قلبها.
انطلاقاً من هذه المبادئ الخمسة ستناقش المجموعة أسئلة شائكة: هل سيؤدي استخدام نظم الذكاء الاصطناعى إلى تفاقم الصراع بين الفرد والمجتمع، بالنظر إلى الفوائد والمخاطر المحتملة لاستخدام البيانات؟ كيف يمكن توسط هذه الصراعات وحلها؟ كيف يمكننا فهم وتقدير تأثير الذكاء الاصطناعي بسوق العمل المتغيرة؟ كيف ومتى سيؤثر الذكاء الاصطناعي في تحقيق الثروة لمختلف المجموعات الاقتصادية في المجتمع؟ ما هي أشكال عدم المساواة التي يمكن أن تخلق أو تتفاقم؟ ما هي المخاطر الرئيسية التي يتعرض لها المجتمع من فشل أنظمة الذكاء الاصطناعي، وكيف يمكن رصد هذه المخاطر ومعالجتها على نطاق واسع؟ أسئلة ستجيب عنها المجموعة ابتداءً من السنة المقبلة، مع الأخذ دوماً بالحسبان أن DeepMind تقاسمت البيانات الصحية لـ 1.6 مليون شخص عام 2015 مع هيئة الخدمات الصحية الوطنية في لندن من دون علمهم أو موافقتهم، خارقةً بذلك أبرز القيم الأخلاقية. كذلك يشكك الكثيرون بتوجهات الأبحاث التي ستصدر عن المجموعة، نظراً إلى مصالحها التجارية الراسخة في تشكيل كيفية تنظيم الذكاء الاصطناعي.