قدمت مجموعة من الباحثين من جامعة كامبريدج، المعهد الوطني للتكنولوجيا في الهند والمعهد الهندي للعلوم ورقة بحثية جديدة (قُدّمت منذ 3 أسابيع ولا تزال تنتظر المراجعة)، تطرح إطاراً يعتمد على تقنية التعلم العميق deep learning لكشف 14 نقطة رئيسية في الوجه، يتم استخدامها بعد ذلك للتعرف إلى الوجوه المتخفّية.
يستخدم نظام التعرف إلى الوجوه المقنّعة Disguised Face Identification شبكة عصبية تعتمد على تقنية التعلم العميق للذكاء الاصطناعي للتعرف إلى الوجوه المغطاة. وبما أن تدريب بنية التعلم العميق يعتمد على مجموعات كبيرة من البيانات المشروحة، تم تقديم مجموعتي صور مشروحتين تضمّان النقاط الرئيسية في الوجه، وتتألف كل مجموعة من ألفي صورة. قام الفريق بتدريب الشبكة من خلال تلقينها صور أشخاص يستخدمون مجموعة متنوعة من الأغراض لتغطية وجوههم مثل النظارات، الأوشحة، القبعة، اللحى… يقوم النظام بتحديد 14 نقطة رئيسية في الوجه: 10 نقاط في منطقة العيون، 3 نقاط في منطقة الشفتين ونقطة في منطقة الأنف، عن طريق قياس المسافات والزوايا بينها ومن ثم يقوم بتشكيل "خريطة" للوجه من خلال وصل هذه النقاط.
في حالات التخفي، يتم تحديد النقاط الرئيسية الظاهرة، ويستخدم البرنامج هذه القراءات لتقدير بنية الوجه الخفية، ومن ثم يقارنها مع الصور الموجودة في قاعدة البيانات للكشف عن الهوية الحقيقية للشخص. ففي الاختبارات التي أجراها الفريق، بلغت دقة التعرف إلى وجوه أشخاص يرتدون قبعات 83%، وهو أمر عادي لأن فعل التخفي هنا ليس كبيراً، لتنخفض إلى 61% عند ارتداء وشاح. أمّا عند إخفاء الوجه بوشاح وقبعة ونظارات في الوقت نفسه نرى أن دقة التعرف إلى الوجوه تتراجع إلى 43%.

تحوّل السلطة الذكاء الإصطناعي إلى أداة قمع بوجه المتظاهرين


لا تزال هذه الورقة تحتاج إلى الكثير من المراجعات، حتّى أنّ نتائجها أتت أقل دقة بكثير من المعايير المستخدمة لاختبار هذه التقنية، كما أشار موقع The verge، إضافة إلى ضعف قاعدة البيانات المستخدمة وصغرها، فضلاً عن انتقادات عدة لمنهجية البحث وجّهها عدد من الخبراء. لكن المغزى هنا ليس في دقّة التقنية نفسها إنّما في فكرتها! وفي حين أنها قد لا تزال غير دقيقة اليوم، إنما مجرّد بدء العمل عليها (وبالتأكيد ليست هذه المجموعة الأولى التي تعمل على الأمر) يجعلها قابلة للتطبيق بدقة عالية في القريب العاجل.
نتحدث هنا عن الاستبدادية والقمع. قد يقول البعض إنّ هذه التقنية ستساعد في التعرف إلى المجرمين الملثمين، لكن هذه التقنية نفسها ستساعد أيضاً السلطات على التعرّف إلى المتظاهرين الملثمين، وبذلك تحوّل السلطة الذكاء الاصطناعي إلى أداة قمع بوجه المتظاهرين.
تنتقد عالمة الاجتماع في جامعة "نورث كارولينا" زينب توفيكسي، على تويتر، هذه الورقة البحثية، معتبرةً أننا "أمام مفترق طرق تاريخي"، إذ تقول: "يدّعي معدو الورقة أن النظام يعمل بدقة حوالى نصف الوقت حتى عندما يرتدي الناس النظارات، وهذه ليست سوى البداية؛ الورقة الأولى". وتضيف "ربما هذه هي الورقة الثالثة أو الرابعة الأكثر إثارة للقلق التي رأيتها مؤخراً: الذكاء الاصطناعي والاستبدادية. (...) يمكننا التصدي لهذه الورقة وأوراق أخرى لكن الاتجاه واضح، والقدرة الجديدة المتزايدة من شأنها أن تخدم المستبدين، فهذه القدرات الجديدة ليست مثل القدرات القديمة. يمكن التعرف إليك من طريقة المشي الخاصة بك. مهما كان المرء يفكر في عدم الكشف عن هويته كتكتيك، فإن هذا هو الواقع. هذه الورقة البحثية ثانوية، ضيقة، ونتائجها مشروطة، هي ليست عظيمة إنما هو الاتجاه الذي يدعو للقلق".

■ للإطلاع على الورقة: انقر هنا

* للمشاركة في صفحة تكنولوجيا التواصل عبر البريد الإلكتروني: [email protected]