هذه ليست حلقة أخرى من سلسلة الخيال العلمي «Black Mirror»، ولا توقعاً من مخيلة أحد المحافظين تجاه التطور التكنولوجي الذين ينزعون أحياناً إلى نظريات المؤامرة. لكن العالم انشغل فعلاً مؤخراً بتكنولوجيا جديدة، سُمّيت «Deepfake» التي تتيح تزييف مقاطع فيديو لشخصيات معيّنة متغذيةً بشكل أساسي بالذكاء الاصطناعي. ازدادت التحذيرات من هذه التكنولوجيا في السنة الأخيرة، لا سيما بعد انتشار مقاطع إباحية ظهرت فيها ممثلات أميركيات، تبيّن في ما بعد أنها مفبركة. هذه التكنولوجيا الآخذة في التنامي يوماً بعد يوم، والتي ستصبح عمّا قريب متاحة للجميع تماماً كما برنامج «فوتوشوب»، فتحت نقاشات قديمة ـــ جديدة حول أخلاقيات التكنولوجيا وتأثيرها على حياة الأفراد ومصائرهم.


البداية كانت من البورنو (طبعاً)
في نهاية العام الماضي، انتشرت على الإنترنت مجموعة من الفيديوات الإباحية التي ظهر فيها عدد من الممثلات والمغنيات الشهيرات. وبالطبع، شاهد ملايين الناس حول العالم هذه المقاطع. ولكن بسرعة، تبيّن أن سكارليت جوهانسون، تايلور سويفت، كاتي بيري، وغيرهنّ من الفنانات، لم يكنّ البطلات الحقيقيات للفيديوات الجنسية. تبيّن لاحقاً أن هؤلاء ضحايا تكنولوجيا جديدة تستخدم الذكاء الاصطناعي ومعدّات رقمية متقدمة أخرى، تسمح للمزوّرين إدخال وجه أيّ شخص على أي فيديو.
انطلق مقال في صحيفة «إل باييس» الإسبانية من هذه الحادثة ليؤرخ لبداية انتشار التكنولوجيا التي باتت تسمى بالـ«Deepfake». من بعدها بوقت قصير، انتشرت مقاطع مصورة للمستشارة الألمانية أنجيلا ميركل، والرئيس الأميركي دونالد ترامب، ورئيس الأرجنتين موريسيو ماكري. كذلك، جرى استخدام الرئيس الأميركي السابق باراك أوباما، من دون موافقته، ليظهر في فيديو عن الاستخدامات السيئة المحتملة للتكنولوجيا الجديدة.
يشير المقال إلى أن كل هذه المقاطع المصوّرة بدت واقعية جداً، يصعب، أو لعلّه يستحيل، التمييز بين الحقيقة والمزوّر في هذه التقنية.

مستقبل شديد الرعب
الاهتمام الطارئ للإعلام الغربي بهذه التكنولوجيا، على الرغم من ظهورها قبل سنة تقريباً، يرجع إلى حلقة بعنوان «The future of fakes» (مستقبل المزوَّر) من سلسلة «Follow this» عرضتها شبكة «نتفلكس» في نهاية شهر آب/ أغسطس الماضي. الحلقة/ التحقيق (17 دقيقة) تُظهر الصحافي في موقع «BuzzFeed» شارلي وارزل يتطرّق إلى هذه الظاهرة، ويقابل عدداً من المعنيّين لسؤالهم حولها.
يقول وارزل إن هذه التكنولوجيا جديدة جداً، حتى إنه يصعب التحقق من مستواها الحالي أو مستوى تطوّرها. يضعها ضمن «أزمة المعلومات المضللة» أو ما يُعرف بالـ«Fake news»، متوقعاً مستقبلاً «كارثياً» و«شديد الرعب» (نرى ترامب يبشّرنا بذلك، في حين أن وارزل هو من يحركه في الواقع)، بسبب هذه التقنية تحديداً. يطرح الصحافي سؤالاً عن مستوى التكنولوجيا الذي يستطيع المستخدم العادي الوصول إليه، فنراه يستخدم بنفسه برنامجاً يستطيع خلق نسخة رقمية من صوت الشخص. وارزل اختبر بنفسه هذا البرنامج، خادعاً والدته باتصالٍ مصوّر، استخدم خلاله الصوت الرقمي ليتكلم معها. وبخلاف ما كان متوقعاً، سار الأمر على ما يرام، ولم تكتشف أمه أنها تكلم صوتاً رقمياً صادراً من الكمبيوتر. نرى خلال الحلقة خبراء في هذه التقنية يجرّبونها على وجه وارزل. كل ما كان عليه فعله هو إرسال صورة سيلفي واحدة فقط، ليتمكّن البرنامج من التنبّؤ بتعابير وجهه بكل تفاصيلها الدقيقة (حتى بالخطوط والتجاعيد)، والتي طابقت الواقع مئة في المئة. الخبراء أكّدوا أن هذا سيصبح متاحاً قريباً للجميع حول العالم، وليس من الضروري أن تستهدف هذه التقنيّة الشخصيات العامة والمشاهير فقط: «يكفي أن تكون صفحتك على انستغرام عامة على سبيل المثال!».

(من الويب)()

وسيلة للانتقام
أشار مقال «إل باييس» إلى أن الفيديوات المصنوعة بهذه التقنية، واقعية إلى حد كبير، حيث يبدو صوت الشخص وإيماءاته دقيقين جداً. هذا الواقع دفع كاتب المقال إلى التحذير من مخاطر التقنية، وأولها «أنها متاحة للجميع»: «بإمكان صديق سابق مضطرب أن يخلق فيديو يقلّد بشكل كامل صوت المرأة التي تركته وايماءاتها ووجهها، وبإمكانه إظهارها تقول أكثر الأشياء إهانةً. يمكن فبركة فيديو لشرطي يضرب بوحشية امرأة مسنة تشارك في مسيرة في الشارع، الأمر الذي قد يثير اشتباكات عنيفة بين المحتجين والشرطة. زعيم لمجموعة عرقية أو دينية قد يظهر محرّضاً أتباعه على الهجوم على أعضاء عرق أو دين آخر. كما أن بعض التلاميذ بإمكانهم أن يخلقوا فيديو مشبوه لمدرّس/ مدرّسة يكرهونه. وبإمكان مبتزّين رقميين أن يهدّدوا شركةً ما عبر نشر فيديو مسيء، في حال لم تدفع لهم هذه الشركة فدية باهظة». كذلك، يلفت المقال إلى الصراعات الدولية التي قد تنجم عن ذلك. لنتخيّل مثلاً: فيديو يظهر زعيم دولة يعلن الحرب على دولة أخرى. ماذا يمكن أن يحصل قبل أن يتبيّن أن الفيديو مزوّر؟

الأخلاقيات والقوانين
منذ عام 1990، أصبح برنامج «فوتوشوب» شيئاً فشيئاً بمتناول الجميع، سامحاً لمستخدميه بالتعديل على الصور وتبديلها، حتى إن كثافة استخدام هذا البرنامج جعلت من اسمه «فعلاً» بحسب قاموس «ميريام ويبستر».
في حلقة «Follow this»، يقابل وارزل خبير المؤثرات الخاصة جون نول (صانعها في سلسلة «Star wars») كما كان خلف برنامج فوتوشوب أيضاً. الأخير عبّر عن دهشته من كثافة استخدام البرنامج، وتمنى لو كان ذلك الاستخدام قد تم بطرق «أكثر أخلاقيةً»، محمّلاً المسؤولية للمجتمعات في ضرورة أن تمارس ضغطاً على الأفراد لاستخدام التكنولوجيا بطريقة معينة.
من جهته، أشار مقال «إل باييس» إلى ضرورة أن تُرغم الشركات التي تنتج الفيديوات والصور على استخدام تكنولوجيا تجعل المواد البصرية والسمعية غير قابلة للتغيير. كما دعا إلى حماية الناس كي لا يصبحوا ضحايا للـ«Deepfake»، وذلك عبر تبنّي قوانين تلاحق المزوّرين، مؤكداً أنه لا يزال هناك الكثير أمام العالم للسيطرة على هذه الظاهرة التي أوجدت سلاحاً قوياً آخر في الترسانة التي بحوزة «بائعي الأكاذيب».
أما على المستوى الفردي، فقال أستاذ علوم الكمبيوتر في جامعة ستانفورد، مايكل زولهوفر، إنه مع تطور برامج التعديل على الفيديوات، علينا أن نصبح نقديين أكثر تجاه أي محتوى نصادفه بشكل يومي، خصوصاً إذا لم يكن هناك دليل على مصدره.
في الحلقة المذكورة على «نتفلكس»، يؤكد وارزل أن التكنولوجيا تمتلك طبيعة محايدة، هي ليست خيّرة ولا شرّيرة، هي فقط ما نفعله بها. رغم ذلك، من المؤكد أن زمن «ما بعد الحقيقة» بات يتغذّى من وسائل كثيرة مع التنامي السريع للتكنولوجيا. قد يعني ذلك أنه قريباً، سيصبح الكذب والتزوير هما السائدين في العالم، ما قد يُعلي من قيمة الحقيقة لكونها ستصبح سلعة نادرة. لنظلّ متفائلين بذلك.