ازدادت مؤخراً ظاهرة الـ Revenge Porn حيث يقوم أشخاص بنشر صور أو فيديوهات عارية لأفراد بهدف أذيتهم نفسياً والتشهير بهم وابتزازهم، ما قد يودي بالكثيرين إلى الانتحار. لكن ماذا لو طال الانتقام الشركات ومسؤولين كباراً فيها، والأخطر ماذا لو كان هذا الانتقام مبنياً في الأساس على كذبة، وعلى فيديوهات وصور تمّ تركيبها والتلاعب بها؟ كيف ستنعكس خطوة كهذه على الأسواق وعلى أسهم الشركات المستهدفة وسمعتها بين المستهلكين؟ وماذا لو استحال اثبات صحة المادة المنشورة من زيفها، وهل وصلت التكنولوجيا إذا ما استخدمت بهدف الأذية إلى درجة من الدقة يصبح فيها من المستحيل كشف الحق من الباطل؟ ولو فرضنا أنه تم التحقق من التلاعب، فهل يكون قد فات الأوان؟

تعد الـ Deepfake إحدى أخطر التقنيات التي ستواجهها الشركات من الآن وصاعداً. المخيف في هذه التقنية أنها لا تتطلب مهارات فائقة كما أنها ليست حكراً على منظمات أو مقرصنين يمتلكون خبرات عالية وأنظمة تكنولوجية متطورة، إذ باتت في متناول أيٍ كان، ما قد يخلق حالة من الفوضى العارمة في الاقتصاد في ما لو قرر مستهلكون غاضبون «فش خلقهم» ببعض الشركات عبر استخدامها. فما هي الـ Deepfake؟

البداية من الـ «سناب شات»؟
ظهر مصطلح DeepFake عام 2017، عبر أحد مستخدمي منصّة «ريديت» Reddit للتواصل الاجتماعي الذي قام بنشر فيديوهات عدّة ذات محتوى إباحي لنجمات هوليووديات أبرزهن سكارليت جوهانسِن وإيما واتسن. ضجّ العالم بمحتوى الفيديوهات، وتناقلت الخبر أبرز وسائل الإعلام العالميّة قبل أن يتبيّن أن الرجل استخدم تقنيّة الـ Deepfake لنقل وجه الممثلتين واسقاطهما على جسدي ممثلتين إباحيتين.
تبديل الوجوه في الفيديو كان في السابق حكراً على صنّاع الأفلام، إذ إنّ مشهداً قصيراً يكلّف ثروة، ناهيك عن الحاجة إلى حواسيب ذات قدرات هائلة. فكيف تمّت صناعة عدة فيديوهات مزيّفة مدّتها الزمنية طويلة نسبياً؟ وما دور تطبيق «سناب شات» في الموضوع؟
جميعنا سمع بخاصية «تحديد الوجه» (Face Detection) التي باتت جزءاً من الكاميرا الموجودة في الهواتف الذكيّة. هذه التكنولوجيا ليست بالحديثة، وهي تعتمد على خوارزميات تتيح تحديد شكل الوجه في الصورة والإشارة إليه بشكل مربّع يظهر على الشاشة. أما القفزة النوعية في هذه التقنية، فكانت عبر تطبيق «سناب تشات»، حين قررت إدارته شراء شركة «لووكسوري» Looksery الناشئة في أوكرانيا عام 2015، بمبلغ قُدِّر بنحو 150 مليون دولار. بشرائها الشركة، استحوذت إدارة «سناب تشات» على برنامج «لووكسوري» لتعديل شكل الوجه أثناء الدردشة المصوّرة. وتعمل هذه التكنولوجيا عبر ذكاء اصطناعي يَستخدم برمجة نموذج الشبكة العصبية (عبارة عن مجموعة مترابطة من برمجيات تتواصل وتتشابك في ما بينها مثل الشبكة العصبية البيولوجية في الدماغ البشري). كما أنّها سهّلت قراءة الوجه وتحديده عبر نقاط وخوارزميات في وقت قياسي، ما أتاح الفرصة أمام تطبيقات مثل «سناب تشات» لاستخدام خاصية تعديل الوجوه في الواقع الافتراضي.
شكّلت هذه التقنيات الأرضيّة التي استندت إليها تقنية الـ Deepfake لتتطور وتبرز من خلال برامج عدة، أبرزها وأكثرها انتشاراً برنامج FakeApp الذي صدر عام 2018. يعمل FakeApp وهو من برامج الـ Desktop عبر تكنولوجيا الذكاء الاصطناعي ذات نموذج الشبكة العصبية، ولكن بشكل متطوّر جداً؛ إذ يكفي أن يعطي المُستخدِم البرنامج مجموعة كبيرة من الصور لوجه الشخص المراد تصويره في الفيديو، ليقوم البرنامج بعملية تبديل الوجه. بالإضافة إلى ذلك، أعلنت شركة «أدوبي» Adobe عام 2016 عن برنامج «فوكو» (VOCO)، أو فوتوشوب الصوتيات، والذي يتيح فبركة صوت أي شخص في العالم.
المهم أن «فوكو» لم يخرج من داخل جدران شركة «أدوبي»، ولم تعلن الشركة أصلاً ما إذا كان البرنامج سيصبح من ضمن باقة برامجها. لكن بالمقابل فإن برنامج FakeApp على سبيل المثال (ليس البرنامج الوحيد الذي يمكن من خلاله استخدام تقنية الـ DeepFake) يمكن الحصول عليه من قبل أيٍ كان إذا ما قام ببحث بسيط عبر شبكة الانترنت ومجاناً (أحدث نسخة منه يصعب الحصول عليها مقارنةً بالنسخات الأقدم). فإلى أين يقودنا هذا؟

خطر لا مهرب منه
في عالم الأعمال، فإن السمعة الحسنة تفوق من حيث الأهمية جودة المنتجات والخدمات التي تقدمها الشركات. وتبيّن الدراسات الحديثة أن مستهلكي اليوم يتشددون في مراقبة سلوكيات الشركات ويحددون خياراتهم سواء بالتعامل معها أو مقاطعتها بناءً على ممارساتها الاجتماعيّة والبيئية والانسانية والأخلاقية. وفيما قد يكون لـ Review سلبي على صفحة الشركة على الفيسبوك أو عبر موقع كـ Zomato على أعمالها فلكم أن تتخيلوا حجم الضرر الذي قد ينجم عن فيديو مفبرك أو مقطع صوتي متلاعب به يطال أحد كبار المسؤولين التنفيذيين في الشركة أو أحد المشاهير العالميين الذين يروجون لعلامتها التجاريّة على سبيل المثال.
عام 2009، على أثر الفضيحة التي طالت أسطورة لعبة الغولف تايغر وودز عن خيانته لزوجته (باعترافه مع أكثر من 120 امرأة!) خسرت الشركات الراعية له أكثر من 12 مليار دولار خلال 13 يوماً من الكشف عن خيانته! هنا القصة حقيقية والشركات لم تخطئ لا في خدماتها ولا في منتجاتها، وأساساً كيف لها أن تعرف إن كان الرجل وفياً لزوجته أو لا. ومع هذا كانت العواقب وخيمة.

يصعب أكثر وأكثر اكتشاف زيف الفيديو المفبرك، ما يضع قوة تدميرية هائلة في أيدي المواطنين


العام الماضي، وعلى أثر تصوير الرئيس التنفيذي لشركة «تيسلا» المتخصصة في تصنيع السيارات الكهربائية وهو يدخن سيجارة ماريجوانا في ولاية كاليفورنيا (حيث تدخين الماريجوانا مقونن) هبطت أسهم الشركة بأكثر من 2% خلال اليومين الذين تليا الحادثة مما تسبب بخسائر فادحة.
يبيّن هذان المثالان النتائج الوخيمة التي قد تنتج عن ارتكاب أفعال شائنة من قبل مسؤولين أو مشاهير مرتبطين بعقود مع شركات عالميّة. في هذا السياق فإن خطورة الـ Deepfake أنه قادر على خلق كذبة يصعب اكتشافها مع تطوّر التقنية، إذ أنه استحال حتى على أبرز الخبراء في المجال اكتشاف زيف فيديو مفبرك من صحته في الكثير من الأحيان، وهو ما يضع قوة تدميرية هائلة في يد المواطنين العاديين في حال أرادوا استخدامها بطريقة مؤذية.
المفارقة أن اللجوء إلى هذه الخدع في ما لو تم قد لا يكون هدفه الانتقام والحاق الضرر فقط ببعض الشركات، بل يمكن أن يستخدم طريقة لجني المال بشكل «مشروع» من دون الاضطرار إلى اللجوء إلى الابتزاز. والواقع أنه في ظل تأثير الشائعة الفوري على الأسهم وقبل أن يتم التحقق من صحتها، فإن بإمكان من يطلقها أن يحضر نفسه لشراء الأسهم فور تراجعها لشرائها رخيصة على أن يعود ويبيعها لاحقاً بعد التحقق من زيفها أو بعد أن يكون قد خفت وهجها.
حتى الآن، لا يوجد حل لمعالجة هذه المسألة. والشركات كما الأفراد سيتوجب عليهم أن يتعايشوا مع هذا السيف المصلت فوق رقابهم والذي - للأسف - وإن تبيّن أنه مفبرك فإن لا مفر من آثاره السلبيّة نفسياً ومادياً.