أشار تقرير نشرته مجلة «إيكونوميست» في الأول من أيار (مايو) الحالي، إلى مخاطر هائلة يمكن أن تحملها أدوات الذكاء الاصطناعي خلال فترات الانتخابات، علماً أنه في العام الحالي وحده، سيشارك أكثر من أربعة مليارات إنسان في انتخابات خاصة بهم حول العالم. وبالفعل، شهدت تايوان أول استخدام لفيديو مفبرك عبر الذكاء الاصطناعي خلال الحملات الانتخابية قبل التصويت في كانون الأول (يناير) الماضي. ورغم أن هذا الجهد كان له تأثير ضئيل على سير العملية الانتخابية، إلا أنه أظهر كيف يمكن للذكاء الاصطناعي تعزيز حملات المعلومات المضلّلة مستقبلاً. إضافة إلى ذلك، طرح التقرير أمثلة عدة عن تكتيكات تستفيد من الذكاء الاصطناعي من أجل الكذب، ولا سيما موقع «دي سي ويكلي» الأميركي الذي كان له دور أساسي في تعزيز حملة تضليل ضد أوكرانيا. ولإيضاح ما حصل وفهم كيفية تصرّف اللاعبين السيئين في مجال نشر الأكاذيب عبر الـAI، تتبّع باحثون في جامعة «كليمسون» حملة التضليل ضد أوكرانيا، التي بدأت بمقطع فيديو نُشر على يوتيوب، ليمر بعدها بعدد من المواقع الإخبارية الأفريقية وموقع إخباري آخر أنشئ عبر الـAI، لينشر بعدها الخبر ويتردد بنسبة عشرين ألف مرة على منصة X.
يُعدّ اكتشاف هذه المعلومات المضلّلة المدعومة بالذكاء الاصطناعي أمراً بالغ الصعوبة. وتعتمد الجهود الحالية إلى حدّ كبير على مراقبة النصوص والحسابات المشبوهة والأنماط الأخرى.
شهدت تايوان أول استخدام لفيديو مفبرك بالـ AI خلال الحملات الانتخابية
لكن وفقاً لـ «إيكونوميست»، تكمن المشكلة في أنّ القائمين على صناعة الأخبار المضلّلة، أصبحوا أكثر ذكاءً، إذ يشوّشون المسارات التي مرت عبرها الكذبة عبر إحلالها في منصات متعددة، ويدفعون مقابل حسابات على منصات تواصل تبدو أصلية لخداع أنظمة الذكاء الاصطناعي الدفاعية. لذلك، تعمل وكالة مشاريع الأبحاث الدفاعية المتقدمة «داربا» وغيرها، على تطوير أدوات تصنيف دقيقة لاكتشاف النصوص والصور والفيديو والأصوات الاصطناعية المفبركة باستخدام تقنيات تحليلية متعددة جنباً إلى جنب. مع ذلك، يحذّر خبراء التكنولوجيا مثل الكاتبة ومديرة الأبحاث في مرصد جامعة «ستانفورد» للإنترنت (SIO)، رينيه ديريستا، من أنّ الكشف «سيتخلّف دائماً عن القدرات الإبداعية الهجومية إلى حد ما». وترى ديريستا أن «وسائل التواصل الاجتماعي خفّضت كلفة توزيع الأكاذيب إلى الصفر، بينما خفّض الذكاء الاصطناعي التوليدي (مثل «تشات جي بي تي») كلفة الإنتاج إلى الصفر»، في حين تجعل النماذج اللغوية الكبيرة مثل GPT-4 إنتاج المقالات والمشاركات والرسائل الإخبارية المزيفة أمراً سهلاً جداً ومنخفض الكلفة.