عام 2024 يشكل اختبارا مهما للسياسة في عصر الذكاء الاصطناعي
يشكل العام 2024 اختبارا مهما للسياسة في عصر الذكاء الاصطناعي إذ تُنظّم فيه انتخابات في بلدان تمثّل نصف سكان العالم بينما تساهم التكنولوجيا الحديثة في انتشار المعلومات المضللة بشكل هائل.
وصف العام 2024 بأنه "حاسم" بالنسبة للديموقراطية إذ تجري انتخابات في 60 دولة بينها الهند وجنوب إفريقيا وبريطانيا وإندونيسيا والولايات المتحدة، إضافة إلى الاتحاد الأوروبي.
وجرى بالفعل أول اختبار لكيفية الصمود في مواجهة عاصفة من المعلومات المضللة المعتمدة على الذكاء الاصطناعي.
انتخب التايوانيون لاي تشينغ تي رئيسا الأسبوع الماضي رغم حملة المعلومات المضللة الواسعة ضدّه والتي يشير خبراء بإصبع الاتهام فيها إلى الصين.
تعتبر بكين لاي انفصاليا خطيرا بسبب تأكيده المتكرر على استقلال تايوان وغصّت منصة تيك توك بنظريات المؤامرة والعبارات المسيئة له في الفترة التي سبقت الانتخابات.
وعثر فريق تقصي الحقائق في فرانس برس على عدة تسجيلات مصوّرة من هذا النوع كان مصدرها "دوين"، النسخة الصينية من التطبيق.
لكن ما زال يتعيّن معرفة الكيفية التي ستتطور من خلالها الأحداث في بلدان أخرى. يهدد الذكاء الاصطناعي التوليدي بمفاقمة الاستقطاب المتعمّق في الأساس وانعدام الثقة في الإعلام التقليدي.
والعام الماضي، كشفت صور مزيّفة لدونالد ترامب أثناء توقيفه وأخرى لإعلان جو بايدن عن تعبئة عامة لدعم أوكرانيا حد التقدّم الذي وصلت إليه هذه التكنولوجيا.
تختفي بشكل متسارع التفاصيل القليلة التي كان من الممكن كشف عمليات التزييف من خلالها مثل الأصابع مثلا التي يجد الذكاء الاصطناعي صعوبة بالتلاعب فيها، وهو ما يجعل آليات الرصد أقل قدرة على أداء مهامها. وبالتالي، تزداد المخاطر.
- التهديد الأول -
صنّف المنتدى الاقتصادي العالمي التضليل على أنه مصدر التهديد الأكبر على مدى العامين المقبلين.
وحذّر من أن تقويض شرعية الانتخابات قد يؤدي إلى نزاعات داخلية وأعمال إرهابية وحتى "انهيار الدولة" في أسوأ الحالات.
تلجأ مجموعات مرتبطة خصوصا بروسيا والصين وإيران إلى التضليل المعتمد على الذكاء الاصطناعي، سعيا لـ"تشكيل وعرقلة" الانتخابات في الدول الخصمة، وفق مجموعة التحليل Recorded Future (المستقبل المسجّل).
ولن تكون هذه المرة الأولى.
استنسخت "عملية دوبلغانغر" (الشبيه) التي أطلقت مطلع العام 2022 مؤسسات إعلامية وعامة معروفة لنشر مواقف داعمة لروسيا خصوصا في ما يتعلّق بأوكرانيا.
وأشارت السلطات الفرنسية وشركة "ميتا" المالكة لفيس بوك وواتساب وإنستغرام إلى تورّط الكرملين.
في المقابل، يمكن أيضا للأنظمة القمعية استخدام تهديد التضليل لتبرير تعزيز الرقابة وغير ذلك من الانتهاكات الحقوقية، بحسب المنتدى الاقتصادي العالمي.
تأمل الدول بالرد عبر القوانين، لكن عملها يعد بطيئا للغاية مقارنة بالتطوّر السريع للذكاء الاصطناعي.
وسيتطلب "قانون الهند الرقمي" و"قانون الخدمات الرقمية" للاتحاد الأوروبي من المنصات استهداف المعلومات المضللة وحذف أي محتوى غير قانوني. لكن الخبراء يشككون في إمكانيات تطبيقهما.
تعمل الصين والاتحاد الأوروبي على قوانين شاملة للذكاء الاصطناعي، لكنها ستستغرق وقتا. ويستبعد استكمال قانون الاتحاد الأوروبي قبل العام 2026.
وفي أكتوبر، أصدر الرئيس الأميركي جو بايدن أمرا تنفيذيا مرتبطا بمعايير السلامة في ما يتعلق بالذكاء الاصطناعي.
لكن البعض يشيرون إلى عدم إمكانية فرضها، بينما يخشى بعض النواب من أن المبالغة في تنظيم القطاع قد يؤثر سلبا عليه ويصب في مصلحة جهات منافسة.
وطرحت شركات التكنولوجيا التي واجهت ضغوطا للتحرّك مبادرات خاصة بها.
تقول ميتا إنه سيتوجب على الجهات المعلنة كشف إن كان محتواها استخدم الذكاء الاصطناعي التوليدي بينما طرحت مايكروسوفت أداة تمكن المرشحين السياسيين من التأكيد على صحة محتواهم باستخدام علامة مائية رقمية.
لكن المنصات تعتمد بشكل متزايد على الذكاء الاصطناعي في عمليات التحقق.