«التقنية» تستخدم لمحاكاة أصوات شخصيات سياسية
«التزييف» يثير مخاوف التضليل الانتخابي في أميركا
يواجه السباق للفوز بالانتخابات الرئاسية في الولايات المتحدة هذا العام خطر التعرّض لسيل من المعلومات المضللة، التي يقف الذكاء الاصطناعي خلفها، إذ يثير اتصال بصوت روبوت انتحل شخصية الرئيس جو بايدن القلق، خصوصاً حيال تسجيلات صوتية مزيّفة محتملة.
وجاء في الرسالة الصوتية الهاتفية التي قلّدت صوت بايدن «يا له من كلام فارغ»، في ترديد لإحدى عباراته المعروفة. وحضّ الاتصال بواسطة الروبوت سكان نيوهامبشير على عدم التصويت في الانتخابات التمهيدية للحزب الديمقراطي، الشهر الماضي، ما دفع سلطات الولاية لفتح تحقيق في «قمع الناخبين».
كما أثارت مطالبات من الناشطين بتشديد القيود على أدوات الذكاء الاصطناعي التوليدي، أو حظر الاتصالات بواسطة الروبوتات تماماً. ويخشى الباحثون المتخصصون في مسائل التضليل، من انتشار سوء استخدام التطبيقات التي تستند إلى الذكاء الاصطناعي في عام انتخابات حاسمة، بفضل انتشار أدوات استنساخ الأصوات زهيدة الثمن، والتي يسهل استخدامها ويصعب تعقّبها.
وقال الرئيس التنفيذي والمؤسس المشارك لشركة «بندروب» للأمن الإلكتروني، فيجاي بالاسوبراماتيان، لـ«فرانس برس»: «هذا بالتأكيد رأس جبل الجليد». وأضاف: «يمكننا أن نتوقع رؤية المزيد من عمليات التزييف العميق على مدى دورة الانتخابات هذه».
وأفاد تحليل مفصّل نشرته «بندروب» بأن نظام تحويل النص إلى كلام، الذي طوّرته شركة «إيليفن لابز» الناشئة لاستنساخ الأصوات، استُخدم لإتمام الاتصال بواسطة الروبوت بصوت بايدن.
استنساخ الأصوات
تأتي الفضيحة في وقت يسخّر ناشطون من الحزبين أدوات الذكاء الاصطناعي، من أجل إيصال رسالة فاعلة خلال الحملات الانتخابية، بينما يضخّ المستثمرون في مجال التكنولوجيا ملايين الدولارات في شركات استنساخ الأصوات الناشئة.
ورفض بالاسوبراماتيان القول إن كانت «بندروب» شاركت استنتاجاتها مع «إيليفن لابز»، التي أعلنت الشهر الماضي، عن حزم تمويل من المستثمرين قدّرت قيمة الشركة بـ1.1 مليار دولار، بحسب «بلومبرغ». ولم ترد «إيليفن لابز» على طلبات «فرانس برس» المتكررة الحصول على تعليق، علماً بأن موقعها يقود المستخدمين إلى خدمة مجانية لتحويل النص إلى كلام من أجل «خلق أصوات ذكاء اصطناعي طبيعية فوراً بأي لغة كانت».
وتقول توجيهات السلامة التابعة للشركة: «إنه يسمح للمستخدمين توليد نسخ لأصوات شخصيات سياسية على غرار دونالد ترامب من دون إذنهم، إذا كانت (للتعبير عن الفكاهة أو السخرية)، بطريقة توضح للمستمع بأنه ما يسمعه هو محاكاة ساخرة وليس محتوى أصلياً».
زخم جديد
وتفكّر الجهات المنظمة في الولايات المتحدة بجعل الاتصالات بواسطة الروبوتات، التي يولدها الذكاء الاصطناعي مخالفة للقانون، وهي مساع أعطاها اتصال بايدن الزائف زخماً جديداً. وقال رئيس مجموعة «بابليك سيتيزن»، روبرت وايزمان: «وصلت لحظة التزييف إلى العمق السياسي». وأضاف: «على صانعي السياسات المسارعة فرض إجراءات حماية، وإلا فسنواجه فوضى انتخابية.. تذكروا حالة التزييف العميق في نيوهامبشير بالطرق العديدة، التي يمكن للتزييف العميق من خلالها أن يحدث إرباكاً». ويخشى باحثون من تأثير أدوات الذكاء الاصطناعي التي تُنتج تسجيلات مصورة ونصوصاً تبدو حقيقية إلى الحد الذي يصعّب على الناخبين التفريق بين الحقيقة والخيال، ما يقوّض الثقة بالعملية الانتخابية. ولكن المقاطع الصوتية المزيّفة المستخدمة لانتحال هويات شخصيات معروفة، أو سياسيين حول العالم، تُعدّ الأكثر إثارة للقلق.
وقال محلل السياسات البارز في «مركز الديمقراطية والتكنولوجيا»، تيم هاربر لـ«فرانس برس»: «من بين جميع الوسائل (فيديو أو صور أو مقاطع صوتية)، التي يمكن للذكاء الاصطناعي استخدامها لقمع الناخبين، فإن المقاطع الصوتية هي الأكثر خطورة». وأضاف الخبير: «من السهل استنساخ صوت بواسطة الذكاء الاصطناعي ومن الصعب التعرّف عليه».
سلامة الانتخابات
تعقّد سهولة صناعة ونشر محتوى صوتي مزيّف مشهداً سياسياً يعاني أساساً الاستقطاب الشديد، ما يقوّض الثقة بالإعلام، ويمكن أي شخص من زعم أن الأدلة المبنية على حقائق «هي مفبركة»، وفق ما قال الرئيس التنفيذي لـ«بلاكبرد أيه آي»، وسيم خالد، لـ«فرانس برس». وتسود هذه المخاوف في وقت تنتشر أدوات الذكاء الاصطناعي الصوتية بسرعة أكبر من البرامج المخصصة لرصدها.
كشفت شركة «بايت دانس» الصينية المالكة لمنصّة «تيك توك»، واسعة الانتشار، أخيراً عن «ستريم فويس»، وهي أداة ذكاء اصطناعي تحوّل بالوقت الحقيقي صوت المستخدم إلى أي بديل آخر. وأفاد بالاسوبراماتيان، من مؤسسة «بندروب»، بأنه «على الرغم من أن المهاجمين استخدموا إيليفن لابز هذه المرة، يرجّح بأن يستخدم نظام ذكاء اصطناعي توليدي آخر في هجمات مستقبلية». وتابع: «من الضروري أن يكون هناك ما يكفي من الضمانات المتاحة في هذه الأدوات».
وأوصى بالاسوبراماتيان وغيره من الباحثين بإدخال دمغات صوتية أو تواقيع رقمية على هذه الأدوات، من أجل الحماية ووضع قواعد تجعلها متاحة للمستخدمين الذين يتم التحقق منهم فحسب.
وأفاد هاربر، من «مركز الديمقراطية والتكنولوجيا»: «حتى بهذه الإجراءات، فإنه من الصعب والمكلف جداً اكتشاف متى يتم استخدام هذه الأدوات لصناعة محتوى مضرّ ينتهك شروط الخدمة»، متابعاً: «يتطلب الأمر استثماراً في الثقة والسلامة والتزاماً ببناء (البرامج)، مع اعتبار سلامة الانتخابات خطراً مركزياً».
قوانين منظمة
عندما أظهر خبراء في الذكاء الاصطناعي، أخيراً، لمجموعة من المشرّعين في الولايات المتحدة، صورة مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي، في أوائل عام 2022، والتي تصور الرئيسين السابقين دونالد ترامب وباراك أوباما، يلعبان كرة السلة واحداً لواحد، ضحك الجمهور على مدى بدائية هذه الصورة. ثم عرضت لجنة الخبراء مقطع فيديو مزيفاً تم إنتاجه في 2023، وقد صُدِم المشرّعون من مدى واقعية ذلك الفيديو.
وبسبب انزعاجهم من التعقيد المتزايد لما يمكن أن يكون إعلانات سياسية كاذبة أو مضللة للغاية الناتجة عن الذكاء الاصطناعي، يسعى المشرّعون في أميركا جاهدين إلى صياغة مشاريع قوانين لتنظيمها. ومع اقتراب الناخبين الأساسيين من الإدلاء بأصواتهم الأولى في عام 2024، أصبحت القضية أكثر إلحاحاً بالنسبة للمشرّعين في عشرات الولايات الذين سيعودون إلى عملهم بعد فترة الإجازة.
وقال الرئيس والمدير التنفيذي للمؤتمر الوطني لمجالس الولايات الغربية الذي عقد مؤتمر الذكاء الاصطناعي، تيم ستوري: «تعلم الولايات أنه يجب أن تكون هناك بعض الحواجز التنظيمية»، متابعاً: «إنها تحاول معرفة ما يحدث في الوقت الفعلي».
وقال المشرّعون إن «الهدف الأوسع هو منع ما حدث بالفعل في أماكن أخرى، خصوصاً في بعض الانتخابات في الخارج». وفي سلوفاكيا، ربما تكون التسجيلات الصوتية المزيفة، التي تزعم أنها لزعيم حزب سياسي موالي للغرب يشتري الأصوات، قد أسهمت في خسارة ذلك الحزب بفارق ضئيل أمام حزب موالي للكرملين. وفي العام الماضي، أصدر حاكم ولاية فلوريدا، رون ديسانتيس، عن طريق الخطأ ربما، صوراً مزيفة للرئيس السابق دونالد ترامب، وهو يحتضن مستشار البيت الأبيض السابق، الدكتور أنتوني فاوتشي.
• تعقّد سهولة صناعة ونشر محتوى صوتي مزيّف مشهداً سياسياً يعاني أساساً الاستقطاب الشديد.
تابعوا آخر أخبارنا المحلية والرياضية وآخر المستجدات السياسية والإقتصادية عبر Google news