«ريوت غيمز» تعمل على تطوير «ليغ أوف ليغندز» اللعبة الأوسع انتشاراً على شبكة الإنترنت. غيتي

الاستعانة بـ «الذكاء الاصطناعي» لمواجهة إساءة الاستخدام على الإنترنت

لا يسلم معظم مواقع ومنتديات الإنترنت، والشبكات الاجتماعية، من اللغة المسيئة، التي يندفع إليها كثيرون بسبب ما يُتيحه الإنترنت من إخفاء للهوية، ولا تُعد مباريات لعبة الفيديو «ليغ أوف ليغندز» استثناءً، لاسيما في ظل أجواء المنافسة الشرسة بين الفرق.

وتُمثل إساءة الاستخدام والألفاظ البذيئة مشكلة لشركة «ريوت غيمز»، التي تُطور «ليغ أوف ليغندز» League of Legends، اللعبة الأوسع انتشارًا على شبكة الإنترنت، لذلك تُوظف فريقًا من العلماء والمصممين، بهدف تحسين طرق التفاعل بين اللاعبين.

وعلى مدار السنوات القليلة الماضية، اختبر فريق «ريوت غيمز» مجموعة من النظم والأساليب بدعم من «تعلم الآلة»، إحدى تقنيات الذكاء الاصطناعي، وبهدف مراقبة تفاعلات اللاعبين مع بعضهم بعضاً، وفرض عقوبات على مرتكبي السلوكيات السلبية، ومكافأة السلوكيات الإيجابية.

وقال المصمم الرئيس للنظم الاجتماعية في «ريوت» والمتخصص في علم الأعصاب الإدراكية، غيفري لين، إن «نتائج التجربة كانت مذهلة، ولم يُكرر 92% من اللاعبين سلوكياتهم السيئة مجددًا». ويعتقد لين أنه «من الممكن تطبيق تقنيات الفريق خارج سياق مجتمعات ألعاب الفيديو. ويرى أن «ريوت» قدمت علاجًا للشغب وإساءة الاستخدام على الإنترنت، بصرف النظر عن ساحة حدوثه.

وبدأت مجهودات الفريق قبل سنوات عدة، حينما قدم نظامًا سماه «تريبينل» Tribunal بمعنى «المحكمة»، وتعرف إلى الحالات المحتملة للتصرفات المسيئة، وأنشأ ملفًا لكلٍ من هذه التصرفات، وعرضه على مجتمع اللاعبين، الذين يُقدر عددهم حاليًا بنحو 67 مليون مستخدم، وراجع اللاعبون سجلات المحادثات وصوتوا لتحديد السلوكيات المقبولة، وأظهر النظام قدرًا مرتفعًا من الدقة.

وفي المرحلة التالية، انتقل لين وفريقه من مرحلة الاعتماد على أحكام أعداد كبيرة من اللاعبين إلى التعرف إلى الأنماط المحددة للغة المسيئة، وقرر الفريق الاستعانة بتقنية «تعلم الآلة»، وتبين نجاحها الكبير في تقسيم اللغة السلبية والإيجابية في 15 لغة، تدعمها «ليغ أوف ليغندز» رسميًا.

وتعتمد النسخة الجديدة من النظام على الرقابة بواسطة التكنولوجيا، بدلًا من اللاعبين الآخرين، وبالتالي تُقدم ردًا سريعًا للاعب وتفرض عقوبات على مرتكبي السلوك السيئ، ويُمكنه تقديم التعليق في غضون خمس دقائق، في مُقابل حاجة الإصدار السابق من النظام لفترة قد تصل إلى أسبوع.

وقال لين إن «النظام قد حسن إلى حد كبير ما تُسميه الشركة (مُعدلات الإصلاح)، ويُقصد بها تجنب اللاعب الذي تعرض لعقوبة بسبب سلوكه السيئ، خلال فترة من الوقت». وأضاف أن «توفير ردود أفضل وأدلة تدعم تطبيق العقوبات مثل سجلات المحادثة، أدى إلى ارتفاع (مُعدلات الإصلاح) من 50 إلى 65%، ممن ينالون جزاءات، وارتفعت إلى نسبة قياسية بلغت 92%، بعدما وفر النظام الآلي ردودًا سريعة وحيثيات لتطبيق العقوبات».

وتكمن أهم الصعوبات التي يُواجهها نظام «تريبينل» في تمييز السياق واختلافه بين الجد والهزل؛ ففي أي لعبة جماعية غالبًا يبني اللاعبون علاقات الصداقة من خلال تبادل النكات والتهكم، وهي تعبيرات قد تبدو في سياقٍ آخر قاسية وعدوانية. وعادةً تُخفق النظم الآلية في إدراك السخرية وتمييزها، وربما يعد هذا أبرز العوائق أمام الاعتماد على «تعلم الآلة»، لمواجهة اللغة المسيئة على الإنترنت.

وقال الأستاذ المساعد في جامعة كارنيجي ميلون الأميركية، والمهتم بمعالجة اللغات الطبيعية، كريس دير، إنه «من المنصف جدًا القول بتفوق أداء الذكاء الاصطناعي، الموجه لفهم اللغة، حينما يتطلب حساب الرد الصحيح أقل قدر من معلومات السياق». ولفت دير إلى «صعوبة المشكلات التي تحتاج إلى دمج الكثير من معلومات السياق، ويتردد فيها الحديث وسط سخرية تُمثل سياقًا مختلفًا بحسب الظروف».

وفي الوقت الراهن، يسعى لين وفريقه لحل المشكلة من خلال إضافة عدد من الضوابط والتوازنات، مثل تحقق أنظمة عدة من الحكم بممارسة أحد اللاعبين لسلوك مسيء، وتأكيد الحكم أو نفيه، واشتراك أنظمة متعددة في فرض العقوبات على اللاعبين.

وصممت شركة «ريوت غيمز» العقوبات وأساليب الردع، بهدف إقناع اللاعبين بتعديل سلوكهم للأفضل، وربما تحد من إمكانات الدردشة لمرتكبي السلوكيات المسيئة، أو تطلب من بعض اللاعبين الاشتراك في مباريات غير مصنفة قبل السماح لهم بلعب المباريات الأعلى تصنيفًا، وبالمثل تكافئ «ريوت» اللاعبين المهذبين والملتزمين.

وأكد لين أن «أهمية الدروس التي تعلمها مع فريقه تمتد لنطاق أوسع». واعتبر عالم الأبحاث في مركز بيركمان التابع لجامعة هارفارد الأميركية، جاستن ريتش، من أهم نتائج تجربة لين وفريقه أن السلوك المسيء لا يصدر بالضرورة عن أشخاص سيئين، بل قد يأتي من لاعبين عاديين يمرون بوقت عصيب.

ورأى ريتش في ذلك دلالة على أهمية ألا تُركز استراتيجية التعامل مع السلوكيات السيئة على الإنترنت على المتصيدين، الذين يقصدون الإساءة باستمرار، بل ينبغي أن تأخذ بعين الاعتبار الميل البشري العام، بالسماح بخروج أسوأ ما يعتمل في النفوس، تحت ستار التخفي، والهوية المجهولة على شبكة الإنترنت. واعتبر ريتش أن «عمل لين يُبين أن السلوكيات المسيئة ليست جزءًا أساسيًا من الويب، وإنما مشكلة يُمكن علاجها بمزيج من الهندسة والتجارب ومشاركة التجمعات».

ولفت لين إلى أن «التحديات القائمة في مجتمعات (ليغ أوف ليغندز) قد تظهر في الألعاب الأخرى على الإنترنت، أو المنصات والمنتديات والتجمعات الأخرى، الأمر الذي دفعهم للانفتاح في مشاركة بيانات التجربة، وأفضل الممارسات التي توصلوا إليها مع المجال عمومًا». وأعرب لين عن أمله دراسة الشركات الأخرى للنتائج، لتُدرك أن السلوكيات المسيئة على الإنترنت، رغم كل شيء، ليست معضلة عصية على الحل.

الأكثر مشاركة