إصدار أول دراسة سعودية لحوكمة الذكاء الاصطناعي
في ظل الاهتمام المتزايد بخوارزميات التعلم العميق للآلات وتنامي خطط الاعتماد على تقنيات الذكاء الاصطناعي في المملكة العربية السعودية، تبرز تحذيرات يطلقها متخصصون سعوديون؛ ومنها تنبيه باحث الدكتوراه السعودي إبراهيم المسلَّم، من انحياز الذكاء الاصطناعي.
وأصدر المسلَّم أول دراسة سعودية لحوكمة الذكاء الاصطناعي والحد من مخاطره وآثاره السلبية؛ وترى الدراسة أن مبدأ الذكاء الاصطناعي يقوم على محاكاة العقل البشري وأنماط عمله؛ مثل القدرة على التعلُّم والاستنتاج ورد الفعل على أوضاع لم تُبرمَج داخل الآلة، أي برمجتها على التعلم. وقسَّمت الدراسة الذكاء الاصطناعي إلى مستويات؛ بعضها حقيقي وبعضها خيالي، تبدأ بالضعيف على غرار السيارة ذاتية القيادة، والعام غير المحصور في مجال معين مثل المُناظِر الآلي في مجالات الأبحاث، والقوي القادر على محاكاة وظائف المخ البشري، والخارق المتفوق على الذكاء البشري في شتى المجالات على غرار روبوتات أفلام الخيال العلمي.
ولخصت الدراسة مخاطر الذكاء الاصطناعي التي قد تنجم عن مراحل ثلاث في دورة حياة التقنية؛ هي التطوير والأخطاء أثناء بناء الأنظمة وقياس أدائها وأمنها، ومرحلة التطبيق وأخطار سوء الاستخدام، ومرحلة المخاطر الناجمة عن التبني واسع النطاق.
وسلطت الدراسة الضوء على انحياز الذكاء الاصطناعي، مُصنِّفةً الانحياز بأنه صفة بشرية، ولأن الذكاء الاصطناعي يحاكي الذكاء البشري عن طريق التعلم من البيانات المُدخلة له، فإنه سيرث منه عيوبه، وفي حال تضمن البيانات على عنصرية أو طبقية أو تمييز جنسي، فإن أنظمة الذكاء الاصطناعي ستعزز هذه الأفكار.
وأوصت الدراسة بضرورة اتخاذ إجراءات مهمة؛ تجنب البيانات المحمية قانونياً مثل تجنب استخدام بيانات العرق أو الديانة أو الجنس، وفرض دراسة الانحياز لدى طلب الدعم المادي في المقترحات البحثية أو المشروعات الحكومية، ومنح شهادات اعتماد من مؤسسات حكومية أو جمعيات تؤكد وتثبت اتباع الشركات أو المنتجات لأفضل الممارسات والمعايير، وسن قوانين إلزامية لتكوين إطار تنظيمي ملائم لاستخدام أنظمة الذكاء الاصطناعي يُحتَكم إليه في حال وجود أي ممارسات إقصائية أو منحازة، وتعليم المُطوِّرين وتثقيفهم بأخلاقيات الذكاء الاصطناعي ليصبحوا قادرين على تمييز انحيازهم وآرائهم الشخصية ومنع وجودها في الأنظمة، مع مراعاة التمثيل العادل والمتساوي في فِرق المُطوِّرين للحد من الانحيازات الفردية. وللتصدي لمخاطر الأنظمة الذاتية ومخاطرها غير المتوقعة، ترى الدراسة ضرورة فرض تأمين إجباري على الشركات المُصنِّعة لمنتجات تتضمن أنظمة ذاتية، وفرض دراسة المخاطر عند طلب الدعم المادي في المقترحات البحثية أو المشروعات الحكومية، وتبني التقنيات تدريجياً لإتاحة الفرصة لاختبارها على نطاق مصغر، والاستفادة من خبرات المُصنِّعين والمُتخصِّصين بأمن الطيران، والاستفادة من المجالات العلمية الحساسة مثل الأمن السيبراني، والاختبارات المُكثَّفة للنظم الذاتية، ودراسة عواقب كل قرار ناتج عنها.
وتشير الدراسة إلى وجود ثغرات تشوب تطبيقات الذكاء الاصطناعي؛ منها تسميم البيانات ما يحرف مسار تعلم النظام، خلال مرحلة التطبيق.
سلّطت الدراسة الضوء على انحياز الذكاء الاصطناعي.
ثغرات في الذكاء الاصطناعي منها تسميم البيانات.