«غوغل» تدرّب «الروبوتات» لتصبح قادرة على «تنفيذ الأوامر» مثل البشر
طلب الباحثون في شركة «غوغل» من أحد «الروبوتات» أن يصنع لهم شطيرة «برغر» من مكونات بلاستيكية متنوّعة، وعرفت الذراع الآلية «الروبوت» ما يكفي لإضافة «الكاتشاب» بعد اللحم وقبل ذلك قطع من الخس، لكنها اعتقدت أنه من الأفضل أن تضع كل قنينة «الكاتشاب» في الشطيرة.
وعلى الرغم من أن «الروبوت» لم يتمكن من العمل كما يقوم الطباخ البشري، فإن ذلك كان بمثابة نجاح كبير أعلن عنه المهندسون في شركة «غوغل» أخيراً. وباستخدام برمجيات ذكاء اصطناعي تم تطويرها، أخيراً، ويطلق عليه «أنماط اللغة الضخمة»، يقول الباحثون إنهم أصبحوا قادرين على تصميم «روبوتات» تستطيع مساعدة الإنسان على نطاق واسع في مهامه اليومية.
وبدلاً من تقديم التعليمات المتعلقة بغسل الملابس، حيث يتم توجيه كل حركة لـ«الروبوت»، الواحدة تلو الأخرى، أصبحت «الروبوتات» الآن قادرة على الاستجابة للطلبات الكاملة، مثل الإنسان. وفي أحد العروض، قال أحد الباحثين لـ«الروبوت»: «أنا جائع. هل تستطيع أن تحضر لي وجبة سريعة؟». وعندها شرع «الروبوت» في البحث عبر الكافتيريا، وفتح أحد الأدراج، ووجد كيساً من «الشيبس» وأحضره للباحث. وهذه المرة الأولى التي تم فيها دمج برمجيات أنماط اللغة في «الروبوتات»، وفق ما يقوله أحد الباحثين في «غوغل». وقال بريان إتشر، أحد الباحثين في «غوغل»: «إنه نموذج مختلف بصورة جذرية».
وأصبحت «الروبوتات» شائعة الاستعمال حالياً، وهناك الملايين منها التي تعمل في المصانع حول العالم، ولكنها تتبع تعليمات محددة، وعادة ما تركز فقط على مهمة واحدة أو اثنتين، مثل تحريك منتج في خط التجميع، أو تلحيم قطعتين معدنيتين معاً. ويبدو التسابق من أجل صناعة «روبوت» يستطيع القيام بسلسلة من المهام، والتعلم خلال العمل، هي قضية أكثر تعقيداً بكثير. وتعمل برمجيات أنماط اللغة، عن طريق أخذ كميات كبيرة من النصوص التي تم تحميلها من الإنترنت، واستخدامها، من أجل تدريب البرمجيات كي تعرف ما هي أنواع الاستجابات التي يمكن أن تأتي رداً على أسئلة، أو تعليقات معينة. وأصبحت هذه الأنماط جيدة للغاية، في توقع الإجابة الصحيحة، لدرجة أن التعامل معها يشبه إجراء حديث مع إنسان مثقف. وأنفقت شركة «غوغل» والشركات الأخرى، مثل «اوبن أول»، و«مايكروسوفت» مبالغ طائلة من أجل صنع نماذج أفضل وتدريبها على مجموعة أكبر من النصوص وبلغات متعددة. ويبدو هذا العمل مثيراً للجدل، ففي يوليو الماضي، طردت شركة «غوغل» أحد موظفيها لأنه ادّعى أن هذه البرمجيات تجعل «الروبوت يدرك ويعي». وكان الإجماع بين جميع الخبراء أن هذه الأنماط ليست واعية، لكن كثيرين يشعرون بالقلق من أنها تظهر «الانحيازات» لأنه تم تدريبها من خلال كميات ضخمة من النصوص غير المنقحة التي وضعها البشر. وظهر بعض أنماط اللغة في وضع يبدو فيه أنهم (عنصريون، أو منحازون) لأحد الجنسين، أو ببساطة تم التلاعب بهم من خلال خطابات الكراهية أو الأكاذيب.