الجمعة 13 ديسمبر 2019
موقع 24 الإخباري

دراسة لنيويورك أبوظبي تكشف: الروبوتات أكثر كفاءة عندما تتظاهر بأنها إنسان

أجرى فريق من الباحثين بقيادة الأستاذ المشارك في علوم الحاسوب بجامعة نيويورك أبوظبي، طلال رهوان، تجربة عملية لدراسة الكيفية التي يتفاعل بها الأشخاص مع الآلات التي تتظاهر بأنها إنسان.

وخلص الباحثون إلى أن الآلات الذكية قادرة على التعامل مع البشر بكفاءة عالية تصل إلى حدّ التفوّق على البشر أنفسهم، ولكن فقط في حال تم السماح لها بإخفاء كونها آلة، وذلك لأنّ تفاعل الأشخاص مع الآلات يتأثرا سلباً بمجرد كشفها عن حقيقتها غير البشرية، حسب بيان رسمي للجامعة.

وتأتي الدراسة في ظل الدور الذي تلعبه الاكتشافات والأبحاث التكنولوجية الأخيرة في مجال الذكاء الاصطناعي في المساهمة في تمكين الروبوتات والآلات من اكتساب القدرة على محاكاة تصرفات البشر.

"معضلة السجين المتكررة"
ومن خلال الورقة البحثية التي حملت عنوان "دلائل سلوكية حول مقايضة الشفافية بالفعالية في التفاعلات بين البشر والآلات" والمنشورة بدورية (نيتشر مشين إنتلجنس)، قدّم الباحثون تجربة طُلب فيها من المشاركين التعاون مع شريك بشري أو آلي في لعبة تدعى "معضلة السجين المتكررة"، والتي تم تصميمها للتعرف على الكيفية التي يتصرف بها كل مشارك، إما بشكل أناني في محاولة لاستغلال الطرف الآخر، أو بأسلوب تعاوني يهدف لتحقيق منفعة مشتركة لكلا الطرفين.

كما عَمِد الباحثون إلى تقديم معلومات غير صحيحة لبعض المشاركين في التجربة عن هوية شركائهم في اللعبة، حيث قام الباحثون بإخطار بعض المشاركين الذين تفاعلوا مع البشر بأنهم يتعاونون مع آلات، فيما تم إخطار بعض المشاركين الذين تفاعلوا مع آلات أنهم يتعاونون مع البشر.

وتمكّن الباحثون عبر هذه التجربة من تحديد مدى التحيز ضد الشركاء الذين يُعتقد بأنهم آلات، إضافة إلى أن التجربة مكنتهم من تقييم مستوى ذلك التحيز في حال وجوده، ومدى تأثيره على كفاءة عمل تلك الآلات التي أفصحت عن هويتها غير البشرية.

وأظهرت النتائج أن الآلات التي ادعت أنها ذات طبيعة بشرية، كانت أكثر فاعلية في إقناع الشريك بالتعاون في اللعبة، ولكن وبمجرد الكشف عن هويتها الحقيقية، فإن مستوى التعاون انخفض بشدة، إلى درجة أن تفوق الآلات انعدم كلّياً.

كشف الهوية
وتعليقاً على ذلك، قال الأستاذ رهوان: "على الرغم من الإجماع الواسع حول ضرورة تمتّع الآلات بالشفافية فيما يتعلق بكيفية اتخاذها للقرارات، إلا أن ضرورة كشف تلك الآلات عن هويتها غير البشرية ما زال أمراً قيد النقاش، خُذ على سبيل المثال برنامج (غوغل دوبلكس)، وهو مساعد صوتي آلي يستطيع التحدث مثل البشر أثناء القيام بمهام مثل إجراء المكالمات الهاتفية وحجز المواعيد نيابة عن مستخدميه.. هذا البرنامج قادر على جعل الكلام الذي يقوله يبدو واقعياً جداً إلى درجة أن الشخص الآخر ربما لا يدرك أنه يتحدث في الواقع إلى آلة، هل تطوير مثل هذه البرامج يعد أمراً أخلاقياً؟ هل يتوجب علينا منع الآلات من التظاهر بأنهم بشر وإجبارهم على كشف هويتهم؟ إذا كانت الإجابة بنعم، فإن ما توصلنا إليه من خلال التجربة التي أجريناها، يؤكد الحاجة إلى وضع معايير محددة فيما يتعلق بمستوى الكفاءة التي نحن على استعداد للتضحية بها مقابل تلك الشفافية".
T+ T T-