19.02.19 1:13 | الروبوتات “العنصرية”.. تستغل الذكاء الاصطناعى للتحيز ضد البشررقم المشاركة : ( 1 ) |
عضو فعال
إحصائيةالعضو | | عدد المساهمات : 619 | نقاط : 44723 |
|
| موضوع: الروبوتات “العنصرية”.. تستغل الذكاء الاصطناعى للتحيز ضد البشر الروبوتات “العنصرية”.. تستغل الذكاء الاصطناعى للتحيز ضد البشرعرب عدد من علماء الذكاء الاصطناعى عن مخاوفهم من إمكانية قيام الروبوتات العاملة بتقنية الذكاء الاصطناعى بتطوير أنفسها بسرعات تفوق قدرة العلماء على التحكم فيها، وإمكانية قيام تلك الروبوتات بالتصرف، واتخاذ قرارات متحيزة وعنصرية من تلقاء نفسها. وكشفت الأبحاث الجديدة، أن الروبوتات يمكنها أن تطور أنماطًا من أساليب الحياة، تجعلها تنظر فى نهاية الأمر إلى البشر على أنهم أقل قيمة منها. ويعتقد بعض الخبراء، إن إمكانية سلوك الروبوتات سلوكيات متحيزة تجاه البشر، لا يتطلب قدرات إدراكية عالية على الإدراك، بل يمكن بسهولة أن تقوم تلك الروبوتات بتعليم بعضها البعض كيفية استبعاد الآخرين. وتستند هذه المخاوف إلى نتائج لدراسات تمت على كيفية قيام الروبوتات بمحاكاة الكيفية التى تعمل بها تقنيات الذكاء الاصطناعى، وأساليب تفاعلها مع بعضها البعض، أو مع البشر المحيطين بها. وقال علماء فى الكمبيوتر وعلماء النفس من “جامعة كارديف” و”معهد ماساتشوستس للتقنية”، إنهم قاموا بدراسة وتحليل مجموعات من الآلات الذكية، واتضح لهم أنها أظهرت بعض السلوكيات المتحيزة، والعنصرية عن طريق تحديد، ونسخ، وتعليم هذه السلوكيات من بعضها البعض. وقال العلماء، إنهم كانوا يعتقدون أن التحيز العنصرى هو ظاهرة خاصة بالإنسان فقط، لأنها تتطلب إدراكًا بشريًا لتشكيل رأى أو صورة نمطية عن شخص معين أو مجموعة بشرية معينة، أو مجموعة من السلوكيات، إلا أنهم وجدوا أنهم كانوا مخطئين. وأظهرت بعض خوارزميات الكمبيوتر سلوكيات متحيزة، مثل: العنصرية، والتمييز على أساس الجنس (ذكر / أنثى)، واستنادًا إلى مستوى التعليم، وذلك بناء على السجلات العامة، وقواعد البيانات الأخرى التى ينتجها البشر. ومع ذلك، أظهرت إحدى الدراسات، أن الآلات ليست بحاجة إلى الاستعانة بتلك البيانات، لممارسة تلك السلوكيات المتحيزة، بل يمكنها أن تطور من تلقاء نفسها هذه السلوكيات استنادًا إلى إمكانيات الذكاء الاصطناعى المتاحة لها. ولتحديد ما إذا كان الذكاء الاصطناعى يمكنه اكتساب سلوكيات التحيز من تلقاء نفسه، أجرى العلماء محاكاة، أظهرت أن الروبوتات تشارك فى لعبة العطاء والأخذ. وفى هذه اللعبة، يتخذ كل فرد قرارًا بشأن ما إذا كان يريد التبرع بأموال لشخص داخل مجموعته الخاصة أو إلى مجموعة أخرى. واستندت اللعبة إلى إستراتيجية التبرع للأفراد للتحقق من مستويات التحيز لديهم تجاه الغرباء. ومع تطور اللعبة، وقيام الروبوتات بآلاف من عمليات المحاكاة، بدأ كل واحد منهم فى تعلم إستراتيجيات جديدة عن طريق نسخ سلوكيات الآخرين، إما داخل المجموعة الخاصة بهم، أو سلوكيات من أفراد المجموعة الأخرى. وأكد البروفيسور “روجر ويتكر” من كلية علوم الكمبيوتر بجامعة كارديف، قال: “من خلال تشغيل هذه المحاكاة الآلاف والآلاف من المرات، بدأنا فى فهم كيف يتطور سلوك التحامل على الآخرين، والتحيز لصالحهم أو ضدهم، والظروف التى تشجع على ذلك السلوك، أو تعرقله”. وأضاف “ويتكر”: “تضمنت النتائج التى انتهت إليها الدراسة، أن الأفراد يقومون بتحديث مستويات التحيز الخاصة بهم عن طريق نسخ ومحاكاة سلوك الآخرين الذين يحصلون على مكافآت أعلى على المدى القصير، مما يعنى أن هذه القرارات لا تتطلب بالضرورة قدرات معرفية متقدمة”. وأوضح “ويتكر”: “من الممكن أن تصبح الأجهزة المستقلة ذات القدرة على التمييز، وتقليد سلوك الآخرين فى المستقبل عرضة لظواهر ضارة نراها عند البشر”. وأضاف: “مع وجود عدد أكبر من الروبوتات، يمكن أن تتم تحالفات غير مسبوقة فى التاريخ”.
|
| |