بحوث تؤكد عنصرية الذكاء الصناعي
الجمعة / 6 / شوال / 1438 هـ - 06:00 - الجمعة 30 يونيو 2017 06:00
عندما أطلقت مايكروسوفت روبوت الدردشة Tay على موقع تويتر، أصبح الروبوت يصدر كلمات عنصرية ومتطرفة خلال 24 ساعة، ومعظم ما تعلمه كان عن طريق التحدث مع المستخدمين على الموقع.
وبحسب ما جاء بموقع Live Science فالباحثون اختبروا أنظمة تعلم آلي متعددة، ووجدوا أن كل صفات التحيز البشري تظهر لدى أنظمة الذكاء الصناعي.
وعلقت الباحثة أيلين كالسكان على ذلك «إن النتائج التي احتوت عليها تلك النماذج كانت مذهلة»، وأضافت أنه حتى أجهزة الذكاء الصناعي التي جرى تدريبها على نصوص عادية من ويكيبيديا أظهرت التحيز مثل البشر.
وطورت كالسكان مع زملائها اختبار ارتباط تضمين الكلمات لقياس مدى قوة الرابط بين الكلمات التي يمثلها نظام GloVe ومستخرج المعاني من النصوص على الانترنت، ومن ثم قياس اختبار الارتباط الضمني عن طريق قوة ارتباط الكلمة بالعقل البشري.
وأظهرت النتائج اعتبار الذكاء الصناعي الأسماء الأمريكية الأوروبية أفضل من الأسماء الأمريكية الأفريقية، وامتد الأمر إلى أن الباحثين اكتشفوا أن أداة التعلم الآلي كانت تمثل حقائق العالم بشكل دقيق، وأن أنظمة الذكاء الصناعي التي تتعلم لغة البشر تتأثر بطباعهم بشدة، حتى لو كانت تلك الطباع سيئة.