بحوث تؤكد عنصرية الذكاء الصناعي

الجمعة - 30 يونيو 2017

Fri - 30 Jun 2017

u062au062eu064au0644u064au0629 u0644u0644u0630u0643u0627u0621 u0627u0644u0635u0646u0627u0639u064a           (Live Science)
تخيلية للذكاء الصناعي (Live Science)
عندما أطلقت مايكروسوفت روبوت الدردشة Tay على موقع تويتر، أصبح الروبوت يصدر كلمات عنصرية ومتطرفة خلال 24 ساعة، ومعظم ما تعلمه كان عن طريق التحدث مع المستخدمين على الموقع.



وبحسب ما جاء بموقع Live Science فالباحثون اختبروا أنظمة تعلم آلي متعددة، ووجدوا أن كل صفات التحيز البشري تظهر لدى أنظمة الذكاء الصناعي.

وعلقت الباحثة أيلين كالسكان على ذلك «إن النتائج التي احتوت عليها تلك النماذج كانت مذهلة»، وأضافت أنه حتى أجهزة الذكاء الصناعي التي جرى تدريبها على نصوص عادية من ويكيبيديا أظهرت التحيز مثل البشر.



وطورت كالسكان مع زملائها اختبار ارتباط تضمين الكلمات لقياس مدى قوة الرابط بين الكلمات التي يمثلها نظام GloVe ومستخرج المعاني من النصوص على الانترنت، ومن ثم قياس اختبار الارتباط الضمني عن طريق قوة ارتباط الكلمة بالعقل البشري.



وأظهرت النتائج اعتبار الذكاء الصناعي الأسماء الأمريكية الأوروبية أفضل من الأسماء الأمريكية الأفريقية، وامتد الأمر إلى أن الباحثين اكتشفوا أن أداة التعلم الآلي كانت تمثل حقائق العالم بشكل دقيق، وأن أنظمة الذكاء الصناعي التي تتعلم لغة البشر تتأثر بطباعهم بشدة، حتى لو كانت تلك الطباع سيئة.