سالم العنزي

عنصرية تويتر

الخميس - 08 أكتوبر 2020

Thu - 08 Oct 2020

نحن لا نتحدث عن عنصرية موظفي تويتر (من حذف هاشتاقات وإغلاق حسابات متعمد)، بل موضوعنا عن عنصرية أنظمة وبرمجيات وتطبيق تويتر.

موضوعنا عن عنصرية أنظمة الذكاء الاصطناعي في تطبيقات الشبكات الاجتماعية. فقد اعتذر المتحدث الرسمي لتويتر عن «خلل» و»مشكلة برمجية» في طريقة عرض صور الأشخاص في تويتر، حيث اتضح أن تطبيق تويتر (سواء على الأجهزة الذكية أو واجهة الويب) يختار دائما الأشخاص ذوي البشرة الفاتحة لعرض صورهم مع تجاهل الأشخاص ذوي البشرة الغامقة.

تم اكتشاف المشكلة للمرة الأولى عندما لاحظ الباحث في تكنولوجيا التعليم (كولين مادلاند) أن تويتر يقوم بقص رأس الأشخاص ذوي البشرة الغامقة عندما نشر صورا لمكالمة جماعية عبر برنامج مكالمات الفيديو Zoom.

ولكن المشكلة أصبحت أكبر عندما كرر أحد المستخدمين التجربة عن طريق استخدام صورتين؛ الأولى للسيناتور ماكونيل (أبيض من أصول قوقازية) والصورة الثانية للرئيس الأمريكي الأسبق باراك أوباما (أسمر من أصول أفريقية). وقد قامت خوارزمية تويتر دائما باختيار صورة السيناتور الأبيض، متجاهلة صورة الرئيس الأسبق الأسمر.

اعتذار تويتر لم يكن الأول، فقد سبقه اعتذار مشترك من تويتر ومايكروسوفت عام 2016 عن «أخطاء» في نظام الذكاء الاصطناعي في تطبيق «تاي Tay»، حيث أعلن «تطبيق الذكاء الاصطناعي» الخاص بمايكروسوفت عن تأييده لهتلر وتأييد إعدام اليهود، وكذلك أعلن عن رغبته في حرق النسويات جميعا. وفي السياق نفسه اعتذرت أمازون في بداية 2019 عن «أخطاء برمجية» في تطبيقهم الخاص بالتعرف على الوجوه، حيث إن تطبيق أمازون لم يتعرف على وجوه النساء أو ذوي البشرة الداكنة على أنها وجوه بشرية.

الذكاء الاصطناعي والأكواد البرمجية الخاصة بتويتر ومايكروسوفت وأمازون بريئة من العنصرية براءة الذئب من دم ابن يعقوب، ولكن من قام بتطوير وتدريب برمجيات الذكاء الاصطناعي وتطبيقاته لم يأخذ في اعتباره وجود بشر آخرين يختلفون في الألوان والأعراق، وهنا تكمن المشكلة والخطر القادم، عندما تسيطر شركات معدودة على أنظمة تتحكم في العالم أجمع.

المشكلة الحقيقة ليست هل تختار تويتر صورة رجل أبيض لعرضها في تغريدة أو لا، المشكلة الحقيقية عندما تتحول هذه الأنظمة إلى تطبيقات في كل مجالات الحياة. عندما تختار تطبيقات الذكاء الاصطناعي في مجال القانون من هو المجرم ومن هو البريء، عندما تختار تطبيقات الذكاء الاصطناعي في مجال التوظيف من هو الأحق بالوظيفة ومن لا يستحق الوظيفة، عندما تختار تطبيقات الذكاء الاصطناعي في مجال الصحة من يستحق العلاج ومن لا يستحق.

العنصرية جزء من التركيبة الاجتماعية للبشر، وجدت قبل وجودهم على سطح الأرض، قال إبليس «أنا خير منه خلقتني من نار وخلقته من طين». ولكنها كانت محصوره في تصرفات فردية لا تؤثر إلا في أقليات بشرية في أقاليم محدودة جغرافيا. لكن اليوم، قد تكون عنصرية الذكاء الاصطناعي أخطر عنصرية قد يواجهها الإنسان، فقد يقوم برنامج تم تطويره في وادي السيليكون في أمريكا بعملية تحديد من يستحق السجن في ماليزيا أو النيجر، وقد يحدد برنامج تم تطويره في تل أبيب في إسرائيل نوعية العلاج الذي سيتلقاه مواطن يسكن في ضواحي القاهرة.

تطبيقات اليوم في مجال الذكاء الاصطناعي لا تزال محدودة وفي مجالات قليلة، وإن لم يتم ضبطها ومنع عوامل التحيز فيها فسوف يواجه العالم مشاكل لا حصر لها. ولتتأكد بنفسك، جرب أن تبحث في محرك قوقل للصور عن كلمة جدة «grandma» سوف تجد أن 99% من الصور تعود للصورة الذهنية الغربية عن الجدة.

SMAlanzi@