محمد السلمي

الذكاء الاصطناعي بين صراع الخير والشر

الثلاثاء - 18 أبريل 2023

Tue - 18 Apr 2023

«كيف نوقف مخاطر الذكاء الاصطناعي؟» تساؤل وجهه لي الخبير الدكتور ماركو جروبيلينك على هامش جدول أعمال المؤتمر العام السنوي 41 لمنظمة اليونيسكو في باريس نوفمبر 2021، والذي حضره جمع غفير من وفود الدول الأعضاء من 192 دولة وكنت حينها ممثلا في لجنة أخلاقيات الذكاء الاصطناعي مع الوفد الرسمي السعودي برعاية المندوبية السعودية الدائمة لدى منظمه اليونيسكو، لمناقشة وإقرار مشروع يطرح لأول مرة للمجتمع الدولي عن توصيات أخلاقيات الذكاء الاصطناعي.

أجبته عجلا واتجاهنا للقاعة «لا تقلق فالخير والشر ثنائية الوجود في الدنيا، والإنسان مبتل بالصراع ومكلف بالمواجهة» كانت إجابتي له عابرة وكأني أتمتم طمأنة له، ولكن الموقف أنشأ صداقة متينة مع شخصية أعتبرها من ألمع نوابغ العصر في المجال. تذكرت هذا الموقف مجددا قبل فترة قصيرة في لقاء -عن بعد- نتناقش زهو التقنية وكرر تساؤله بتهكم لطيف يحثني مشاركته النقاش حول تقنية ChatGPT4. تلك التقنية الثورية التي أحدث ضجة إعلامية غير مسبوقة، استندت الشركة المنتجة OpenAI في منتجها على ورقة علمية شهيرة من باحثين في قوقل تم نشرها في عام 2017 «Attention is all you need»!

إذ قدمت تلك الورقة مفهوما وبنية خوارزمية ذكية تمكن الآلة من القدرة على الانتباه للسياق والاستجابة لنماذج التدريب بالبيانات الضخمة باستخدام محولات شبكات عصبية مستوحاه من وظائف العقل البشري. استخدمت تقنية ChatGPT ذات البنية الخوارزمية مع زخم من المعلومات والمعايير قدرت في نسخة ChatGPT4 بـ(تريليون) معيار أو أكثر، لتجعل من هذه التقنية -كما تم وصفها مؤخرا- أعظم وأحدث اختراع حتى الآن ومفتاحا لقفزات من التطور القادم؛ بجانب توقع أن تسهم في تسارع التطور الصناعي والتقني بأضعاف ما كانت عليه منذ بدء الثورة الصناعية الرابعة التي نعيش تحولها الرقمي والمعلوماتي.

ومن المتوقع أن جسر العبور للثورة الصناعية الخامسة يكمن في قدرات الذكاء الاصطناعي الإدراكي لـ«أنسنة التقنية»، والتي ستجعل ذكاء الآلة أداة لتعظيم جودة الحياة نحو آفاق جديدة. لا سيما أن مؤشرات ذلك العبور قد بدأت دلالاتها مع بنية هذه التقنيات التي تتسارع خطواتها نحو نظرة مستقبلية ومستويات غير مسبوقة من الأتمتة والكفاءة في الصناعات والخدمات النوعية المتكاملة.

ومع أن التطلعات مبهجة في كنف هذا الوليد التقني الجديد، ولكن قارعة التقنية لا تخلو من أشواك التساؤلات حول مخاوف وأخطار هذا الابتكار، وما سيؤول إليه من تقليص لوظائف البشر أو بالغالب إنشاء وظائف جديدة (الأقرب للصواب)، مما أربك المفكرين لإيجاد وصف متسرع نوعا ما ومحاولة لوصف يليق: أهو مارد قادم أم ولد تقني صالح؟

عين الفاحص لم تغب طرفة عين عن تأملها حول مكنون تقنيات ChatGPT ومعناه فهما «روبوت المحادثة التوليدي للمحتوى بالنماذج اللغوية الضخمة» أو بالمختصر «روبوت محادثة» كأداة تنتج محتوى متناسقا وإجابات مفصلة لتساؤلات وطلبات المستخدم، مع أنه لا تزال به مشكلة تضليل وهدر في كثير من مخرجاته؛ ولكن يمكن تداركه بـ «هندسة الإيعاز» وهي بالمناسبة أحدث تخصص نشأ حديثا في الذكاء الاصطناعي بسبب ChatGPT وقد يصبح قريبا تخصصا جامعيا، وخبراؤه محل طلب شديد وتوظيف؛ لأن هذا التخصص يتعامل مع مكامن هندسية تخرج نفيسا كالذهب من ذكاء الآلة وتردع مخاطر تجاوزاته.

ومع أن هذه التكنولوجيا حفزت فضول المبرمجين ورفعت من سقف صراع كبرى الشركات (قوقل ومايكروسوفت وغيرها) في تبنيها لسباق المنتج الأسبق لغرض مكاسب اقتصادية قادمة ضخمة، تجد بالمقابل أن مجتمع المطورين والباحثين والشركات الناشئة تجاوزوا ذلك التنافس بجرأة تثير الإعجاب في تقديم عشرات الأدوات في ظرف أسابيع بسيطة. وكأن هذه التكنولوجيا أسهمت في تقديم الأفكار، وعززت من إطلاق تطبيقاتها ومشاريعها، وأسهمت في كسب شغف المستخدمين تجاه هذه الأدوات الذكية في صناعة محتوى بغزارة لا تهدأ؛ كنهر يتدفق من محيط ويتعاظم عائدا إليه! فتارة تجد الباحث يستمتع مع ضالته وهي تلتهم المصادر العلمية والإنترنت في ثوان وتلخص له المقالات وتشرح المعلومة وتستجيب لأي نواقص وتكملها. وتارة تجد صانع المضمون يستخدم الأداة كسكرتير رقمي يغوص به في لُج يختزل الوقت ويصعد به فضاء من خيال إبداعي بين النصوص والصور ليقدم مضمونا جديدا بحلة مختلفة زاهية.

وكأن الذكاء الاصطناعي يختصر المجالات والتخصصات لتقديم باقة متكاملة من بساتين الخدمات، وهذا تحديدا ما أثار الإعجاب والخوف معا، وكأني بالدكتور ماركو أسمعه بصوته الجهوري مكررا «كيف يمكن تدارك مخاطره؟، وها نحن في بداية الرحلة!

لا عجب في تصاعد أصوات المطالبة بكبح جماح هذه التكنولوجيا لتدارك ما يمكن تداركه نحو فرض التشريعات وتوكيد الأخلاقيات وسن القوانين لضمان مبادئ أخلاقيات الذكاء الاصطناعي تجاه «العدالة والخصوصية والإنصاف والمساءلة والسلامة والرقابة والمسؤولية» والتي اتفق عليها المجتمع الدولي كتوصيات ستعين في تعظيم أثر تبني حلول الذكاء الاصطناعي بلا ضرر ولا ضرار، ولكنها توصيات غير ملزمة ويشوبها تحديات سياسية عصية في إلزامية تطبيقها.

ولعل أكبر سبب يتحجج به أولئك الرافضون تطبيق التشريعات والقوانين بأنها تقيد حدود الإبداع والابتكار في الذكاء الاصطناعي، وقد تجعل للقيود سطوة لن تتناسب مع وزن وسباق الدول والشركات اقتصاديا للاستفادة من حلول تقنيات الذكاء الاصطناعي، مما سيصعب ضمان الامتثال بها وسيصعب تطبيقها ويخلق صراعات جديدة وموازين قوى متقلبة.

وبطبيعة الحال يتمنى المتفائل سرعة اتفاق المجتمع الدولي حكومات ومنظمات دولية من أجل خير البشرية للعمل على تشريعات واضحة، ومنهجية صريحة، وقوانين امتثال، ومقاييس قابلة للقياس والنشر بشفافية؛ ليسهل للجهات والشركات والمجتمع التقني تبنيها وتنفيذها عبر أدوات إشرافيه تقوم بدور الفحص والنقد والتقييم والإيعاز بشكل آلي يضمن امتثال كل أدوات وخوارزميات الذكاء الاصطناعي مع مبادئ الأخلاقيات، وما يلزم ذلك من ضمان امتثال يعين تجنب البشرية أي مخاطر.

والمملكة العربية السعودية بفضل من الله ثم الإرادة والقيادة الرشيدة تعتبر من أولى دول العالم تبنيا لتوصيات ومبادئ أخلاقيات الذكاء الاصطناعي وذات تأثير وتقدير سباق في ميادين المجتمع الدولي في الذكاء الاصطناعي، والسبب لأنها تستقيم مع القيم النبيلة السوية.

ومن هذا المنطلق فإن الخوف من تكنولوجيا الذكاء الاصطناعي بذاتها ليست هي الجوهر، بل الخوف من الإنسان نفسه كصانع ومبرمج ومستخدم؛ لأن الذكاء الاصطناعي لم ولا ولن يستطيع تجاوز ما تم تدريبه وبناؤه برمجيا وستظل قيوده بحدود مواصفات المعالجة وحجم البيانات ومسار الخدمة الموجهة ومستوى التنبؤ وهي حدود نبضاته التقنية، والتي ستظل محل تصرف يحددها الإنسان طوعا ولا تشكل خطرا إن سقطت سهوا؛ لأن ترك هذه الحدود بلا سرج وقيد، لن تخرج الذكاء الاصطناعي من إرادة مسيطرة وإن تطورت عبر العصور، فهي قابلة للتحكم والتطوير وإبطاء الاندفاع إلى الوصول لإيقاف نهائي عند الإرادة.

بما معناه أن جوهر السيطرة ستظل حاضرة للإنسان بلا خوف ولن تحدث خيالات أفلام الدراما المستقبلية من صراع شرار الروبوتح؛ لأن القرار مرتبط بسلطة الوعي الإنساني في ذكائه وناصية عقله؛ وهي أمانة الخالق للبشر وتكليفهم بها في الخلافة على الأرض وإعمارها. فإن أحسن ابن آدم الاختيار فذاك نعمة وخير، ومدعاة للتأمل فيما سخر الله وحسن عبادته سبحانه، وإن اختار الميل لسوء فهذه نقمة ومن فعل النفس والهوى واتباع الشيطان.

ولا ريب إذ يدفع البشر بعضهم بعضا ويسفع الغالب ناصية المعتدي تجريما وغرما، «ولولا دفع الله الناس بعضهم ببعض لفسدت الأرض».

بديهيا يظل الإنسان صاحب التحكم والسيطرة على قدرات الذكاء الاصطناعي؛ لأنه هو المفكر والمتفكر في تطويره، ومع هذا يبقى الخطر الحقيقي فيما يختلج نفوس البشر أنفسهم، لوجود فوارق الفضائل والأخلاق ما ظهر منها أو بطن! فالأخلاقيات بين البشر كفوارق بصمة الإنسان تختلف من شخص لآخر ودولة لأخرى وعقيدة تجاه غيرها، فلا يوجد توافق كلي أو وفاق بالمجمل في الأخلاقيات وإن كانت الفضائل سوية بالفطرة، ولكن الأخلاق مكتسبة نتيجة النشأة والظروف والمتغيرات ومحكومة بالإرادة وتغيراتها مع الزمن بسبب اختلافات النفس الأمارة بالسوء، ما دام الشيطان إلى قيام الساعة.

والمتأمل في أحاديث آخر الزمان «والذي نفسي بيده لا تقوم الساعة حتى تكلم السباع الإنس وحتى تكلم الرجل عذبة سوطه وشراك نعله وتخبره فخذه بما أحدث أهله من بعده». وحديث «فيقول الحجر والشجر: يا مسلم! يا عبد الله هذا يهودي خلفي، فاقتله» سيجد المتأمل تصورا بسيطا -والله تعالى أعلم- أن ربما منتهى التقنية قد توصل الإنسان لبلوغ أعلى وسائل التحدث مع السباع والحجر والشجر والسوط من الجماد وأن السبب في ذلك ربما الذكاء الاصطناعي، وقد يكون نهاية الحضارة تدمير تلك التقنيات بفعل وحدث يسببه الإنسان نفسه، ليعود للقتال بالخيول وبالسيوف في آخر الزمان في إشارة لزوال ما نشاهده ونعرفه من حضارة وتقنيات، والله تعالى أجل وأعلم.

وخلاصة القول، لعلي بت قلقا كالدكتور ماركو ومن المطالبين لكبح جماح الذكاء الاصطناعي ليس لخطرها، ولكن لخطر الإنسان في التعامل معها وبها، ومن المهم إقرار تشريعات أخلاقية ومنهجية يسهل تطبيقها مع أدوات مؤتمتة بالفحص والتقييم والرقابة بشفافية تتوافق مع سرعة التقدم التقني.

ويبقى السؤال أول المقال، ولكن بعد تعديل: كيف يمكن إيقاف أخطار «الإنسان» عند سوء استخدامه للذكاء الاصطناعي؟

وللتقنية حديث وبقية.

king4arabs@