فريق تقني لتحديد مخاطر الذكاء الاصطناعي ومنعها
الاثنين / 3 / رجب / 1445 هـ - 21:52 - الاثنين 15 يناير 2024 21:52
أنشأت شركة OpenAI «أوبن إيه آي» فريقا مخصصا لتحديد المخاطر المتعلقة بالذكاء الاصطناعي ومنعها، مما قد يؤدي إلى تعليق إطلاق نموذج للذكاء الاصطناعي إذا اعتبر خطرا للغاية.ويأتي هذا الإعلان بعد شهر من إقالة مبتكر واجهة المحادثة «تشات جي بي تي» سام ألتمان الذي أعيد إلى منصبه بعد بضعة أيام.وذكرت وسائل إعلام أمريكية أن أعضاء في مجلس الإدارة أخذوا على ألتمان تفضيله التطوير السريع لـ«أوبن إيه آي» حتى لو كان ذلك على حساب انتهاكات محتملة قد يتحمل مسؤوليتها الذكاء الاصطناعي.وسيقود فريق الاستعداد الباحث في علوم الكمبيوتر ألكسندر مادري، وهو في إجازة من معهد ماساتشوستس للتكنولوجيا MIT (إم آي تي)، حيث يعمل أستاذا، بحسب رسالة نشرها الأكاديمي الاثنين الماضي على منصة إكس (تويتر سابقا).وستهتم هذه المجموعة الجديدة بشكل أساسي بما يسمى بالنماذج «الطليعية» (frontier models)، التي تطور حاليا وتتفوق بقدراتها على البرامج الأكثر تقدما في مجال الذكاء الاصطناعي.وقال مسؤولو «أوبن إيه آي» في الوثيقة «نعتقد أن الدراسة العلمية لمخاطر الكوارث الناشئة عن الذكاء الاصطناعي غير كافية على الإطلاق»، معتبرين أن إنشاء إطار عمل من شأنه أن «يساعد في سد هذه الفجوة».وسيعمد الفريق إلى تقويم كل نموذج جديد وتحديد مستوى المخاطر الناجمة عنه في أربع فئات رئيسة.ويتعلق الأول بالأمن السيبراني وقدرة النموذج على تنفيذ هجمات معلوماتية واسعة النطاق.أما الثاني فسيقيس ميل البرنامجللمساعدة في إنشاء خليط كيميائي، أو كائن حي (مثل فيروس).