وثيقة سدايا «مبادئ التزييف العميق».. تعزز الاستخدام المسؤول للذكاء الاصطناعي
الأحد - 10 مايو 2026
Sun - 10 May 2026
برزت تقنيات «التزييف العميق» بوصفها إحدى أكثر التقنيات تأثيرا على المشهد الرقمي عالميا، لما تتيحه من قدرة عالية على إنتاج محتوى صوتي ومرئي يبدو واقعيا بصورة يصعب تمييزها عن الحقيقة، الأمر الذي فتح المجال أمام استخدامات متعددة تحمل في طياتها فرصا واسعة ومخاطر متزايدة في الوقت نفسه. وتناولت وثيقة «مبادئ التزييف العميق» التي أصدرتها الهيئة السعودية للبيانات والذكاء الاصطناعي «سدايا»، مفهوم التزييف العميق بوصفه وسائط اصطناعية يتم إنتاجها عبر تقنيات التعلم العميق للتلاعب بالمحتوى الرقمي، سواء كان صوتا أو صورة أو فيديو، بما يجعل اكتشاف التلاعب أكثر تعقيدا مع تطور أدوات الذكاء الاصطناعي وانتشارها على نطاق واسع. وأوضحت الوثيقة أن هذه التقنيات، رغم ما تحمله من تطبيقات إيجابية في مجالات التعليم، والرعاية الصحية، والترفيه، والتسويق، وصناعة المحتوى، قد تستخدم بصورة خبيثة في عمليات الاحتيال، أو انتحال الشخصيات، أو نشر المعلومات المضللة، أو التأثير على الرأي العام، أو الإضرار بخصوصية الأفراد وسمعتهم، وهو ما يستدعي تطوير أطر أخلاقية وتنظيمية تعزز الاستخدام المسؤول للتقنيات الحديثة.
وبينت الوثيقة أن من أخطر الممارسات المرتبطة بالتزييف العميق استخدام تقنيات تقليد الأصوات والوجوه في عمليات الاحتيال المالي أو التلاعب بالمحتوى أو التضليل الإعلامي، مشيرة إلى أن بعض العمليات الاحتيالية أصبحت تعتمد على انتحال شخصيات تنفيذية أو عامة عبر مكالمات فيديو أو تسجيلات صوتية مزيفة يصعب كشفها بالوسائل التقليدية.