نشر مجموعة من الباحثين في جامعات أمريكية وسويسرية، بالتعاون مع شركة «قوقل» وشركتها الفرعية DeepMind، ورقة بحثية توضح كيف يمكن أن تتسرب البيانات من منصات إنشاء الصور التي تستند في عملها إلى نماذج الذكاء الاصطناعي التوليدي، مثل: (DALL-E)، أو (Imagen)، أو (Stable Diffusion). إذ تعمل هذه المنصات جميعها بالطريقة نفسها، والتي تعتمد على جانب المستخدم الذي يكتب مطالبة نصية محددة، على سبيل المثال: «كرسي بذراعين على شكل ثمرة أفوكادو»، ويحصل على صورة مولدة من النص خلال ثوان.
وقد دُربت نماذج الذكاء الاصطناعي التوليدي المستخدمة في هذه المنصات على عدد كبير جدا من الصور، التي تحمل وصفا محددا سابقا.
وتُظهر الدراسة الجديدة أن هذه الصور ليست دائما فريدة، وفي بعض الحالات يمكن أن تقوم الشبكة العصبية بإعادة إنتاج صورة مطابقة تماما لصورة سابقة استخدمت في التدريب، وهذا يعني أن الشبكات العصبية قد تكشف عن المعلومات الخاصة دون قصد.
وقد دُربت نماذج الذكاء الاصطناعي التوليدي المستخدمة في هذه المنصات على عدد كبير جدا من الصور، التي تحمل وصفا محددا سابقا.
وتُظهر الدراسة الجديدة أن هذه الصور ليست دائما فريدة، وفي بعض الحالات يمكن أن تقوم الشبكة العصبية بإعادة إنتاج صورة مطابقة تماما لصورة سابقة استخدمت في التدريب، وهذا يعني أن الشبكات العصبية قد تكشف عن المعلومات الخاصة دون قصد.