المنصة الاقتصادية العربية

طرحت شركة “أوبن آي”، المبتكرة لبرنامج ChatGPT المتخصص في الذكاء الاصطناعي التوليدي، أداة جديدة تسمح للباحثين بمراقبة صحة الصور الرقمية المُبتكرة بواسطة الذكاء الاصطناعي.

تقوم الأداة من التحقق من مصداقية المحتوى على الإنترنت، وهو أمر يثير قلقًا مع انتشار أدوات الذكاء الاصطناعي التوليدي التي تُنتج مختلف أنواع المحتوى بناءً على طلب بسيط، مثل الصور أو التسجيلات المزيفة للأشخاص لأغراض ضارة كالاحتيال.

أعلنت OpenAI أنها طورت برنامجًا يراقب أي صور تم إنشاؤها باستخدام أداة DALL·E 3.

وأشارت الشركة، المقرة في كاليفورنيا، في بيان عبر الإنترنت، إلى أن الاختبارات الداخلية على إصدار سابق من الأداة أظهرت أنها “تتعرف بشكل صحيح على ما يصل إلى 98% من الصور المبتكرة بواسطة DALL·E 3، مع معدل ضئيل للخطأ الذي لا يتجاوز 0.5% في التصنيف”.

أوضحت الشركة، المدعومة بشكل كبير من قبل Microsoft، أن فاعلية برنامجها تنخفض عند تعديل الصور المُنشأة بواسطة DALL·E 3، أو عندما يتم إنشاء الصور بواسطة نماذج أخرى.

أعلنت OpenAI أيضًا أنها ستُضيف علامات إلى الصور المبتكرة بواسطة الذكاء الاصطناعي، لتتوافق مع معايير التحالف من أجل مصدر المحتوى وأصالة البيانات الرقمية المسمى C2PA.

تُعد هذه المبادرة مبادرة في مجال التكنولوجيا التي وضعت معايير تقنية لتحديد مصدر المحتوى الرقمي وتأكيد أصالته.

في الشهر الماضي، أعلنت META، الشركة الأم لـ Facebook و Instagram، أنها ستبدأ في تصنيف المحتوى المبتكر بواسطة الذكاء الاصطناعي استنادًا إلى معايير التحالف. وقد انضمت Google إلى المبادرة أيضًا.

شاركها.