ميتا تقوم بتصنيف الصور المزيفة التي تم إنشاؤها بواسطة الذكاء الاصطناعي
ميتا تنوي تمييز الصور الاصطناعية على فيسبوك وإنستاجرام وثردز قبل انتخابات عالمية
التقدم في مجال الذكاء الاصطناعي الشفافية والتحديات والحلول في إنشاء الصور
ميتا تفرض عقوبات على المستخدمين الذين يخفون تعديل الفيديوهات والصوتيات بالذكاء الاصطناعي
نيك كليج من ميتا يقول إن الهدف من هذه الخطوات هو دفع قطاع التكنولوجيا للتقدم، في ظل صعوبة التفريق بين الوسائط الحقيقية والاصطناعية
البيت الأبيض يدعو الشركات لإضافة علامات مائية على المحتوى المولد بالذكاء الاصطناعي
ميتا تعمل على تطوير أدوات لاكتشاف الوسائط الاصطناعية حتى لو تم تغيير بياناتها الوصفية لإخفاء دور الذكاء الاصطناعي في إنشائها
تستخدم ميتا العلامة المائية “Imagined with AI” على الصور التي تم إنشاؤها باستخدام محركها لتوليد الصور بالذكاء الاصطناعي، وهذا يعزز الشفافية حول كيفية إنشاء الصور.
تعمل الشركة على تطبيق هذه العلامة المائية على الصور التي تم إنشاؤها باستخدام أدوات الذكاء الاصطناعي من شركات مثل جوجل ومايكروسوفت وأدوبي و OpenAI و Midjourney و Shutterstock، وهذا يعكس التعاون الواسع في مجال الذكاء الاصطناعي.
كليج، أحد القادة في الشركة، أشار إلى أن الصناعة بحاجة إلى القيام بالمزيد من العمل في تطوير معايير لتحديد الفيديو والصوت المولد بالذكاء الاصطناعي، مما يشير إلى الحاجة إلى المزيد من الابتكار في هذا المجال.
تهدف الشركة إلى فهم كيف يمكن استخدام هذه الوسائط للتضليل، وتعترف بأنها لن تكون قادرة على اكتشاف كل الاستخدامات المضللة بمفردها، مما يشير إلى الحاجة إلى التعاون والتنسيق مع الآخرين.
تعمل ميتا مع مجموعات مثل Partnership on AI لتعزيز مبادرات أصالة المحتوى الحالية، مما يعكس التزامها بالشفافية والمسؤولية في مجال الذكاء الاصطناعي.
أدوبي قد أطلقت نظام Content Credentials لتضمين معلومات المصدر في البيانات الوصفية للصور، مما يعزز الشفافية والثقة في المحتوى الرقمي.
جوجل قد وسعت علامتها المائية SynthID لتشمل الملفات الصوتية بعد أن أطلقتها في مرحلة تجريبية للصور، مما يعكس التقدم المستمر في تطبيقات الذكاء الاصطناعي.
ستبدأ ميتا قريبًا في طلب من المستخدمين الكشف عن توقيت إنشاء المنشورات الصوتية أو الفيديو الواقعية التي تم تعديلها بالذكاء الاصطناعي، مما يعزز الشفافية والمسؤولية.
إذا لم يكشف المستخدمون عن هذه المعلومات، فإن العقوبات المحتملة تتراوح من التحذيرات إلى إزالة المنشور، مما يعكس التزام ميتا بالمعايير والقواعد.
ميتا بدأت اختبارًا داخليًا لاستخدام النماذج اللغوية الكبيرة التي تم تدريبها على معاييرها للمجتمع، ووصفتها بأنها آلية فعالة لفرز المحتوى للمشرفين البشريين.
وفقًا لميتا، هذه النماذج تعتبر طريقة فعالة ودقيقة لضمان أن المحتوى الذي يصل إلى المراجعين البشريين هو الحالات المتطرفة التي تحتاج إلى الحكم البشري.