حكاية ناي ♔
02-13-2024, 08:47 AM
تبدأ ميتا خلال الأشهر المقبلة بتصنيف الصور المولدة بالذكاء الاصطناعي المرفوعة عبر منصات فيسبوك وإنستاجرام وثردز مع اقتراب مواسم الانتخابات في جميع أنحاء العالم.
كما تبدأ الشركة أيضًا بمعاقبة المستخدمين الذين لا يكشفون عن كون المقطع المرئي أو الصوتي الواقعي قد جرى تعديله بالذكاء الاصطناعي.
وقال نيك كليج، رئيس الشؤون العالمية في ميتا، إن هذه الخطوات تهدف إلى تحفيز صناعة التكنولوجيا، إذ أصبح من الصعب تمييز الوسائط المولدة بالذكاء الاصطناعي عن الوسائط الحقيقية.
وضغط البيت الأبيض على الشركات لوضع علامة مائية على المحتوى المولد بالذكاء الاصطناعي.
وتعمل ميتا على بناء أدوات للكشف عن الوسائط الاصطناعية حتى لو كانت بياناتها الوصفية معدلة للتعتيم على دور الذكاء الاصطناعي في توليدها.وتطبق ميتا العلامة المائية Imagined with AI على الصور المولدة باستخدام مولدها للصور بالذكاء الاصطناعي.
وتبدأ الشركة بتطبيق العلامة المائية مع الصور المولدة بالذكاء الاصطناعي باستخدام أدوات من جوجل ومايكروسوفت وأدوبي و OpenAI و Midjourney و Shutterstock.
وقال كليج إن الصناعة متأخرة كثيرًا في بناء معايير لتحديد الفيديو والصوت المولد بالذكاء الاصطناعي.
وتسعى الشركة إلى معرفة كيفية استخدام هذه الوسائط للخداع، مع أنها لن تكون قادرة وحدها على اكتشاف كل شيء.
وتعمل ميتا مع مجموعات، مثل Partnership on AI، للبناء على مبادرات أصالة المحتوى الحالية.
وأصدرت أدوبي سابقًا نظام Content Credentials من أجل وضع معلومات مصدر المحتوى في البيانات الوصفية للصور.
ووسعت جوجل علامتها المائية SynthID لتشمل الملفات الصوتية بعد إطلاقها في مرحلة تجريبية للصور.
وتبدأ ميتا قريبًا بمطالبة مستخدميها بالكشف عن وقت إنشاء منشورات الفيديو أو الصوت الواقعية المعدلة بالذكاء الاصطناعي.
وفي حال لم يكشف المستخدمون عن ذلك، فإن نطاق العقوبات المطبقة يشمل النطاق الكامل من التحذيرات وحتى إزالة المنشور المخالف.
وبدأت ميتا أيضًا اختبارًا داخليًا لاستخدام النماذج اللغوية الكبيرة المدربة على معاييرها للمجتمع، ووصفتها بأنها آلية فرز فعالة لعشرات الآلاف من المشرفين البشريين.
وبحسب ميتا، فإن هذه النماذج تعد طريقة فعالة ودقيقة لضمان أن ما يصل إلى المراجعين البشريين هي الحالات المتطرفة التي تحتاج إلى الحكم البشري.
كما تبدأ الشركة أيضًا بمعاقبة المستخدمين الذين لا يكشفون عن كون المقطع المرئي أو الصوتي الواقعي قد جرى تعديله بالذكاء الاصطناعي.
وقال نيك كليج، رئيس الشؤون العالمية في ميتا، إن هذه الخطوات تهدف إلى تحفيز صناعة التكنولوجيا، إذ أصبح من الصعب تمييز الوسائط المولدة بالذكاء الاصطناعي عن الوسائط الحقيقية.
وضغط البيت الأبيض على الشركات لوضع علامة مائية على المحتوى المولد بالذكاء الاصطناعي.
وتعمل ميتا على بناء أدوات للكشف عن الوسائط الاصطناعية حتى لو كانت بياناتها الوصفية معدلة للتعتيم على دور الذكاء الاصطناعي في توليدها.وتطبق ميتا العلامة المائية Imagined with AI على الصور المولدة باستخدام مولدها للصور بالذكاء الاصطناعي.
وتبدأ الشركة بتطبيق العلامة المائية مع الصور المولدة بالذكاء الاصطناعي باستخدام أدوات من جوجل ومايكروسوفت وأدوبي و OpenAI و Midjourney و Shutterstock.
وقال كليج إن الصناعة متأخرة كثيرًا في بناء معايير لتحديد الفيديو والصوت المولد بالذكاء الاصطناعي.
وتسعى الشركة إلى معرفة كيفية استخدام هذه الوسائط للخداع، مع أنها لن تكون قادرة وحدها على اكتشاف كل شيء.
وتعمل ميتا مع مجموعات، مثل Partnership on AI، للبناء على مبادرات أصالة المحتوى الحالية.
وأصدرت أدوبي سابقًا نظام Content Credentials من أجل وضع معلومات مصدر المحتوى في البيانات الوصفية للصور.
ووسعت جوجل علامتها المائية SynthID لتشمل الملفات الصوتية بعد إطلاقها في مرحلة تجريبية للصور.
وتبدأ ميتا قريبًا بمطالبة مستخدميها بالكشف عن وقت إنشاء منشورات الفيديو أو الصوت الواقعية المعدلة بالذكاء الاصطناعي.
وفي حال لم يكشف المستخدمون عن ذلك، فإن نطاق العقوبات المطبقة يشمل النطاق الكامل من التحذيرات وحتى إزالة المنشور المخالف.
وبدأت ميتا أيضًا اختبارًا داخليًا لاستخدام النماذج اللغوية الكبيرة المدربة على معاييرها للمجتمع، ووصفتها بأنها آلية فرز فعالة لعشرات الآلاف من المشرفين البشريين.
وبحسب ميتا، فإن هذه النماذج تعد طريقة فعالة ودقيقة لضمان أن ما يصل إلى المراجعين البشريين هي الحالات المتطرفة التي تحتاج إلى الحكم البشري.