أصدر البيت الأبيض اليوم بيانًا يحدد الالتزامات التي قطعتها العديد من شركات الذكاء الاصطناعي للحد من إنشاء وتوزيع الاعتداء الجنسي القائم على الصور. وقد حددت الشركات المشاركة الخطوات التي تتخذها لمنع استخدام منصاتها لتوليد صور حميمة غير موافقة (NCII) للبالغين ومواد الاعتداء الجنسي على الأطفال (CSAM).
على وجه التحديد، قالت Adobe وAnthropic وCohere وCommon Crawl وMicrosoft وOpenAI إنها ستقوم بما يلي:
“الحصول على مجموعات البيانات الخاصة بها بشكل مسؤول وحمايتها من الاعتداء الجنسي القائم على الصور”
كما اتفق جميع المذكورين أعلاه باستثناء Common Crawl على أنهم سيقومون بما يلي:
“دمج حلقات التغذية الراجعة واستراتيجيات اختبار الإجهاد التكرارية في عمليات التطوير الخاصة بهم، للحماية من نماذج الذكاء الاصطناعي التي تنتج اعتداءً جنسيًا قائمًا على الصور”
و”إزالة الصور العارية من مجموعات بيانات تدريب الذكاء الاصطناعي” عند الاقتضاء.
إنه التزام طوعي، لذا فإن إعلان اليوم لا يخلق أي خطوات أو عواقب قابلة للتنفيذ جديدة للفشل في الوفاء بهذه الوعود. لكن لا يزال الأمر يستحق التصفيق للجهود المبذولة بحسن نية لمعالجة هذه المشكلة الخطيرة. إن الغيابات الملحوظة عن بيان البيت الأبيض اليوم هي Apple وAmazon وGoogle وMeta.
لقد قطعت العديد من شركات التكنولوجيا والذكاء الاصطناعي خطوات كبيرة لتسهيل الأمر على ضحايا NCII لوقف انتشار الصور ومقاطع الفيديو المزيفة بشكل منفصل عن هذا الجهد الفيدرالي. لقد دخلت StopNCII في شراكة مع العديد من الشركات من أجل اتباع نهج شامل لتنقية هذا المحتوى، بينما تطرح شركات أخرى أدوات خاصة للإبلاغ عن الاعتداء الجنسي القائم على الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي على منصاتها.