اكتشف التكنولوجيا والتطبيقات والمخاوف الأخلاقية المتعلقة بالتزييف العميق، من الترفيه إلى المعلومات المضللة. تعرّف على حلول الكشف والذكاء الاصطناعي.
يشير مصطلح Deepfakes إلى الوسائط الاصطناعية - الصور أو الفيديو أو الصوت - التي تم إنشاؤها باستخدام الذكاء الاصطناعي، وتحديداً تقنيات التعلّم العميق. هذا المصطلح هو مزيج من "التعلّم العميق" و"التزييف". تسمح هذه التقنيات بالتلاعب بالمحتوى المرئي والصوتي أو توليدها بدرجة عالية من الواقعية، مما يجعل من الممكن تصوير الأفراد وهم يقولون أو يفعلون أشياء لم يقولوها أو يفعلوها في الواقع. وعلى الرغم من ارتباطها في كثير من الأحيان بالاستخدامات الخبيثة، إلا أن التكنولوجيا الأساسية لها تطبيقات مشروعة أيضًا.
تتضمن الطرق الأكثر شيوعًا لإنشاء التزييف العميق نماذج التعلم العميق مثل شبكات الخصومة التوليدية (GANs) أو أجهزة الترميز التلقائي. في إعداد شبكة GAN، تتنافس شبكتان عصبونيتان: يقوم المولد بإنشاء صور/فيديوهات مزيفة، ويحاول المُميِّز تمييز التزييف عن بيانات التدريب الحقيقية. تدفع هذه العملية العدائية المولد إلى إنتاج صور مزيفة مقنعة بشكل متزايد. تعمل أجهزة التشفير التلقائي من خلال تعلم تمثيلات مضغوطة للوجوه أو الأصوات ثم فك تشفيرها لإعادة بناء أو تبديل الميزات. عادةً ما تتطلب كلتا الطريقتين كميات كبيرة من البيانات (صور أو مقاطع صوتية) للشخص المستهدف لتعلم شبهه وسلوكياته بشكل فعال. تعتمد الجودة والواقعية غالباً على حجم وتنوع هذه البيانات والقدرة الحاسوبية المستخدمة في التدريب.
تتمتع تقنية التزييف العميق بمجموعة من التطبيقات، تشمل الاستخدامات المفيدة والضارة على حد سواء:
على الرغم من وجود برامج تحرير الصور والفيديو منذ عقود، إلا أن برامج التزييف العميق تمثل قفزة كبيرة بسبب اعتمادها على الذكاء الاصطناعي للتعلم وإنشاء محتوى جديد وواقعي، بدلاً من مجرد التلاعب بالبيكسلات الموجودة يدوياً. وهي تندرج تحت مظلة الذكاء الاصطناعي التوليدي، الذي يركز على إنشاء بيانات جديدة. وهذا يختلف عن مهام الذكاء الاصطناعي التمييزية مثل اكتشاف الأجسام أو تصنيف الصور، الشائعة في الرؤية الحاسوبية، حيث يكون الهدف عادةً تحديد أو تصنيف المحتوى الموجود باستخدام نماذج مثل Ultralytics YOLO.
يمثل الكشف عن التزييف العميق تحدياً مستمراً، حيث أن التكنولوجيا المستخدمة في إنشائها تتحسن باستمرار. يعمل الباحثون والمنظمات بنشاط على تطوير تقنيات لتحديد الوسائط الاصطناعية، وغالباً ما يبحثون عن التناقضات الدقيقة أو القطع الأثرية التي خلفتها عملية الإنشاء(برنامج الطب الشرعي الإعلامي التابع لوكالة مشاريع البحوث الدفاعية المتقدمة (DARPA)). يثير ظهور التزييف العميق مخاوف كبيرة تتعلق بأخلاقيات الذكاء الاصطناعي المتعلقة بالموافقة، وخصوصية البيانات، والمعلومات المضللة، والتآكل المحتمل للثقة في وسائل الإعلام الرقمية(تحليل معهد بروكينجز). من المهم أيضًا معالجة التحيز المحتمل لمجموعة البيانات في كل من نماذج التوليد والكشف. تعمل منصات مثل Ultralytics HUB على تسهيل تدريب نماذج الذكاء الاصطناعي المختلفة وإدارتها، مما يسلط الضوء على الحاجة إلى ممارسات التطوير المسؤولة في مجال الذكاء الاصطناعي. لمزيد من القراءة حول تطورات الذكاء الاصطناعي، تقدم مصادر مثل MIT Technology Review حول الذكاء الاصطناعي رؤى واسعة النطاق.