مسرد المصطلحات

تزييف عميق

اكتشف التكنولوجيا والتطبيقات والمخاوف الأخلاقية المتعلقة بالتزييف العميق، من الترفيه إلى المعلومات المضللة. تعرّف على حلول الكشف والذكاء الاصطناعي.

تدريب YOLO النماذج
ببساطة مع Ultralytics HUB

التعرف على المزيد

يشير مصطلح Deepfakes إلى الوسائط الاصطناعية - الصور أو الفيديو أو الصوت - التي تم إنشاؤها باستخدام الذكاء الاصطناعي، وتحديداً تقنيات التعلّم العميق. هذا المصطلح هو مزيج من "التعلّم العميق" و"التزييف". تسمح هذه التقنيات بالتلاعب بالمحتوى المرئي والصوتي أو توليدها بدرجة عالية من الواقعية، مما يجعل من الممكن تصوير الأفراد وهم يقولون أو يفعلون أشياء لم يقولوها أو يفعلوها في الواقع. وعلى الرغم من ارتباطها في كثير من الأحيان بالاستخدامات الخبيثة، إلا أن التكنولوجيا الأساسية لها تطبيقات مشروعة أيضًا.

كيف يتم إنشاء التزييف العميق

تتضمن الطرق الأكثر شيوعًا لإنشاء التزييف العميق نماذج التعلم العميق مثل شبكات الخصومة التوليدية (GANs) أو أجهزة الترميز التلقائي. في إعداد شبكة GAN، تتنافس شبكتان عصبونيتان: يقوم المولد بإنشاء صور/فيديوهات مزيفة، ويحاول المُميِّز تمييز التزييف عن بيانات التدريب الحقيقية. تدفع هذه العملية العدائية المولد إلى إنتاج صور مزيفة مقنعة بشكل متزايد. تعمل أجهزة التشفير التلقائي من خلال تعلم تمثيلات مضغوطة للوجوه أو الأصوات ثم فك تشفيرها لإعادة بناء أو تبديل الميزات. عادةً ما تتطلب كلتا الطريقتين كميات كبيرة من البيانات (صور أو مقاطع صوتية) للشخص المستهدف لتعلم شبهه وسلوكياته بشكل فعال. تعتمد الجودة والواقعية غالباً على حجم وتنوع هذه البيانات والقدرة الحاسوبية المستخدمة في التدريب.

التطبيقات والأمثلة

تتمتع تقنية التزييف العميق بمجموعة من التطبيقات، تشمل الاستخدامات المفيدة والضارة على حد سواء:

  • الترفيه والإعلام: تُستخدم لدبلجة الأفلام إلى لغات مختلفة مع مزامنة حركات الشفاه، أو إزالة تقادم الممثلين، أو إنشاء مؤثرات خاصة. وتستخدم شركات مثل Synthesia ذكاءً اصطناعيًا مشابهًا لإنشاء مقاطع فيديو تدريبية مع مقدمي العروض الافتراضية.
  • التعليم وإمكانية الوصول: إنشاء عمليات إعادة تمثيل تاريخية واقعية أو تطوير أدوات للأفراد الذين يعانون من إعاقات في التواصل.
  • التضليل والدعاية: تلفيق مقاطع فيديو لشخصيات عامة، مثل السياسيين، لنشر روايات كاذبة أو التأثير على الرأي العام. على سبيل المثال، ظهرت على الإنترنت مقاطع فيديو تم التلاعب بها تُظهر سياسيين يدلون بتصريحات تحريضية(تقرير بي بي سي نيوز عن التزييف العميق).
  • الاحتيال وانتحال الشخصية: إنشاء تسجيلات صوتية أو مقاطع فيديو مزيفة لأغراض الاحتيال المالي، مثل انتحال شخصية مدير تنفيذي لتفويض معاملات احتيالية(مقال فوربس عن الاحتيال بالاستنساخ الصوتي). ويمتد ذلك إلى سرقة الهوية وإنشاء ملفات شخصية مزيفة.
  • التصوير الإباحي غير التوافقي: أحد أقدم التطبيقات وأكثرها ضررًا ينطوي على إدراج وجوه الأفراد رقميًا على مواد إباحية دون موافقتهم.

التزييف العميق مقابل المفاهيم ذات الصلة

على الرغم من وجود برامج تحرير الصور والفيديو منذ عقود، إلا أن برامج التزييف العميق تمثل قفزة كبيرة بسبب اعتمادها على الذكاء الاصطناعي للتعلم وإنشاء محتوى جديد وواقعي، بدلاً من مجرد التلاعب بالبيكسلات الموجودة يدوياً. وهي تندرج تحت مظلة الذكاء الاصطناعي التوليدي، الذي يركز على إنشاء بيانات جديدة. وهذا يختلف عن مهام الذكاء الاصطناعي التمييزية مثل اكتشاف الأجسام أو تصنيف الصور، الشائعة في الرؤية الحاسوبية، حيث يكون الهدف عادةً تحديد أو تصنيف المحتوى الموجود باستخدام نماذج مثل Ultralytics YOLO.

الكشف والشواغل الأخلاقية

يمثل الكشف عن التزييف العميق تحدياً مستمراً، حيث أن التكنولوجيا المستخدمة في إنشائها تتحسن باستمرار. يعمل الباحثون والمنظمات بنشاط على تطوير تقنيات لتحديد الوسائط الاصطناعية، وغالباً ما يبحثون عن التناقضات الدقيقة أو القطع الأثرية التي خلفتها عملية الإنشاء(برنامج الطب الشرعي الإعلامي التابع لوكالة مشاريع البحوث الدفاعية المتقدمة (DARPA)). يثير ظهور التزييف العميق مخاوف كبيرة تتعلق بأخلاقيات الذكاء الاصطناعي المتعلقة بالموافقة، وخصوصية البيانات، والمعلومات المضللة، والتآكل المحتمل للثقة في وسائل الإعلام الرقمية(تحليل معهد بروكينجز). من المهم أيضًا معالجة التحيز المحتمل لمجموعة البيانات في كل من نماذج التوليد والكشف. تعمل منصات مثل Ultralytics HUB على تسهيل تدريب نماذج الذكاء الاصطناعي المختلفة وإدارتها، مما يسلط الضوء على الحاجة إلى ممارسات التطوير المسؤولة في مجال الذكاء الاصطناعي. لمزيد من القراءة حول تطورات الذكاء الاصطناعي، تقدم مصادر مثل MIT Technology Review حول الذكاء الاصطناعي رؤى واسعة النطاق.

قراءة الكل