مسرد المصطلحات

الخصوصية التفاضلية

تعرّف على كيفية حماية الخصوصية التفاضلية للبيانات الحساسة في الذكاء الاصطناعي/التشغيل الآلي، مما يضمن الخصوصية مع تمكين التحليل الدقيق والامتثال للوائح التنظيمية.

تدريب YOLO النماذج
ببساطة مع Ultralytics HUB

التعرف على المزيد

الخصوصية التفاضلية هي نظام لمشاركة المعلومات حول مجموعة بيانات بشكل علني من خلال وصف أنماط المجموعات داخل مجموعة البيانات مع حجب المعلومات حول الأفراد في مجموعة البيانات. وهو يوفر ضمانات رياضية قوية بأن وجود أو عدم وجود بيانات أي فرد في مجموعة البيانات لن يؤثر بشكل كبير على نتيجة أي تحليل. وهذا أمر بالغ الأهمية في مجالات الذكاء الاصطناعي (AI) والتعلم الآلي (ML)، حيث يتم تدريب النماذج في كثير من الأحيان على كميات كبيرة من بيانات التدريب التي يحتمل أن تكون حساسة. يؤدي ضمان الخصوصية الفردية إلى بناء الثقة وتسهيل الامتثال للوائح مثل اللائحة العامة لحماية البيانات (GDPR).

كيف تعمل الخصوصية التفاضلية

تتمثل الفكرة الأساسية وراء الخصوصية التفاضلية في إدخال قدر من العشوائية، التي يُشار إليها غالبًا باسم "الضوضاء"، في عملية تحليل البيانات. تتم معايرة هذه الضوضاء بعناية لإخفاء المساهمات الفردية مع السماح في الوقت نفسه باستخراج إحصائيات مجمعة ذات مغزى أو تدريب نماذج مفيدة للتعلم الآلي. غالبًا ما يتم التحكم في مستوى الخصوصية من خلال معلمة تسمى إبسيلون (ε)، والتي تمثل "ميزانية الخصوصية". إبسيلون الأصغر يعني المزيد من الضوضاء وضمانات خصوصية أقوى، ولكن من المحتمل أن تكون الفائدة أو الدقة في النتائج أقل. تم إضفاء الطابع الرسمي على هذا المفهوم من قبل باحثين مثل سينثيا دورك.

الأهمية في الذكاء الاصطناعي والتعلم الآلي

في الذكاء الاصطناعي والتعلّم الآلي، تُعد الخصوصية التفاضلية ضرورية عند التعامل مع مجموعات البيانات الحساسة، مثل بيانات سلوك المستخدم أو الاتصالات الشخصية أو السجلات الطبية المستخدمة في تطبيقات مثل الذكاء الاصطناعي في الرعاية الصحية. فهي تسمح للمؤسسات بالاستفادة من مجموعات البيانات الكبيرة لتدريب نماذج قوية، مثل تلك المستخدمة في اكتشاف الأجسام أو تصنيف الصور، دون الكشف عن معلومات المستخدم الفردية. يمكن استخدام تقنيات مثل النسب التدرجي العشوائي الخاص التفاضلي (SGD) لتدريب نماذج التعلم العميق (DL) مع ضمانات الخصوصية. ويُعد تطبيق مثل هذه التقنيات جانبًا أساسيًا من جوانب التطوير المسؤول للذكاء الاصطناعي ودعم أخلاقيات الذكاء الاصطناعي.

التطبيقات الواقعية

يتم استخدام الخصوصية التفاضلية من قبل شركات ومؤسسات التكنولوجيا الكبرى:

  • Apple: يستخدم الخصوصية التفاضلية لجمع إحصائيات الاستخدام (مثل الرموز التعبيرية الشائعة أو أنواع البيانات الصحية) من ملايين أجهزة iOS و macOS دون معرفة تفاصيل عن المستخدمين الأفراد. تعرف على المزيد حول نهج Apple.
  • Google: يطبّق الخصوصية التفاضلية في العديد من المنتجات، بما في ذلك Google Chrome لجمع بيانات القياس عن بُعد وفي تدريب نماذج التعلم الآلي ضمن أطر عمل مثل خصوصيةTensorFlow . وهو أيضًا مكوّن يُستخدم غالبًا إلى جانب التعلم الموحد لحماية بيانات المستخدم أثناء تدريب النماذج الموزعة.

الخصوصية التفاضلية مقابل المفاهيم ذات الصلة

من المهم التمييز بين الخصوصية التفاضلية وتقنيات حماية البيانات الأخرى:

  • إخفاء الهوية: تتضمن تقنيات إخفاء الهوية التقليدية إزالة أو تغيير معلومات التعريف الشخصية (PII). ومع ذلك، يمكن أحيانًا إعادة تحديد هوية البيانات مجهولة المصدر من خلال هجمات الربط. توفر الخصوصية التفاضلية ضماناً أقوى ويمكن إثباته رياضياً ضد مثل هذه المخاطر.
  • أمن البيانات: يركز على حماية البيانات من الوصول غير المصرح به والاختراقات والتهديدات الإلكترونية باستخدام تدابير مثل التشفير وضوابط الوصول. الخصوصية التفاضلية تكمل أمن البيانات من خلال حماية الخصوصية الفردية حتى عندما يتم الوصول إلى البيانات لتحليلها من قبل الأطراف المصرح لها.
  • التعلّم الاتحادي: تقنية تدريب يتم فيها تدريب النماذج على الأجهزة اللامركزية دون مركزية البيانات الأولية. وفي حين أنه يعزز خصوصية البيانات، غالبًا ما تتم إضافة الخصوصية التفاضلية لزيادة حماية تحديثات النموذج المرسلة من الأجهزة.

التحديات والاعتبارات

يتمثل التحدي الرئيسي في الخصوصية التفاضلية في إدارة المفاضلة المتأصلة بين الخصوصية والمنفعة. فزيادة الخصوصية (إضافة المزيد من الضوضاء) غالبًا ما يقلل من دقة أو فائدة التحليل أو نموذج التعلم الآلي الناتج. يتطلب اختيار المستوى الصحيح من الضوضاء (إبسيلون) وتنفيذ الآليات بشكل صحيح خبرة. تهدف الموارد والأدوات مثل مكتبة OpenDP إلى تسهيل تنفيذ الخصوصية التفاضلية. كما تقدم منظمات مثل المعهد الوطني الأمريكي للمعايير والتكنولوجيا (NIST) إرشادات.

توفر الخصوصية التفاضلية إطاراً قوياً لتمكين تحليل البيانات والتعلم الآلي مع حماية الخصوصية الفردية بشكل صارم، مما يجعلها تقنية أساسية لأنظمة الذكاء الاصطناعي الجديرة بالثقة. تعطي منصات مثل Ultralytics HUB الأولوية لتطوير الذكاء الاصطناعي الآمن والأخلاقي، بما يتماشى مع المبادئ التي تقدر حماية بيانات المستخدم.

قراءة الكل