تعرّف على كيفية حماية الخصوصية التفاضلية للبيانات الحساسة في الذكاء الاصطناعي/التشغيل الآلي، مما يضمن الخصوصية مع تمكين التحليل الدقيق والامتثال للوائح التنظيمية.
الخصوصية التفاضلية هي نظام لمشاركة المعلومات حول مجموعة بيانات بشكل علني من خلال وصف أنماط المجموعات داخل مجموعة البيانات مع حجب المعلومات حول الأفراد في مجموعة البيانات. وهو يوفر ضمانات رياضية قوية بأن وجود أو عدم وجود بيانات أي فرد في مجموعة البيانات لن يؤثر بشكل كبير على نتيجة أي تحليل. وهذا أمر بالغ الأهمية في مجالات الذكاء الاصطناعي (AI) والتعلم الآلي (ML)، حيث يتم تدريب النماذج في كثير من الأحيان على كميات كبيرة من بيانات التدريب التي يحتمل أن تكون حساسة. يؤدي ضمان الخصوصية الفردية إلى بناء الثقة وتسهيل الامتثال للوائح مثل اللائحة العامة لحماية البيانات (GDPR).
تتمثل الفكرة الأساسية وراء الخصوصية التفاضلية في إدخال قدر من العشوائية، التي يُشار إليها غالبًا باسم "الضوضاء"، في عملية تحليل البيانات. تتم معايرة هذه الضوضاء بعناية لإخفاء المساهمات الفردية مع السماح في الوقت نفسه باستخراج إحصائيات مجمعة ذات مغزى أو تدريب نماذج مفيدة للتعلم الآلي. غالبًا ما يتم التحكم في مستوى الخصوصية من خلال معلمة تسمى إبسيلون (ε)، والتي تمثل "ميزانية الخصوصية". إبسيلون الأصغر يعني المزيد من الضوضاء وضمانات خصوصية أقوى، ولكن من المحتمل أن تكون الفائدة أو الدقة في النتائج أقل. تم إضفاء الطابع الرسمي على هذا المفهوم من قبل باحثين مثل سينثيا دورك.
في الذكاء الاصطناعي والتعلّم الآلي، تُعد الخصوصية التفاضلية ضرورية عند التعامل مع مجموعات البيانات الحساسة، مثل بيانات سلوك المستخدم أو الاتصالات الشخصية أو السجلات الطبية المستخدمة في تطبيقات مثل الذكاء الاصطناعي في الرعاية الصحية. فهي تسمح للمؤسسات بالاستفادة من مجموعات البيانات الكبيرة لتدريب نماذج قوية، مثل تلك المستخدمة في اكتشاف الأجسام أو تصنيف الصور، دون الكشف عن معلومات المستخدم الفردية. يمكن استخدام تقنيات مثل النسب التدرجي العشوائي الخاص التفاضلي (SGD) لتدريب نماذج التعلم العميق (DL) مع ضمانات الخصوصية. ويُعد تطبيق مثل هذه التقنيات جانبًا أساسيًا من جوانب التطوير المسؤول للذكاء الاصطناعي ودعم أخلاقيات الذكاء الاصطناعي.
يتم استخدام الخصوصية التفاضلية من قبل شركات ومؤسسات التكنولوجيا الكبرى:
من المهم التمييز بين الخصوصية التفاضلية وتقنيات حماية البيانات الأخرى:
يتمثل التحدي الرئيسي في الخصوصية التفاضلية في إدارة المفاضلة المتأصلة بين الخصوصية والمنفعة. فزيادة الخصوصية (إضافة المزيد من الضوضاء) غالبًا ما يقلل من دقة أو فائدة التحليل أو نموذج التعلم الآلي الناتج. يتطلب اختيار المستوى الصحيح من الضوضاء (إبسيلون) وتنفيذ الآليات بشكل صحيح خبرة. تهدف الموارد والأدوات مثل مكتبة OpenDP إلى تسهيل تنفيذ الخصوصية التفاضلية. كما تقدم منظمات مثل المعهد الوطني الأمريكي للمعايير والتكنولوجيا (NIST) إرشادات.
توفر الخصوصية التفاضلية إطاراً قوياً لتمكين تحليل البيانات والتعلم الآلي مع حماية الخصوصية الفردية بشكل صارم، مما يجعلها تقنية أساسية لأنظمة الذكاء الاصطناعي الجديرة بالثقة. تعطي منصات مثل Ultralytics HUB الأولوية لتطوير الذكاء الاصطناعي الآمن والأخلاقي، بما يتماشى مع المبادئ التي تقدر حماية بيانات المستخدم.