مسرد المصطلحات

خصوصية البيانات

اكتشف تقنيات خصوصية البيانات الرئيسية للذكاء الاصطناعي/التعلم الآلي، بدءًا من إخفاء الهوية إلى التعلُّم الموحد، وضمان الثقة والامتثال والممارسات الأخلاقية للذكاء الاصطناعي.

تدريب YOLO النماذج
ببساطة مع Ultralytics HUB

التعرف على المزيد

تشير خصوصية البيانات، في مجالات الذكاء الاصطناعي (AI) والتعلم الآلي (ML)، إلى المبادئ واللوائح والتقنيات المستخدمة لحماية المعلومات الشخصية والحساسة المستخدمة في أنظمة الذكاء الاصطناعي/التعلم الآلي. وهي تنطوي على إدارة كيفية جمع البيانات ومعالجتها وتخزينها ومشاركتها وحذفها لضمان العدالة والشفافية والتحكم الفردي في المعلومات الشخصية. نظرًا لأن نماذج الذكاء الاصطناعي، مثل نماذج اكتشاف الأشياء، غالبًا ما تتطلب مجموعات بيانات كبيرة للتدريب، فإن تنفيذ تدابير خصوصية البيانات القوية أمر بالغ الأهمية لبناء ثقة المستخدم والامتثال للالتزامات القانونية والتقيد بالمعايير الأخلاقية. يمكنك مراجعة نهج Ultralytics في سياسة الخصوصية الخاصة بنا.

أهمية خصوصية البيانات في الذكاء الاصطناعي والتعلم الآلي

خصوصية البيانات مهمة بشكل أساسي في الذكاء الاصطناعي والتعلم الآلي لعدة أسباب. أولاً، إنها تبني الثقة مع المستخدمين وأصحاب المصلحة. من المرجح أن يتفاعل الأشخاص مع أنظمة الذكاء الاصطناعي إذا كانوا يعتقدون أنه يتم التعامل مع بياناتهم بشكل آمن وأخلاقي. ثانياً، خصوصية البيانات هي مطلب قانوني في العديد من الولايات القضائية. وتضع لوائح مثل اللائحة العامة لحماية البيانات (GDPR) في أوروبا وقانون خصوصية المستهلك في كاليفورنيا (CCPA) معايير صارمة للتعامل مع البيانات، مع فرض عقوبات كبيرة على الانتهاكات. يعد الالتزام بهذه اللوائح أمرًا ضروريًا للمؤسسات التي تنشر حلول الذكاء الاصطناعي على مستوى العالم. ثالثًا، يعد الحفاظ على خصوصية البيانات عنصرًا أساسيًا في أخلاقيات الذكاء الاصطناعي، مما يضمن احترام أنظمة الذكاء الاصطناعي للحقوق الفردية ومنع الضرر الناتج عن إساءة استخدام المعلومات الشخصية أو الكشف عنها، بما في ذلك التخفيف من التحيز الخوارزمي. يُعد التعامل مع الذكاء الاصطناعي المسؤول أحد الاعتبارات الرئيسية للمطورين.

تقنيات ضمان خصوصية البيانات

تُستخدم العديد من التقنيات لتعزيز خصوصية البيانات في تطبيقات الذكاء الاصطناعي والتعلم الآلي:

  • إخفاء الهوية والأسماء المستعارة: تعمل هذه التقنيات على تعديل البيانات الشخصية بحيث لا يمكن التعرف على الأفراد بسهولة. يزيل إخفاء الهوية بشكل لا رجعة فيه معرّفات الهوية، بينما يستبدل إخفاء الهوية بأسماء مستعارة معرّفات مصطنعة، مما يسمح بإعادة تحديد الهوية في ظل ظروف محددة. تتوفر إرشادات حول هذه التقنيات من هيئات مثل مكتب مفوض المعلومات في المملكة المتحدة.
  • الخصوصية التفاضلية: تضيف هذه الطريقة ضوضاء إحصائية إلى مجموعات البيانات أو نتائج الاستعلام. وتسمح لمحللي البيانات باستخراج رؤى مفيدة من البيانات المجمعة مع ضمان حماية المعلومات المتعلقة بأي فرد بشكل رياضي. تستكشف مؤسسات بحثية مثل مشروع أدوات الخصوصية بجامعة هارفارد تطبيقاتها.
  • التعلم الموحد: يمكّن هذا النهج من تدريب نماذج التعلم الآلي عبر أجهزة أو خوادم لا مركزية متعددة تحتفظ بعينات بيانات محلية، دون تبادل البيانات الأولية نفسها. بدلاً من ذلك، تتم مشاركة تحديثات النموذج فقط (مثل التدرجات)، مما يقلل بشكل كبير من مخاطر الخصوصية. تعرف على المزيد من المصادر مثل مدونةGoogle AI Blog على التعلم الموحد.
  • التشفير المتماثل الشكل: تسمح هذه التقنية المتقدمة للتشفير بإجراء العمليات الحسابية مباشرة على البيانات المشفرة دون الحاجة إلى فك تشفيرها أولاً. وعلى الرغم من أن هذه التقنية تتطلب الكثير من العمليات الحسابية، إلا أنها توفر ضمانات خصوصية قوية. استكشف المفاهيم من خلال موارد مثل عملMicrosoft Research على SEAL.
  • الحوسبة الآمنة متعددة الأطراف (SMPC): تمكّن بروتوكولات SMPC أطرافًا متعددة من حساب دالة بشكل مشترك على مدخلاتها مع الحفاظ على خصوصية تلك المدخلات. يمكن الاطلاع على نظرة عامة على ويكيبيديا.

تطبيقات العالم الواقعي لخصوصية البيانات في الذكاء الاصطناعي/التعلم الآلي

تُعد تقنيات خصوصية البيانات أمرًا حيويًا في العديد من تطبيقات الذكاء الاصطناعي/التعلم الآلي:

  1. الرعاية الصحية: في مجال الذكاء الاصطناعي في الرعاية الصحية، تحمي تقنيات الخصوصية معلومات المريض الحساسة عند تدريب النماذج على مهام مثل تحليل الصور الطبية أو تشخيص الأمراض. تسمح تقنيات مثل التعلم الموحد للمستشفيات بالتعاون في تدريب النماذج باستخدام بيانات المريض المحلية دون مشاركتها مباشرة، مما يساعد على الامتثال للوائح مثل قانون HIPAA. توليد البيانات الاصطناعية هو نهج آخر مستخدم هنا.
  2. التمويل: تستخدم البنوك والمؤسسات المالية الذكاء الاصطناعي للكشف عن الاحتيال وتسجيل الائتمان والخدمات الشخصية. تساعد طرق خصوصية البيانات مثل إخفاء الهوية والخصوصية التفاضلية في حماية البيانات المالية للعملاء مع تمكين تطوير هذه الأدوات المالية القائمة على الذكاء الاصطناعي، مما يضمن الامتثال لمعايير مثل معيار أمن بيانات صناعة بطاقات الدفع (PCI DSS).

المفاهيم ذات الصلة

من المهم التمييز بين خصوصية البيانات ومفهوم أمن البيانات ذي الصلة.

  • خصوصية البيانات: يركز على القواعد والسياسات والحقوق الفردية المتعلقة بجمع البيانات الشخصية واستخدامها وتخزينها ومشاركتها. وهو يتناول مسائل مثل ماهية البيانات التي يمكن جمعها، وسبب جمعها، ومن يمكنه الوصول إليها، وكيفية استخدامها بشكل مناسب. وتشمل الاهتمامات الرئيسية الموافقة والشفافية وتحديد الغرض.
  • أمن البيانات: يشمل التدابير التقنية والتنظيمية التي يتم تنفيذها لحماية البيانات من الوصول غير المصرح به والانتهاكات والفساد والتهديدات الأخرى. وتشمل الأمثلة على ذلك التشفير وجدران الحماية وضوابط الوصول وأنظمة كشف التسلل.

على الرغم من أن خصوصية البيانات وأمن البيانات مترابطان، إلا أنهما متمايزان. ويُعد أمن البيانات القوي شرطًا أساسيًا لضمان خصوصية البيانات، حيث إن سياسات الخصوصية غير فعالة إذا لم تكن البيانات محمية بشكل كافٍ من الانتهاكات. وكلاهما عنصران أساسيان لبناء أنظمة ذكاء اصطناعي جديرة بالثقة، وغالبًا ما تتم إدارتهما من خلال ممارسات شاملة لعمليات التعلم الآلي (MLOps). وتدعو منظمات مثل مركز معلومات الخصوصية الإلكترونية (EPIC) إلى توفير حماية قوية للخصوصية، بينما توفر أطر عمل مثل إطار عمل الخصوصية NIST Privacy Framework إرشادات للتنفيذ.

قراءة الكل