Entdecken Sie wichtige Datensicherheitsstrategien für KI. Lernen Sie, wie Sie Ultralytics Modelle schützen, sich gegen böswillige Angriffe verteidigen und automatisierte Schwärzungen implementieren können.
Datensicherheit umfasst die Schutzmaßnahmen, Strategien und Technologien, die eingesetzt werden, um digitale Informationen während ihres gesamten Lebenszyklus vor unbefugtem Zugriff, Beschädigung, Diebstahl oder Störung zu schützen. Im Zusammenhang mit maschinellem Lernen (ML) und künstlicher Intelligenz (KI) ist diese Disziplin von größter Bedeutung, um die Zuverlässigkeit von Vorhersagesystemen zu gewährleisten und das Vertrauen der Nutzer aufrechtzuerhalten. Dazu gehört die Sicherung der für das Training erforderlichen umfangreichen Datensätze, der Schutz der proprietären Algorithmen, die das Modellverhalten definieren, und die Absicherung der Infrastruktur, in der diese Modelle betrieben werden. Eine umfassende Sicherheitsstrategie befasst sich mit der „CIA-Triade“ – der Gewährleistung der Vertraulichkeit, Integrität und Verfügbarkeit von Datenbeständen.
Da Unternehmen zunehmend Computer Vision (CV) und andere KI-Technologien in kritische Arbeitsabläufe integrieren, vergrößert sich die Angriffsfläche für potenzielle Sicherheitsverletzungen. Die Sicherung einer KI-Pipeline unterscheidet sich von der herkömmlichen IT-Sicherheit, da die Modelle selbst angegriffen oder manipuliert werden können.
Datensicherheit ist eine grundlegende Voraussetzung für den Einsatz vertrauenswürdiger KI-Systeme in sensiblen Branchen.
Im Bereich der KI im Gesundheitswesen erfordert der Umgang mit Patientendaten die strikte Einhaltung von Vorschriften wie HIPAA. Wenn Krankenhäuser medizinische Bildanalysen zur detect oder Frakturen einsetzen, muss die Datenpipeline sowohl im Ruhezustand als auch während der Übertragung verschlüsselt sein. Darüber hinaus entfernen Systeme häufig DICOM-Metadaten oder nutzen Edge-KI, um Bilder lokal auf dem Gerät zu verarbeiten, wodurch sichergestellt wird, dass sensible personenbezogene Daten (PII) niemals das sichere Netzwerk der Einrichtung verlassen.
Moderne Smart Cities nutzen die Objekterkennung, um den Verkehrsfluss zu steuern und die öffentliche Sicherheit zu verbessern. Um Datenschutzstandards wie die DSGVO zu erfüllen, verwenden Sicherheitskameras häufig Echtzeit-Unkenntlichmachungsverfahren. So kann das System zwar Fahrzeuge zählen oder detect , verschleiert jedoch automatisch Kennzeichen und Gesichter, um die Identität der Bürger zu schützen.
Eine gängige Technik zur Datensicherheit in der Bildverarbeitung ist das automatische Verwischen sensibler Objekte während der Inferenz.
Der folgende Python zeigt, wie man ultralytics mit dem
YOLO26 Modell, um detect in einem Bild detect und eine
Gaußsche Unschärfe auf ihre Begrenzungsrahmen anzuwenden, wodurch die Personen effektiv anonymisiert werden, bevor die Daten gespeichert oder
übertragen werden.
import cv2
from ultralytics import YOLO
# Load the YOLO26 model (optimized for real-time inference)
model = YOLO("yolo26n.pt")
image = cv2.imread("street_scene.jpg")
# Perform object detection to find persons (class index 0)
results = model(image, classes=[0])
# Blur the detected regions to protect identity
for result in results:
for box in result.boxes.xyxy:
x1, y1, x2, y2 = map(int, box)
# Apply Gaussian blur to the Region of Interest (ROI)
image[y1:y2, x1:x2] = cv2.GaussianBlur(image[y1:y2, x1:x2], (51, 51), 0)
Obwohl die Begriffe häufig synonym verwendet werden, ist es wichtig, zwischen Datensicherheit und Datenschutz zu unterscheiden.
Sicherheit ist die technische Voraussetzung für Datenschutz. Ohne robuste Sicherheitsmaßnahmen können Datenschutzrichtlinien nicht wirksam durchgesetzt werden. Für Teams, die den gesamten ML-Lebenszyklus verwalten, bietet Ultralytics eine zentralisierte Umgebung zum Kommentieren, Trainieren und Bereitstellen von Modellen unter Einhaltung strenger Sicherheitsstandards für die Verwaltung von Datensätzen.