Erfahren Sie mehr über die Auswirkungen feindlicher Angriffe auf KI-Systeme, ihre Arten, Beispiele aus der Praxis und Verteidigungsstrategien zur Verbesserung der KI-Sicherheit.
Adversarische Angriffe sind eine Technik, mit der Modelle des maschinellen Lernens getäuscht werden, indem sie mit bösartigen, absichtlich entworfenen Eingaben versorgt werden. Diese Eingaben, die so genannten gegnerischen Beispiele, werden durch subtile Änderungen an legitimen Daten erstellt. Die Änderungen sind oft so gering, dass sie für das menschliche Auge nicht wahrnehmbar sind, können aber dazu führen, dass ein neuronales Netz mit hoher Wahrscheinlichkeit eine falsche Vorhersage trifft. Diese Schwachstelle stellt ein erhebliches Sicherheitsproblem für KI-Systeme dar, insbesondere bei kritischen Bildverarbeitungsanwendungen, bei denen Zuverlässigkeit und Genauigkeit von größter Bedeutung sind.
Angriffe durch Angreifer nutzen die Art und Weise aus, wie Deep-Learning-Modelle lernen und Entscheidungen treffen. Ein Modell lernt, Muster zu erkennen, indem es eine "Entscheidungsgrenze" identifiziert, die verschiedene Datenkategorien voneinander trennt. Das Ziel eines Angreifers ist es, den effizientesten Weg zu finden, eine Eingabe so zu verändern, dass sie diese Grenze überschreitet und eine Fehlklassifizierung verursacht. Bei der hinzugefügten Störung handelt es sich nicht um zufälliges Rauschen, sondern um ein sorgfältig berechnetes Signal, das die spezifischen Schwächen des Modells ausnutzen soll. Forschungsarbeiten von Einrichtungen wie der Carnegie Mellon University bieten tiefe Einblicke in diese Mechanismen.
Angriffe werden im Allgemeinen auf der Grundlage der Kenntnisse des Angreifers über das Zielmodell kategorisiert.
Die Sicherung von Modellen gegen diese Bedrohungen ist ein aktives Forschungsgebiet. Zu den gängigen Verteidigungsstrategien gehören:
Der Bereich der künstlichen Intelligenz wird oft als ein ständiges "Wettrüsten" beschrieben, bei dem ständig neue Angriffe und Verteidigungsmöglichkeiten entstehen. Der Aufbau einer vertrauenswürdigen KI erfordert robuste Entwicklungs- und Testverfahren. Frameworks wie der MITRE ATLAS for Adversarial Threat-informed Defense helfen Unternehmen, diese Bedrohungen zu verstehen und sich darauf vorzubereiten. Organisationen wie das NIST und Unternehmen wie Microsoft forschen aktiv an Verteidigungsmaßnahmen. Die Einbeziehung von Prinzipien der erklärbaren KI (Explainable AI, XAI) hilft bei der Identifizierung von Schwachstellen, während die Einhaltung einer strengen KI-Ethik den verantwortungsvollen Einsatz von Modellen leitet. Kontinuierliche Forschung und Wachsamkeit gewährleisten, dass Modelle wie Ultralytics YOLO11 sicher und zuverlässig in realen Anwendungen eingesetzt werden können. Wenn Sie mehr über die sichere Modellentwicklung erfahren möchten, lesen Sie unsere Tutorials und ziehen Sie die Verwendung von Plattformen wie Ultralytics HUB für rationalisierte und sichere Arbeitsabläufe in Betracht.