Adversarial Examples sind ein Begriff aus den Bereichen Künstliche Intelligenz, Cyberkriminalität und Cybersecurity sowie Digitale Transformation. Sie beschreiben eine spezielle Art von Daten, die gezielt so verändert wurden, dass sie Maschinen wie Künstliche Intelligenz (KI) absichtlich in die Irre führen.
Stellen Sie sich vor, eine Kamera prüft automatisch, ob auf einem Foto ein Stoppschild zu sehen ist. Ein sogenanntes Adversarial Example wäre ein Bild, das für unser menschliches Auge ganz klar ein Stoppschild zeigt. Wird das Bild aber durch kleine, meist unsichtbare Veränderungen gezielt manipuliert, kann die KI plötzlich nicht mehr erkennen, dass es sich um ein Stoppschild handelt – obwohl ein Mensch den Unterschied nicht bemerkt.
Dieses Phänomen ist für Unternehmen wichtig zu kennen, weil Hacker Adversarial Examples nutzen können, um etwa Gesichtserkennungssysteme oder andere automatisierte Prüfungen zu überlisten. Deshalb sind die Themen Sicherheit und Schutz vor solchen Angriffen besonders bei der Entwicklung von KI-Systemen relevant. Es lohnt sich, beim Einsatz von Künstlicher Intelligenz nicht nur an die Funktion, sondern auch an die Absicherung gegen Adversarial Examples zu denken.