Der Begriff General Adversarial Robustness ist vor allem in den Bereichen Künstliche Intelligenz, Cyberkriminalität und Cybersecurity sowie Digitale Transformation zuhause. Er beschreibt, wie widerstandsfähig ein KI-System gegen sogenannte „adversariale Angriffe“ ist. Das sind Tricks oder Manipulationen, mit denen Hacker versuchen, eine KI hereinzulegen oder zu täuschen.
Stellen Sie sich vor, eine KI überwacht Überwachungskameras und erkennt automatisch verdächtige Personen. Ein Angreifer kann versuchen, durch kleine Veränderungen am eigenen Aussehen – etwa durch bestimmte Muster auf der Kleidung – die KI auszutricksen, sodass diese ihn nicht erkennt. General Adversarial Robustness bedeutet, dass die KI auch dann noch zuverlässig arbeitet, selbst wenn jemand solche Angriffe probiert.
Ein weiteres Beispiel: In selbstfahrenden Autos werden Verkehrsschilder von einer KI erkannt. Wenn jemand Sticker auf ein Stoppschild klebt, könnte eine schwache KI das Schild nicht mehr richtig als Stoppschild erkennen. Ein System mit hoher General Adversarial Robustness bleibt dagegen sicher und trifft weiterhin die richtigen Entscheidungen.
Wer auf künstliche Intelligenz setzt, sollte also immer prüfen, wie „robust“ sein System gegen solche gezielten Täuschungsversuche ist.