Adversarial AI ist ein Begriff aus den Kategorien Künstliche Intelligenz, Cyberkriminalität und Cybersecurity sowie Digitale Transformation. Er beschreibt den Einsatz künstlicher Intelligenz mit dem Ziel, andere KI-Systeme auszutricksen, zu überlisten oder anzugreifen.
Stellen Sie sich vor, ein Unternehmen nutzt eine KI, um betrügerische E-Mails herauszufiltern. Kriminelle können jedoch Adversarial AI verwenden, um gezielt E-Mails so zu verändern, dass sie von dieser Filter-KI nicht erkannt werden. Die schädlichen Mails kommen dadurch unbemerkt beim Empfänger an.
Adversarial AI arbeitet also wie ein digitaler Trickbetrüger: Sie erkennt Schwächen in der KI und nutzt diese gezielt aus. Das kann in vielen Bereichen Probleme verursachen – zum Beispiel beim autonomen Fahren, wenn Verkehrsschilder manipuliert werden, damit sie von einer Fahrzeug-KI falsch erkannt werden.
Deshalb ist es für Unternehmen heute wichtig, ihre Systeme nicht nur gegen klassische Hacker, sondern auch gegen Angriffe mit Adversarial AI abzusichern. Nur so lässt sich die Sicherheit von Künstlicher Intelligenz langfristig gewährleisten und das Vertrauen der Nutzer erhalten.