Die rasante Entwicklung von Künstlicher Intelligenz (KI) verändert die Bedrohungslage im Bereich der Cybersecurity grundlegend. Während Angreifer KI nutzen, um ihre Methoden zu verfeinern und zu skalieren, setzen Verteidiger auf dieselbe Technologie, um Bedrohungen schneller zu erkennen und abzuwehren. Wo liegen die Chancen und Risiken – und was müssen Unternehmer beachten?
KI senkt die Einstiegshürden für Cyberkriminelle erheblich. Angriffsphasen, die früher viel manuelle Arbeit erforderten, werden heute von KI-gestützten Werkzeugen übernommen. In Forschungsprojekten zeigte sich, dass selbst komplexe, undokumentierte Protokolle von KI in Minuten analysiert und nachgebaut werden können – mit erstaunlicher Präzision.
Besonders im Bereich Social Engineering ist die Wirkung spürbar: KI-generierte Texte sind fehlerfrei, überzeugend und in jeder Sprache verfügbar. Deepfakes machen selbst CEO-Fraud täuschend echt. Die Zahl solcher Angriffe steigt – und ihre Erkennung wird immer schwieriger.
Der digitale Abwehrkampf hat begonnen
Auch auf der Seite der Verteidiger spielt KI eine zunehmend zentrale Rolle. Sie hilft, grosse Datenmengen effizient auszuwerten, verdächtige Muster zu erkennen und Sicherheitsvorfälle zu priorisieren. So entsteht eine Art «KI gegen KI»: Verteidiger nutzen KI, um Phishing, Anomalien oder schädliches Verhalten zu identifizieren, die oft von KI selbst erzeugt wurden. Darüber hinaus unterstützt KI bei der Automatisierung von Reaktionen, bei Trainings und in der Schwachstellenanalyse. Doch die Technologie hat Grenzen: Sie ist auf hochwertige Daten angewiesen und kann fehleranfällig sein. Falschmeldungen oder mangelnde Nachvollziehbarkeit bergen zusätzliche Risiken. Menschliche Kontrolle und klare Regeln bleiben unerlässlich.
Was Unternehmen vor dem Einsatz klären müssen
Die Einführung von KI in der Cyberabwehr ist rechtlich und ethisch komplex. Im Zentrum stehen der Datenschutz und die Zustimmung zur Datennutzung. Um praktikable Anwendungsfälle zu finden, hilft es, den Rahmen klar abzustecken. Zusätzlich stellt sich die Frage, welche Art von KI eingesetzt wird: Handelt es sich um ein generisches Sprachmodell oder ein speziell trainiertes Modell, einen eigenen KI-Agenten oder eine externe Lösung? Besonders kritisch: Wie wurde das Modell trainiert? Welche Trainingsdaten wurden verwendet? Enthält es personenbezogene oder urheberrechtlich geschützte Inhalte? Solche Informationen sind oft Betriebsgeheimnisse – und schwer zu prüfen.
Doch genau hier liegen zentrale ethische Herausforderungen, etwa im Hinblick auf Voreingenommenheit oder Diskriminierung. Wenn Entscheidungen auf Basis verzerrter Trainingsdaten getroffen werden, kann das direkte Auswirkungen auf die Bewertung von Risiken oder Zugriffen haben.
Unternehmer sollten daher vor der Einführung einer KI-Lösung eine sorgfältige Prüfung durch Datenschutz, Compliance, HR und Geschäftsleitung vornehmen. Nur so lassen sich Fragen zu Haftung, Transparenz, Rechenschaftspflicht und dem Schutz sensibler Daten klären.