Skip to content
eace5456f7eabb3898d0b7adfab1f5f3
Aveniq AG23. September 20252 min Lesezeit

Wenn Maschinen sich bekämpfen: Cybersecurity im KI-Zeitalter

Wenn Maschinen sich bekämpfen: Cybersecurity im KI-Zeitalter
3:08

Die rasante Entwicklung von Künstlicher Intelligenz (KI) verändert die Bedrohungslage im Bereich der Cybersecurity grundlegend. Während Angreifer KI nutzen, um ihre Methoden zu verfeinern und zu skalieren, setzen Verteidiger auf dieselbe Technologie, um Bedrohungen schneller zu erkennen und abzuwehren. Wo liegen die Chancen und Risiken und was müssen Unternehmer beachten?

AdobeStock_807221897

KI senkt die Einstiegshürden für Cyberkriminelle erheblich. Angriffsphasen, die früher viel manuelle Arbeit erforderten, werden heute von KI-gestützten Werkzeugen übernommen. In Forschungsprojekten zeigte sich, dass selbst komplexe, undokumentierte Protokolle von KI in Minuten analysiert und nachgebaut werden können – mit erstaunlicher Präzision.

Besonders im Bereich Social Engineering ist die Wirkung spürbar: KI-generierte Texte sind fehlerfrei, überzeugend und in jeder Sprache verfügbar. Deepfakes machen selbst CEO-Fraud täuschend echt. Die Zahl solcher Angriffe steigt – und ihre Erkennung wird immer schwieriger.

Der digitale Abwehrkampf hat begonnen

Auch auf der Seite der Verteidiger spielt KI eine zunehmend zentrale Rolle. Sie hilft, grosse Datenmengen effizient auszuwerten, verdächtige Muster zu erkennen und Sicherheitsvorfälle zu priorisieren. So entsteht eine Art «KI gegen KI»: Verteidiger nutzen KI, um Phishing, Anomalien oder schädliches Verhalten zu identifizieren, die oft von KI selbst erzeugt wurden. Darüber hinaus unterstützt KI bei der Automatisierung von Reaktionen, bei Trainings und in der Schwachstellenanalyse. Doch die Technologie hat Grenzen: Sie ist auf hochwertige Daten angewiesen und kann fehleranfällig sein. Falschmeldungen oder mangelnde Nachvollziehbarkeit bergen zusätzliche Risiken. Menschliche Kontrolle und klare Regeln bleiben unerlässlich.

Was Unternehmen vor dem Einsatz klären müssen

Die Einführung von KI in der Cyberabwehr ist rechtlich und ethisch komplex. Im Zentrum stehen der  Datenschutz und die Zustimmung zur Datennutzung. Um praktikable Anwendungsfälle zu finden, hilft es, den Rahmen klar abzustecken. Zusätzlich stellt sich die Frage, welche Art von KI eingesetzt wird: Handelt es sich um ein generisches Sprachmodell oder ein speziell trainiertes Modell, einen eigenen KI-Agenten oder eine externe Lösung? Besonders kritisch: Wie wurde das Modell trainiert? Welche Trainingsdaten wurden verwendet? Enthält es personenbezogene oder urheberrechtlich geschützte Inhalte? Solche Informationen sind oft Betriebsgeheimnisse – und schwer zu prüfen.

Doch genau hier liegen zentrale ethische Herausforderungen, etwa im Hinblick auf Voreingenommenheit oder Diskriminierung. Wenn Entscheidungen auf Basis verzerrter Trainingsdaten getroffen werden, kann das direkte Auswirkungen auf die Bewertung von Risiken oder Zugriffen haben.

Unternehmer sollten daher vor der Einführung einer KI-Lösung eine sorgfältige Prüfung durch Datenschutz, Compliance, HR und Geschäftsleitung vornehmen. Nur so lassen sich Fragen zu Haftung, Transparenz, Rechenschaftspflicht und dem Schutz sensibler Daten klären.

Beratung erwünscht?

Die erfahrenen Expert*innen von Aveniq beraten Sie gerne und unverbindlich rund um ihr Fachthema und wie dieses die Wettbewerbsfähigkeit Ihres Unternehmens positiv beeinflussen kann. Jetzt Termin vereinbaren.
Luca-Cappiello-Aveniq
TOUCH
Luca Cappiello Head of SecurityTermin buchen → 
Luca Cappiello Head of Security