Zurück zur Übersicht
22. April 2025 | Erstellt von Redaktion Cyberriskmanager.de

Sicherheitsrisiken durch KI: Wie Unternehmen sich wappnen

Künstliche Intelligenz (KI) ist längst keine Zukunftsvision mehr – sie ist Realität. In Form von Sprachmodellen, Bilderkennungssoftware, Entscheidungsalgorithmen oder Robotik findet sie Einzug in Wirtschaft, Verwaltung und unseren Alltag. Die Versprechen sind groß: Effizienzsteigerung, Automatisierung und völlig neue Möglichkeiten in der Datenverarbeitung. Doch mit diesen Chancen kommen auch neue Risiken. Denn je mehr Prozesse auf KI basieren, desto größer wird auch ihre potenzielle Missbrauchsfläche. Was geschieht, wenn KI nicht nur zur Verteidigung, sondern auch zum Angriff genutzt wird? Wenn Desinformation, Identitätsdiebstahl oder komplexe Cyberangriffe durch maschinelles Lernen perfektioniert werden? Wir erklären die die Sicherheitsrisiken durch KI.

Was macht KI zur Sicherheitsbedrohung?

Die besondere Gefährlichkeit von Künstlicher Intelligenz liegt nicht allein in ihren technischen Fähigkeiten, sondern in ihrer Fähigkeit zur Skalierung und Automatisierung. KI-Systeme können Aufgaben ausführen, für die ein Mensch viel Zeit und Fachwissen benötigen würde – und das in einem Bruchteil der Zeit. Diese Effizienz ist für Unternehmen ein Segen – für Angreifer jedoch ebenso.

Automatisierung von Angriffen

Cyberkriminelle nutzen KI, um Angriffstechniken zu verfeinern und in Serie zu produzieren. Phishing-E-Mails können mithilfe von Sprachmodellen wie ChatGPT so glaubwürdig formuliert werden, dass selbst gut geschulte Mitarbeitende sie kaum noch erkennen. Gleichzeitig lässt sich mit Hilfe von Machine Learning das Verhalten von Sicherheitssystemen analysieren und aushebeln – etwa durch das Erkennen typischer Reaktionsmuster von Firewalls oder Intrusion Detection Systemen.

Fehlende Transparenz und Kontrollverlust

Ein weiteres Risiko liegt in der sogenannten Black-Box-Natur vieler KI-Modelle. Ihre Entscheidungen sind oft nicht nachvollziehbar, was besonders dann kritisch wird, wenn KI sicherheitsrelevante Aufgaben übernimmt – etwa in der Finanzaufsicht, der medizinischen Diagnostik oder in autonomen Systemen. Wer in einem solchen Fall die Kontrolle verliert, steht nicht selten vor komplexen, schwer zu behebbenden Problemen.

Dynamik und Lernfähigkeit

Anders als herkömmliche Software passt sich KI ständig neuen Gegebenheiten an. Sie kann aus Beobachtungen lernen und ihre Strategien ändern. In der Hand eines böswilligen Akteurs bedeutet das: KI kann Sicherheitsmechanismen aktiv umgehen, aus bisherigen Angriffserfolgen lernen und sich stetig weiterentwickeln – ganz ohne menschliches Zutun.

Aktuelle Sicherheitsrisiken durch KI

Die praktische Anwendung von Künstlicher Intelligenz in der Cyberkriminalität ist längst keine Fiktion mehr. Sie ist Realität – und sie entwickelt sich rasant weiter. Hier sind vier besonders brisante Bedrohungsszenarien, die zeigen, wie vielfältig und gefährlich der Missbrauch von KI sein kann:

Generative KI in Phishing und Social Engineering

KI-Modelle wie ChatGPT, Claude oder FraudGPT ermöglichen die Erstellung hochgradig personalisierter Phishing-Nachrichten. Sie analysieren öffentlich zugängliche Daten aus sozialen Netzwerken oder Unternehmenswebseiten und formulieren daraus überzeugende E-Mails. Der Text ist grammatikalisch korrekt, oft in der Sprache des Zielpersonals verfasst und auf dessen Rolle im Unternehmen zugeschnitten. Damit steigt die Erfolgsquote solcher Angriffe erheblich – selbst bei geschultem Personal.

Deepfakes zur Desinformation und Erpressung

Deepfakes sind KI-generierte Video- oder Audioaufnahmen, die täuschend echt wirken. Mit ihnen lassen sich Personen scheinbar Worte in den Mund legen, die sie nie gesagt haben – oder in kompromittierende Situationen bringen. Derartige Inhalte werden zunehmend als Druckmittel bei Erpressungen genutzt oder zur gezielten Verbreitung von Desinformationen in politischen Kampagnen.

Datenvergiftung (Data Poisoning)

Ein weniger sichtbares, aber nicht minder gefährliches Szenario ist die absichtliche Manipulation von Trainingsdaten. Wird ein KI-System mit fehlerhaften oder böswillig veränderten Daten trainiert, kann dies seine Entscheidungen langfristig verzerren – ohne dass dies sofort erkennbar ist. Besonders problematisch ist dies bei sicherheitskritischen Anwendungen, etwa in der Medizin oder der Verkehrssteuerung.

Missbrauch autonomer Systeme

KI-gesteuerte Systeme wie Drohnen, autonome Fahrzeuge oder Industrieanlagen eröffnen Angriffsflächen, die über klassische IT-Sicherheitslücken hinausgehen. Angreifer könnten solche Systeme manipulieren, um gezielt Schaden anzurichten – etwa durch Sabotage von Produktionsprozessen oder durch gefährliche Eingriffe in den Straßenverkehr.

Systemische Risiken: KI als Angriffsfläche

Während viele Bedrohungen durch den Einsatz von KI offensichtlicher Natur sind – wie etwa Deepfakes oder Phishing – besteht eine unterschätzte Gefahr darin, dass KI selbst zur Schwachstelle werden kann. Denn KI-Systeme sind nicht nur Werkzeuge, sie sind auch potenzielle Ziele.

Schwachstellen in KI-Modellen und Infrastrukturen

Viele KI-Modelle, insbesondere große Sprachmodelle, beruhen auf riesigen Datenmengen und komplexen Netzarchitekturen. Diese Systeme sind oft schwer zu durchdringen, geschweige denn vollständig zu testen. Das macht sie anfällig für sogenannte „Adversarial Attacks“, bei denen Angreifer gezielt minimale, für Menschen unsichtbare Veränderungen an Eingaben vornehmen, um das System zu täuschen. So können etwa Bilderkennungssysteme durch kleine Veränderungen in Bildern dazu gebracht werden, gefährliche Objekte nicht mehr zu erkennen.

Auch die zugrundeliegende Infrastruktur – etwa Rechenzentren oder Cloud-Dienste – bietet Angriffsflächen. Wer sich Zugriff auf diese Systeme verschafft, kann nicht nur KI-Modelle manipulieren, sondern auch sensible Nutzerdaten abgreifen oder ganze Dienste stören.

Open-Source-Modelle und „Modelle-as-a-Service“

Die zunehmende Verfügbarkeit von offenen KI-Modellen – ob für Text, Sprache oder Bildverarbeitung – fördert zwar Innovation, birgt aber auch erhebliche Risiken. Wenn diese Modelle ohne Sicherheitsprüfung in Anwendungen integriert werden, können sie unvorhersehbare Entscheidungen treffen oder in manipulativen Szenarien eingesetzt werden.

Modelle-as-a-Service, also die Nutzung externer KI-Dienste via API, eröffnet neue Bedrohungsszenarien: etwa durch das Abfangen von Anfragen und Antworten, die Rückschlüsse auf unternehmenskritische Prozesse zulassen.

Fehlende Sicherheitsstandards

Ein grundlegendes Problem: Es existieren bislang kaum allgemein anerkannte Sicherheitsstandards für den Umgang mit KI-Systemen. Wer heute eine KI-Lösung entwickelt oder einkauft, kann kaum sicher sein, dass diese auch unter widrigen Bedingungen zuverlässig funktioniert oder vor Missbrauch geschützt ist. Das führt zu einem Flickenteppich an Maßnahmen – und zu zahlreichen Einfallstoren für Angreifer.

Schutzmaßnahmen für Unternehmen und Gesellschaft

Den Sicherheitsrisiken durch KI kann man wirksam begegnen – vorausgesetzt, man setzt auf ein mehrstufiges, systematisches Sicherheitskonzept. Denn technologische Herausforderungen verlangen ebenso technologische wie organisatorische Antworten.

Technische Schutzmaßnahmen

Zero-Trust-Architektur:

Ein moderner Sicherheitsansatz, der davon ausgeht, dass kein Nutzer und kein Gerät innerhalb oder außerhalb des Netzwerks automatisch vertrauenswürdig ist. Jeder Zugriff muss authentifiziert, autorisiert und regelmäßig überprüft werden. Besonders im Umgang mit KI-basierten Anwendungen sorgt dieser Ansatz für deutlich mehr Transparenz und Sicherheit.

Monitoring und Anomalieerkennung:

Mithilfe von KI lassen sich Sicherheitsbedrohungen auch erkennen. Systeme zur Netzwerküberwachung können mithilfe maschinellen Lernens unübliche Muster entdecken – etwa plötzliche Datenabflüsse oder Zugriffe außerhalb der üblichen Arbeitszeiten. Solche Anomalieerkennungssysteme sollten Teil jeder modernen Sicherheitsarchitektur sein.

Datenvalidierung und Schutz der Trainingsdaten:

Da viele Angriffe über manipulierte Trainingsdaten erfolgen (Data Poisoning), ist es entscheidend, Herkunft und Qualität der Daten lückenlos zu prüfen. Unternehmen sollten nicht nur auf saubere Datensätze setzen, sondern auch automatische Prüfmechanismen etablieren, die auffällige Muster oder plötzliche Veränderungen erkennen.

Organisatorische Maßnahmen

Awareness und Schulungen:

Die beste Technik nützt nichts, wenn Mitarbeitende nicht vorbereitet sind. Regelmäßige Schulungen zur Erkennung von KI-basierten Bedrohungen – etwa realistisches Phishing-Training mit generativen Inhalten – sind unverzichtbar. Sensibilisierung sollte Teil der Unternehmenskultur werden.

Notfallübungen und Incident Response:

Was tun, wenn ein KI-System kompromittiert wurde oder eine Deepfake-Erpressung kursiert? Unternehmen sollten regelmäßige Notfallübungen durchführen, klare Prozesse definieren und schnell handlungsfähig sein. Nur wer vorbereitet ist, kann im Ernstfall professionell reagieren.

Gesetzliche und ethische Leitplanken

EU AI Act und Cyber Resilience Act:

Europa ist auf dem Weg, mit dem AI Act einen klaren rechtlichen Rahmen für den sicheren Einsatz von KI zu schaffen. Der Cyber Resilience Act wiederum zielt auf die Stärkung der IT-Sicherheit von Produkten mit digitalen Elementen ab. Unternehmen sollten diese Entwicklungen aktiv verfolgen und frühzeitig ihre Prozesse anpassen.

Ethische Grundsätze:

Vertrauen in KI entsteht nicht nur durch Technik, sondern auch durch Transparenz und Fairness. Unternehmen, die Künstliche Intelligenz einsetzen, sollten interne Leitlinien entwickeln, wie sie mit algorithmischen Entscheidungen, Fehlern oder Diskriminierungspotenzial umgehen. Das schafft Sicherheit und Glaubwürdigkeit.

Fazit

Künstliche Intelligenz ist eine der mächtigsten Technologien unserer Zeit – mit gewaltigem Potenzial für Wirtschaft, Wissenschaft und Gesellschaft. Doch mit dieser Macht wächst auch die Verantwortung, sie sicher und ethisch einzusetzen. Die Beispiele in diesem Artikel zeigen eindrucksvoll: Die Bedrohungslage durch KI ist real und vielfältig. Von personalisierten Phishing-Angriffen über Deepfakes bis hin zu systemischen Schwachstellen in den Modellen selbst – der Missbrauch ist nicht nur theoretisch möglich, sondern längst Praxis.

Dennoch: Unternehmen und Gesellschaft sind diesen Bedrohungen nicht schutzlos ausgeliefert. Mit einem ganzheitlichen Ansatz, der Technik, Organisation, Aufklärung und Gesetzgebung vereint, lassen sich die Risiken beherrschen. Entscheidend ist, dass Sicherheit und Resilienz integrale Bestandteile jeder KI-Strategie werden.

Jetzt ist der richtige Zeitpunkt, um den sicheren Umgang mit KI aktiv zu gestalten – bevor die Technologie uns überholt.

Schon für unseren Newsletter angemeldet?

Aktuellstes Wissen über Cyberriskmanagement direkt ins Postfach!

Für Newsletter anmelden