Wenn KI mit schlechten Daten gefüttert wird: Warum Data Poisoning Sie nachts wachhalten sollte

07/10/2025
Lasse Peters

Künstliche Intelligenz (KI) ist faszinierend. Wir nutzen sie immer häufiger – für Analysen, Cybersicherheit oder alltägliche Entscheidungen und Prozesse. Doch es gibt einen Haken: All das hängt von Daten ab, die wir oft als selbstverständlich ansehen. Was passiert, wenn diese Daten unbemerkt manipuliert werden? Genau das ist das Risiko, das man als Data Poisoning bezeichnet. Der Begriff klingt wie aus einem Spionagefilm, oder? Nur dass er sehr real ist und keineswegs zu unterschätzen.

Viele Unternehmen betrachten KI inzwischen als festen Bestandteil ihrer Strategie. Sie hilft dabei, Bedrohungen zu erkennen, Prozesse zu automatisieren und Prognosen zu erstellen, auf die wir uns verlassen. Doch mit dieser Integration wächst auch die Angriffsfläche. Jeder neue Anwendungsfall, jeder zusätzliche Datenstrom eröffnet potenziell einen neuen Weg für Angreifer. Und auch wenn es wie ein theoretisches Risiko klingt, manipulierte Daten beeinflussen längst reale Ergebnisse.

Was genau ist Data Poisoning?

Von Data Poisoning spricht man, wenn Angreifer falsche oder irreführende Informationen in Trainingsdatensätze einschleusen. Das mag harmlos klingen, kann aber katastrophale Folgen haben. Ein System trifft plötzlich falsche Entscheidungen. Oft, ohne dass es jemand sofort bemerkt.

Ein einfaches Beispiel: Eine KI wird darauf trainiert, verdächtige Netzwerkaktivitäten zu erkennen. Wenn es einem Angreifer gelingt, bestimmte Muster in der Trainingsphase als unbedenklich zu kennzeichnen, wird das Modell später echte Bedrohungen übersehen. Das ist der Kern des Problems. Manipulationen bleiben meist unentdeckt – bis der Schaden bereits entstanden ist.

Ich erinnere mich an ein Projekt, bei dem schon kleinste Abweichungen im Datensatz zu völlig verzerrten Ergebnissen geführt haben. Vielleicht war es Zufall, vielleicht nicht. Aber es zeigte, wie empfindlich Modelle reagieren, wenn die zugrunde liegenden Daten nicht einwandfrei sind.

Und man darf nicht vergessen: Data Poisoning muss nicht immer von einem gezielten Angreifer kommen. Sie können über Drittanbieter-Datensätze, Open-Source-Beiträge oder Crowdsourcing in Systeme gelangen. Viele Unternehmen nutzen solche Quellen mit wenig oder keiner Überprüfung. Das ist ein riskantes Vorgehen.

Warum das CIOs, CISOs und IT-Leiter betrifft

Data Poisoning ist kein theoretisches Problem. Unternehmen, die KI einsetzen – also fast alle –, sind betroffen. CIOs, CISOs und IT-Leiter müssen sich fragen: Wie weit können wir unseren Daten vertrauen? Und wie stellen wir sicher, dass Manipulationen erkannt werden, bevor sie sich ausbreiten?

Dabei geht es nicht nur um Technik. Es ist eine strategische Frage. CIOs müssen Budgets, CISOs die Sicherheitsrichtlinien entsprechend anpassen. Und IT-Teams brauchen Schulungen, die sie bislang oft noch nicht haben.

Ich habe oft erlebt, wie solche Diskussionen auf Vorstandsebene verlaufen. „Aber wir haben Firewalls“, sagt dann jemand. „Unsere Daten sind sicher.“ Vielleicht stimmt das – was die Perimeter betrifft. Aber was ist mit den Daten selbst? Was, wenn die Bedrohung längst im Inneren steckt, unsichtbar, aber aktiv?

Die eigentliche Herausforderung besteht darin, Entscheidungsträger davon zu überzeugen, in etwas zu investieren, das sie nicht sehen können. Es ist, als würde man eine Versicherung gegen ein unsichtbares Feuer abschließen. Solange nichts brennt, erscheint sie überflüssig. Doch Data Poisoning ist genau das: unsichtbar. Bis es zu spät ist.

Typische Data-Poisoning-Angriffsmethoden

Es gibt nicht nur eine Art, Daten zu manipulieren. Manche Ansätze sind simpel, andere erschreckend ausgefeilt.

  • Data Flipping ist die einfachste Methode. Dabei werden Datenlabels vertauscht, sodass das Modell falsche Zusammenhänge lernt. Wenn in einem Datensatz z. B. die Zuordnung „Spam/Nicht-Spam“ teilweise vertauscht wird, lässt der Spamfilter plötzlich gefährliche Mails durch.
  • Backdoor-Angriffe sind deutlich raffinierter. Angreifer fügen ein bestimmtes Auslösemuster in die Daten ein, das das Modell später zu Fehlverhalten bringt. Solange dieses Muster nicht auftaucht, wirkt alles normal.
  • Clean-Label-Angriffe sind besonders gefährlich. Die Daten sehen völlig korrekt aus, alle Labels stimmen. Doch es gibt subtile Manipulationen, die nur unter bestimmten Bedingungen wirksam werden. Solche Angriffe sind extrem schwer zu erkennen.

Das Ausmaß des Problems wird zunehmend deutlich. Sicherheitsforscher von JFrog fanden rund 100 manipulierte KI-Modelle auf Hugging Face, einer beliebten KI-Plattform. Jedes dieser Modelle hätte potenziell Schadcode in Nutzersysteme einschleusen können, allein durch das Laden des Modells.

Was Sie gegen Data Poisoning tun können

Eine einfache Lösung gibt es leider nicht. Aber es gibt Maßnahmen, die helfen:

Überwachen Sie die Datenqualität kontinuierlich. Nicht einmalig, sondern dauerhaft. Richten Sie Warnmeldungen für ungewöhnliche Muster oder unerwartete Änderungen in der Modellleistung ein.

Nutzen Sie mehrere Datenquellen. Verlassen Sie sich nicht auf eine einzige Quelle. Wenn eine kompromittiert wird, können andere helfen, Unstimmigkeiten aufzudecken.

Testen Sie mit kontrollierten Datensätzen. Führen Sie regelmäßig Tests mit sauberen Daten durch. Wenn die Ergebnisse abweichen, sollten Sie genauer hinsehen.

Schulen Sie Ihr Team. Das ist wahrscheinlich der wichtigste Punkt. Automatisierte Tools sind hilfreich, aber nichts ersetzt das geschulte Auge eines Menschen.

Setzen Sie KI-basierte Erkennung ein. Ja, KI gegen KI. Einige Unternehmen entwickeln Systeme, die speziell darauf ausgelegt sind, manipulierte Daten zu erkennen. Ironisch, aber effektiv.

Oft konzentrieren wir uns zu sehr auf technische Lösungen. Doch der menschliche Faktor ist genauso wichtig. Ein aufmerksames Team erkennt häufig schneller, dass etwas nicht stimmt, als jede Automatisierung.

Und noch etwas, das selten angesprochen wird: Teilen Sie Informationen. Wenn Ihr Unternehmen betroffen ist, sprechen Sie darüber. Wir sitzen alle im selben Boot. Es ergibt keinen Sinn, wenn jeder dieselben Fehler einzeln macht.

Lohnt sich der Aufwand?

Skeptiker fragen oft: Ist der Aufwand wirklich gerechtfertigt? Ja, ist er.

Der Schaden durch einen erfolgreichen Data-Poisoning-Angriff kann die Präventionskosten um ein Vielfaches übersteigen. Ein manipuliertes Modell kann Entscheidungen treffen, die Millionen kosten oder das Vertrauen der Kunden zerstören. Und verlorenes Vertrauen lässt sich nur langsam und mühsam zurückgewinnen.

Stellen Sie sich ein Finanzinstitut vor, das KI für die Transaktionsprüfung einsetzt. Wenn das Modell manipuliert wird, können betrügerische Überweisungen unbemerkt durchgehen. Der finanzielle Schaden wäre erheblich, der Reputationsverlust womöglich noch größer.

Es ist wie eine Versicherung: Man hofft, sie nie zu brauchen. Aber ohne sie kann das Risiko existenzbedrohend sein.

Offene Fragen und Unsicherheiten

Natürlich bleiben viele Fragen offen. Angreifer entwickeln ihre Methoden ständig weiter. Abwehrmaßnahmen, die heute funktionieren, könnten morgen schon wirkungslos sein. Und selbst Experten sind sich uneinig: Manche plädieren für mehr Automatisierung in der Verteidigung, andere für stärkere menschliche Kontrolle. Die Wahrheit liegt vermutlich irgendwo dazwischen.

Ich frage mich manchmal: Unterschätzen wir das Risiko noch immer? Oder übertreiben wir es in manchen Bereichen? Die richtige Balance zu finden, ist schwierig. Nichts zu tun ist aber keine Option.

Und man darf nicht vergessen: Hier geht es nicht nur um Geld oder Image. In Bereichen wie Gesundheitswesen oder autonomem Fahren kann manipulierte KI buchstäblich Leben gefährden. Dieser Gedanke allein sollte uns wachsam machen.

Wir können die Gefahr nicht vollständig beseitigen. Aber wir können sie eindämmen. Data Poisoning ist real. Es passiert. Und jedes Unternehmen, das KI nutzt, muss es ernst nehmen.

Das heißt nicht, in Panik zu verfallen. Es heißt, aufmerksam zu bleiben, kontinuierlich zu investieren und den Mut zu haben, unbequeme Fragen zu stellen. Nur so lassen sich die Integrität unserer Systeme und, ebenso wichtig, das Vertrauen unserer Kunden schützen.

Wenn Ihr Unternehmen KI einsetzt, ist es Zeit, auch über die Sicherheit Ihrer Daten nachzudenken. Prüfen Sie, wie gut Ihre Modelle und Trainingsdaten geschützt sind, und ob Ihre Teams auf Manipulationen vorbereitet sind. Unsere Experten unterstützen Sie dabei, Risiken wie Data Poisoning frühzeitig zu erkennen und abzuwehren.