Bitget App
Trade smarter
Krypto kaufenMärkteTradenFuturesBotsEarnCopy
10 Sicherheitsrisiken, die Sie beim Einsatz von KI am Arbeitsplatz kennen müssen

10 Sicherheitsrisiken, die Sie beim Einsatz von KI am Arbeitsplatz kennen müssen

MPOSTMPOST2025/07/03 08:25
Von:MPOST

In Kürze Bis Mitte 2025 ist KI tief in den Arbeitsabläufen verankert, doch die weitverbreitete Nutzung – insbesondere über ungesicherte Tools – hat die Cybersicherheitsrisiken deutlich erhöht und zu dringenden Forderungen nach besserer Datenverwaltung, Zugriffskontrollen und KI-spezifischen Sicherheitsrichtlinien geführt.

Mitte 2025 ist künstliche Intelligenz am Arbeitsplatz kein futuristisches Konzept mehr. Sie ist in alltägliche Arbeitsabläufe in Marketing, Recht, Technik, Kundensupport, Personalwesen und vielen weiteren Bereichen integriert. KI-Modelle unterstützen heute beim Verfassen von Dokumenten, Erstellen von Berichten, Programmieren und sogar bei der Automatisierung des internen Chat-Supports. Doch mit der zunehmenden Abhängigkeit von KI wächst auch die Risikolandschaft.

Ein Bericht Cybersecurity Ventures prognostiziert, dass die weltweiten Kosten der Cyberkriminalität bis 10.5 2025 Billionen US-Dollar erreichen werden Dies entspricht einem jährlichen Anstieg der KI-bezogenen Sicherheitsverletzungen um 38 % im Vergleich zum Vorjahr. Dieselbe Quelle schätzt, dass rund 64 % der Unternehmensteams in irgendeiner Form generative KI nutzen, während nur 21 % dieser Organisationen über formelle Richtlinien zum Umgang mit Daten verfügen.

Diese Zahlen sind nicht nur ein Branchen-Gerüchte – sie deuten auf eine wachsende Gefährdung hin. Da die meisten Teams immer noch auf öffentliche oder kostenlose KI-Tools angewiesen sind, ist ein Bewusstsein für KI-Sicherheit dringend erforderlich.

Nachfolgend finden Sie die zehn kritischen Sicherheitsrisiken, denen Teams beim Einsatz von KI am Arbeitsplatz ausgesetzt sind. Jeder Abschnitt erläutert die Art des Risikos, seine Funktionsweise, seine Gefahren und seine häufigsten Auftretensorte. Diese Bedrohungen betreffen bereits 10 reale Organisationen.

Eingabeleck durch Eingabeaufforderungen

Eine der häufigsten Sicherheitslücken beginnt bereits beim ersten Schritt: der Eingabeaufforderung selbst. In Marketing-, Personal-, Rechts- und Kundendienstabteilungen fügen Mitarbeiter oft vertrauliche Dokumente, Kunden-E-Mails oder internen Code in KI-Tools ein, um schnell Antworten zu verfassen. Dies erscheint zwar effizient, doch die meisten Plattformen speichern zumindest einen Teil dieser Daten auf Backend-Servern, wo sie protokolliert, indexiert oder zur Verbesserung von Modellen verwendet werden können. Laut Laut einem Bericht von Varonis aus dem Jahr 2025 gaben 99 % der Unternehmen zu, vertrauliche Daten oder Kundendaten mit KI zu teilen. Dienste ohne Anwendung interner Sicherheitskontrollen.

Wenn Unternehmensdaten auf Plattformen von Drittanbietern gelangen, unterliegen sie häufig Aufbewahrungsrichtlinien und Mitarbeiterzugriffen, die viele Unternehmen nicht vollständig kontrollieren. Selbst im „privaten“ Modus können Fragmente zur Fehlerbehebung gespeichert werden. Dies birgt rechtliche Risiken – insbesondere im Rahmen der DSGVO, des HIPAA und ähnlicher Gesetze. Um die Gefährdung zu verringern, verwenden Unternehmen nun Filter, um sensible Daten zu entfernen, bevor sie an KI-Tools gesendet werden, und legen klarere Regeln für die Weitergabe fest.

Versteckte Datenspeicherung in KI-Protokollen

Viele KI-Dienste speichern detaillierte Aufzeichnungen von Benutzereingaben und -ausgaben, auch nachdem der Benutzer diese gelöscht hat. Die Thales Data Threat Report 2025 erwähnt dass es bei 45 % der Organisationen zu Sicherheitsvorfällen kam, bei denen Daten in KI-Protokollen verblieben.

Dies ist besonders kritisch in Branchen wie Finanzen, Recht und Gesundheitswesen, wo selbst eine temporäre Aufzeichnung von Namen, Kontodaten oder Krankengeschichten gegen Compliance-Vereinbarungen verstoßen kann. Manche Unternehmen gehen davon aus, dass das Entfernen von Daten im Frontend ausreicht. Tatsächlich speichern Backend-Systeme Kopien oft tage- oder wochenlang, insbesondere wenn sie für Optimierungs- oder Schulungszwecke verwendet werden.

Teams, die diese Falle vermeiden möchten, greifen zunehmend auf Unternehmenspläne mit strengen Datenaufbewahrungsvereinbarungen zurück und implementieren Tools, die das Löschen im Backend bestätigen, anstatt sich auf vage Dashboard-Schalter mit der Aufschrift „Verlauf löschen“ zu verlassen.

Modelldrift durch Lernen mit sensiblen Daten

Im Gegensatz zu herkömmlicher Software verbessern viele KI-Plattformen ihre Antworten, indem sie aus Benutzereingaben lernen. Das bedeutet, dass eine Eingabeaufforderung mit einzigartiger Rechtssprache, Kundenstrategie oder proprietärem Code zukünftige Ergebnisse für unabhängige Benutzer beeinflussen kann. Die Der Stanford AI Index 2025 verzeichnete einen Anstieg von 56 % im Vergleich zum Vorjahr in gemeldeten Fällen, in denen unternehmensspezifische Daten unbeabsichtigt in Ausgaben an anderer Stelle auftauchten.

In Branchen, in denen der Wettbewerbsvorteil von geistigem Eigentum abhängt, können selbst kleine Lecks Umsatz und Ruf schädigen. Da das Lernen automatisch erfolgt, sofern es nicht ausdrücklich deaktiviert wird, benötigen viele Unternehmen mittlerweile lokale Implementierungen oder isolierte Modelle, die keine Benutzerdaten speichern oder aus sensiblen Eingaben lernen.

KI-generiertes Phishing und Betrug

Dank künstlicher Intelligenz sind Phishing-Angriffe schneller, überzeugender und deutlich schwieriger zu erkennen. Im Jahr 2025 DMARC meldete einen Anstieg von 4000 % in KI-generierten Phishing-Kampagnen, von denen viele authentische interne Sprachmuster verwendeten, die aus durchgesickerten oder öffentlichen Unternehmensdaten gewonnen wurden. Laut Laut Hoxhunt stiegen sprachbasierte Deepfake-Betrügereien in diesem Jahr um 15 % , wobei der durchschnittliche Schaden pro Angriff bei fast 4.88 Millionen US-Dollar liegt.

Diese Angriffe imitieren oft die Sprachmuster und Kommunikationsstile von Führungskräften so präzise, ​​dass herkömmliche Sicherheitsschulungen sie nicht mehr stoppen können. Um sich zu schützen, erweitern Unternehmen ihre Tools zur Stimmverifizierung, setzen sekundäre Bestätigungskanäle für risikoreiche Genehmigungen ein und schulen ihre Mitarbeiter darin, verdächtige Sprache zu kennzeichnen, selbst wenn sie professionell und fehlerfrei wirkt.

Schwache Kontrolle über private APIs

In der Eile, neue Tools bereitzustellen, verbinden viele Teams KI-Modelle über APIs mit Systemen wie Dashboards oder CRMs und bieten dabei nur minimalen Schutz. Bei diesen Integrationen fehlen oft wichtige Praktiken wie Token-Rotation, Ratenbegrenzungen oder benutzerspezifische Berechtigungen. Wird ein Token geleakt oder erraten, können Angreifer Daten abschöpfen oder verbundene Systeme manipulieren, bevor es jemand bemerkt.

Dieses Risiko ist nicht theoretisch. Eine kürzlich Eine Studie von Akamai ergab, dass 84 % der Sicherheitsexperten einen API-Sicherheitsvorfall meldeten im vergangenen Jahr. Und fast die Hälfte der Organisationen erlebte Datenlecks, weil API-Token offengelegt wurden. In einem Fall haben Forscher über 18,000 offengelegte API-Geheimnisse in öffentlichen Repositories gefunden .

Da diese API-Brücken im Hintergrund laufen, bemerken Unternehmen Sicherheitslücken oft erst, wenn auffällige Verhaltensweisen in Analysen oder Kundendatensätzen auftreten. Um dies zu verhindern, verschärfen führende Unternehmen ihre Kontrollen, indem sie kurze Token-Lebensdauern durchsetzen, regelmäßige Penetrationstests an KI-verbundenen Endpunkten durchführen und detaillierte Prüfprotokolle aller API-Aktivitäten führen.

Einführung von Shadow AI in Teams

Bis 2025 wird der nicht genehmigte Einsatz von KI – bekannt als „Schatten-KI“ – weit verbreitet sein. Eine Studie von Zluri ergab, dass 80 % der KI-Nutzung in Unternehmen geschieht durch Tools, die nicht von der IT-Abteilung genehmigt wurden.

Mitarbeiter greifen häufig auf herunterladbare Browsererweiterungen, Low-Code-Generatoren oder öffentliche KI-Chatbots zurück, um unmittelbare Bedürfnisse zu erfüllen. Diese Tools senden möglicherweise interne Daten an nicht verifizierte Server, verfügen über keine Verschlüsselung oder erfassen Nutzungsprotokolle, die vor dem Unternehmen verborgen bleiben. Ohne Transparenz darüber, welche Daten freigegeben werden, können Unternehmen weder Compliance durchsetzen noch die Kontrolle behalten.

Um dem entgegenzuwirken, setzen viele Unternehmen mittlerweile interne Überwachungslösungen ein, die unbekannte Dienste kennzeichnen. Sie führen außerdem kuratierte Listen genehmigter KI-Tools und verlangen von ihren Mitarbeitern, sich nur über genehmigte Kanäle in sicheren Umgebungen zu engagieren.

Sofortige Injektion und manipulierte Vorlagen

Prompt-Injection tritt auf, wenn jemand schädliche Anweisungen in freigegebene Prompt-Vorlagen oder externe Eingaben einbettet – versteckt in legitimem Text. Beispielsweise könnte eine Prompt, die „die letzte Kunden-E-Mail zusammenfassen“ soll, so verändert werden, dass ganze Thread-Verläufe extrahiert oder vertrauliche Inhalte unbeabsichtigt preisgegeben werden. Die OWASP 2025 GenAI Security Top 10 listet Prompt Injection als führende Schwachstelle auf , und warnt davor, dass vom Benutzer bereitgestellte Eingaben – insbesondere in Kombination mit externen Daten – Systemanweisungen leicht außer Kraft setzen und Sicherheitsvorkehrungen umgehen können.

Unternehmen, die ohne angemessene Kontrolle auf interne Prompt-Bibliotheken setzen, riskieren kaskadierende Probleme: ungewollte Datenfreigabe, irreführende Ergebnisse oder fehlerhafte Workflows. Dieses Problem tritt häufig in Wissensmanagementsystemen und automatisierten Kunden- oder Rechtsantworten auf, die auf Prompt-Vorlagen basieren. Um dieser Bedrohung entgegenzuwirken, empfehlen Experten einen mehrschichtigen Governance-Prozess: Alle Prompt-Vorlagen vor der Bereitstellung zentral prüfen, externe Eingaben nach Möglichkeit bereinigen und Prompts in isolierten Umgebungen testen, um sicherzustellen, dass keine versteckten Anweisungen durchkommen.

Compliance-Probleme aufgrund nicht verifizierter Ergebnisse

Generative KI liefert oft ausgefeilte Texte – doch diese können unvollständig, ungenau oder sogar gesetzeswidrig sein. Dies ist besonders gefährlich im Finanz-, Rechts- und Gesundheitswesen, wo selbst kleine Fehler oder irreführende Formulierungen zu Geldstrafen oder Haftungsansprüchen führen können.

Laut Laut der ISACA-Umfrage 2025 berichten 83 % der Unternehmen von generativer KI im täglichen Einsatz , aber nur 31 % verfügen über formelle interne KI-Richtlinien. Alarmierend ist, dass 64 % der Fachleute ernsthafte Bedenken hinsichtlich eines Missbrauchs äußerten – dennoch investieren nur 18 % der Unternehmen in Schutzmaßnahmen wie Deepfake-Erkennung oder Compliance-Überprüfungen.

Da KI-Modelle rechtliche Nuancen nicht verstehen, verlangen viele Unternehmen mittlerweile eine menschliche Compliance- oder rechtliche Überprüfung aller KI-generierten Inhalte vor der öffentlichen Nutzung. Dieser Schritt stellt sicher, dass die Angaben den gesetzlichen Standards entsprechen und Kunden oder Nutzer nicht in die Irre geführt werden.

Risiken von Drittanbieter-Plugins

Viele KI-Plattformen bieten Plugins von Drittanbietern an, die eine Verbindung zu E-Mail, Kalendern, Datenbanken und anderen Systemen herstellen. Diese Plugins unterliegen oft keinen strengen Sicherheitsüberprüfungen und Ein Check Point Research AI Security Report aus dem Jahr 2025 ergab, dass 1 von 80 KI-Eingabeaufforderungen ein hohes Risiko für Datenlecks birgt Ein Teil dieses Risikos geht von Plugin-gestützten Interaktionen aus. Check Point warnt außerdem, dass nicht autorisierte KI-Tools und falsch konfigurierte Integrationen zu den größten neuen Bedrohungen für die Datenintegrität in Unternehmen gehören.

Wenn Plugins ohne Überprüfung installiert werden, können sie auf Ihre Eingaben, Ausgaben und zugehörigen Anmeldeinformationen zugreifen. Sie können diese Informationen an externe Server außerhalb der Unternehmensaufsicht senden, manchmal ohne Verschlüsselung oder ordnungsgemäße Zugriffsprotokollierung.

Mehrere Unternehmen verlangen mittlerweile eine Prüfung der Plug-Ins vor der Bereitstellung, lassen nur Plug-Ins auf der Whitelist zu und überwachen Datenübertragungen im Zusammenhang mit aktiven KI-Integrationen, um sicherzustellen, dass keine Daten kontrollierte Umgebungen verlassen.

Fehlende Zugriffsverwaltung bei KI-Tools

Viele Organisationen verlassen sich auf gemeinsame KI-Konten ohne benutzerspezifische Berechtigungen. Dadurch ist es unmöglich nachzuverfolgen, wer welche Eingabeaufforderungen übermittelt oder auf welche Ergebnisse zugegriffen hat. Ein Varonis-Bericht 2025 analysiert 1,000 Cloud-Umgebungen ergab, dass 98 % der Unternehmen ungeprüfte oder nicht autorisierte KI-Apps im Einsatz hatten und 88 % über Scheinnutzer mit anhaltendem Zugriff auf sensible Systeme verfügten (Quelle). Diese Ergebnisse verdeutlichen, dass fast alle Unternehmen mit Governance-Lücken konfrontiert sind, die zu nicht nachvollziehbaren Datenlecks führen können.

Wenn individuelle Zugriffe nicht nachverfolgt werden, bleibt interner Datenmissbrauch – ob versehentlich oder böswillig – oft lange Zeit unbemerkt. Gemeinsam genutzte Anmeldeinformationen verwischen die Verantwortlichkeiten und erschweren die Reaktion auf Sicherheitsverletzungen. Um diesem Problem zu begegnen, setzen Unternehmen zunehmend auf KI-Plattformen, die detaillierte Berechtigungen, zeitnahe Aktivitätsprotokolle und Benutzerzuordnung ermöglichen. Diese Kontrollmöglichkeiten ermöglichen es, ungewöhnliches Verhalten zu erkennen, inaktive oder unbefugte Zugriffe umgehend zu widerrufen und jede Datenaktivität einer bestimmten Person zuzuordnen.

Was nun

Analysieren Sie, wie Ihre Teams KI täglich nutzen. Finden Sie heraus, welche Tools private Daten verarbeiten und wer darauf zugreifen kann. Legen Sie klare Regeln für die Weitergabe an KI-Systeme fest und erstellen Sie eine einfache Checkliste: Wechseln Sie API-Token, entfernen Sie ungenutzte Plugins und stellen Sie sicher, dass jedes Tool, das Daten speichert, über Löschoptionen verfügt. Die meisten Sicherheitsverletzungen entstehen, weil Unternehmen davon ausgehen, dass „jemand anderes zusieht“. Sicherheit beginnt jedoch mit den kleinen Schritten, die Sie heute unternehmen.

0

Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.

PoolX: Locked to Earn
APR von bis zu 10%. Mehr verdienen, indem Sie mehr Lockedn.
Jetzt Lockedn!

Das könnte Ihnen auch gefallen