Unternehmensdaten schützen: Unsichtbare KI-Risiken in der Cybersicherheit

ADN
Künstliche Intelligenz spielt in der Cybersicherheit eine zunehmend ambivalente Rolle: Während sie Schutzmaßnahmen verbessert, nutzen Cyberkriminelle KI-Technologien, um gezielt Unternehmensdaten anzugreifen und Sicherheitslücken schwerer erkennbar zu machen.
TL;DR
- IA-Tools verursachen vermehrt sensible Datenlecks.
- Traditionelle Sicherheitssysteme erkennen diese Risiken kaum.
- Gezielte Kontrollen und Aufklärung sind dringend erforderlich.
Unsichtbare Bedrohung: Generative KI im Unternehmensalltag
Die fortschreitende Integration von generativer Künstlicher Intelligenz in den Arbeitsalltag stellt viele Unternehmen aktuell vor ein ernstzunehmendes Dilemma. Werkzeuge wie ChatGPT, Copilot oder Claude steigern zwar die Effizienz, bringen aber neue Risiken für die Cybersicherheit mit sich. Neueste Erhebungen des Sicherheitsunternehmens Cyera legen offen: Mittlerweile sind diese KI-Tools Hauptursache für das Abfließen sensibler Daten in Unternehmen – sie übertreffen sogar traditionelle Schwachstellen wie Cloud-Speicher oder E-Mails.
Ursache: Menschlicher Faktor statt raffinierter Cyberangriffe
Im Gegensatz zu klassischen Hackerangriffen stammen die meisten Datenlecks keineswegs von externen Angreifern. Vielmehr sind es die eigenen Mitarbeitenden, die – oft unbewusst – vertrauliche Informationen in KI-Chats eingeben. Fast jede zweite befragte Person hat laut Cyera-Studie bereits sensible Daten wie Unternehmensstrategien oder personenbezogene Informationen in einen Chatbot eingefügt – zumeist über private Konten, die von firmeninternen Sicherheitslösungen nicht erfasst werden. Besorgniserregend ist zudem: In 77 % der Fälle handelt es sich tatsächlich um echte Unternehmensdaten.
Sicherheitsmaßnahmen: Wo die bisherigen Systeme scheitern
Weshalb werden solche Aktivitäten so selten erkannt? Herkömmliche Schutzmechanismen kontrollieren hauptsächlich Dateiübertragungen und auffällige E-Mail-Kommunikation. Die Interaktion mit KI-Chatbots hingegen bleibt meist im Verborgenen, da sie für IT-Abteilungen wie gewöhnlicher Internetverkehr erscheint. Laut einer weiteren Studie des Unternehmens LayerX finden 67 % dieser KI-Nutzungen über nicht verwaltete Privatkonten statt – jenseits jeder Kontrolle.
Mehrere Faktoren erklären diese neue Verwundbarkeit:
- Firmeninterne Sicherheitstools erkennen KI-Interaktionen oft nicht.
- Mitarbeitende nutzen private Zugänge für arbeitsbezogene Informationen.
- Sensible Daten gelangen unbemerkt an externe KI-Anbieter.
Empfohlene Schutzmaßnahmen und ein notwendiger Kulturwandel
Ein generelles Verbot von Künstlicher Intelligenz im Berufsalltag halten Expertinnen und Experten für nicht zielführend. Vielmehr empfehlen sie, klare Richtlinien zu schaffen und Mitarbeitende gezielt zu schulen. Als wirkungsvolle Maßnahmen gelten: Der Zugriff auf KI-Dienste sollte ausschließlich über firmeneigene Accounts (idealerweise via Single Sign-On) erfolgen; verdächtige Schlüsselwörter oder ungewöhnliche Aktivitäten müssen besser überwacht werden. Letztlich ist entscheidend, jede Interaktion mit einem Chatbot als potenziellen Risikotransfer zu begreifen.
Unterm Strich fordert der rasante Wandel einen wachen Umgang mit der neuen Technik – denn oftmals genügt schon ein unbedachter Klick, um vertrauliche Informationen preiszugeben. Wer sich dieser Gefahr bewusst ist, kann gezielter gegensteuern und die Vorteile der Innovation sicher nutzen.