Mitarbeitende soll KI-Tools nutzen, dürfen aber nicht Schatten-KI braucht Absicherung, keine Verbote

Quelle: Pressemitteilung Forcepoint Deutschland GmbH 2 min Lesedauer

Anbieter zum Thema

Mitarbeitende nutzen im großen Stil öffentliche KI-Tools: E-Mails formulieren, Meetings zusammenfassen, Präsentationen erstellen. Die KI-Nutzung ist gesetzt–- mit oder ohne Unterstützung der Unternehmens-IT. Das wirft Probleme auf.

Schatten-KI, analog zu Schatten-IT, die insbesondere die eigenmächtige Nutzung von Cloud-Angeboten von Beschäftigten bezeichnet, ist offenbar genauso weing zu verhindern. Doch eine Gefährdung des Unternehmens darf die IT iim Haus in keinem Fall riskieren. Der Schlüssel ist jedenfalls  nicht das KI-Verbot. (Bild: ©  perfectlab - stock.adobe.com / KI-generiert)
Schatten-KI, analog zu Schatten-IT, die insbesondere die eigenmächtige Nutzung von Cloud-Angeboten von Beschäftigten bezeichnet, ist offenbar genauso weing zu verhindern. Doch eine Gefährdung des Unternehmens darf die IT iim Haus in keinem Fall riskieren. Der Schlüssel ist jedenfalls nicht das KI-Verbot.
(Bild: © perfectlab - stock.adobe.com / KI-generiert)

Ganz selbstverständlich nutzen Mitarbeiter KI-Tools wie „ChatGPT“, „Copilot“ und Gemini, in der Hoffnung Prozesse zu beschleunigen und Routine-Aufgaben abzugeben. Das geschieht aber häufig ohne Aufsicht der zentralen IT.

Das aber stürzt Unternehmen damit in ein Dilemma: Einerseits profitieren sie von der steigenden Produktivität der Belegschaft, andererseits werden ihre Daten großen Risiken ausgesetzt. Denn durch diese Schatten-KI entstehen Risiken: Sensible Informationen können in fremde Systeme abfließen, Geschäftsgeheimnisse offengelegt und Datenschutzvorgaben verletzt werden.

Solche Tools zu verbieten und ihre Nutzung zu unterbinden ist freilich keine Option, denn damit würden Unternehmen auf große Produktivitätssteigerungen und viel Innovationskraft verzichten. Deshalb ist es besser, dafür zu sorgen, dass KI kontrolliert, transparent und sicher eingesetzt wird. Das Unternehmen Forcepoint zeigt auf, wie das gelingen kann:

  • 1. Offenbar keine Selbstverständlichkeit: Damit Unternehmen einen sicheren Einsatz ihrer Daten mit KI gewährleisten können, müssen sie wissen, welche sensiblen Informationen sie überhaupt haben, wo sie sich überall befinden und wie schützenswert sie sind. Tools für Data Security Posture Management (DSPM) können die gespeicherten Daten in verteilten IT-Umgebungen aus firmeneigenen Servern, Clouds und Endgeräten regelmäßig scannen und mit Hilfe von künstlicher Intelligenz klassifizieren.
  • 2. Gezielte Erlaubnis: Unternehmen sollten ermitteln, welche KI-Tools ihren Mitarbeitenden tatsächlich einen handfesten Nutzen bringen und Richtlinien aufstellen, welche Tools von welchen Nutzergruppen eingesetzt werden dürfen. Mit einem Secure Web Gateway (SWG) und einem Cloud Access Security Broker (CASB) lassen sich die Zugriffe feingranular steuern. So wird nur autorisierten Mitarbeitern Zugang zu den KI-Tools gewährt.
  • 3. Riskante Aktivitäten gehören unterbunden: Mit Monitoring-Systemen, die DLP-Technologie (Data Loss Prevention) nutzen, können Unternehmen die Interaktionen der Nutzer mit KI-Tools anonymisiert überwachen, riskante Verhaltensmuster identifizieren und problematische Aktionen stoppen. Wenn ein Mitarbeitender, eine Mitarbeiterin beispielsweise versucht, ein KI-Tool zu nutzen, das für ihn/sie nicht zugelassen ist, oder einen sensiblen Textabschnitt in einen Chat kopieren möchte, blendet das System einen Warnhinweis ein oder blockiert die Aktion.
  • 4. Schutz für den Content: DLP-Technik ermöglicht es Unternehmen zudem, Inhalte zu schützen. Wenn Mitarbeitende Dokumente, PDFs, Bilder oder Quellcode in ein KI-Tool hochladen möchten, prüft die Technologie, ob sie sensible Informationen enthalten und verhindert gegebenenfalls den Upload. Das funktioniert auch dann zuverlässig, wenn sensible Inhalte in eine neue Datei eingebettet werden oder in einem Screenshot enthalten sind.
  • 5. Dynamik macht Maßnahmen wertvoll. Gute Monitoring-Systeme passen ihre Maßnahmen gegen riskante Aktionen mit KI-Tools automatisch an den Kontext an. Ob sie einem Mitarbeitenden nur einen Hinweis anzeigen, eine Aktion blockieren oder ihm vielleicht sogar Zugriffsrechte entziehen, hängt von seinen vorangegangenen Aktivitäten ab und dem Gesamtbild, das sich daraus ergibt. So gewährleisten die Systeme hohe Sicherheit, ohne die Mitarbeitenden unnötig einzuschränken.

(ID:50632909)

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung