Deepfakes sind KI-generierte Manipulationen, die häufig kaum von echten Video- oder Audioaufnahmen zu unterscheiden sind. Auch in Unternehmen kommt es immer häufiger zu Erpressungen oder Datenverlusten durch Deepfake-Angriffe.
Deepfakes bieten für die Unterhaltungsindustrie und das Marketing zahlreiche kreative Möglichkeiten. Doch auch Kriminelle nutzen Deepfakes, um zu erpressen und Angst zu schüren.
Künstliche Intelligenz (KI): ein Schlagwort, das in der aktuellen Welt kaum wegzudenken ist. Für das Gesundheitswesen und den Kundensupport können technisch funktionierende KI-Systeme von großem Vorteil sein und unsere Gesellschaft ein kleines Stück weiter vorantreiben. Doch das ist bei weitem nicht alles. Auf der anderen Seite wird KI für gezielte und täuschend echte Betrugsmaschen wie beispielsweise ausgereifte Erpressermails genutzt, um Daten zu stehlen oder für Deepfakes.
Welche Arten von Deepfakes gibt es?
Deepfakes gibt es in unterschiedlichen Formen. Dabei können Stimmen, Gesichter und Texte gefälscht werden.
Fälschung von Gesichtern: Mittels KI-basierten Technologien gibt es unterschiedliche Möglichkeiten, Gesichter in Videos zu manipulieren. Darunter fällt „Face Swapping“ (Gesichter tauschen), „Face Reenactment“ (Mimik u. ä. wird auf Wunsch hin kontrolliert) sowie neue synthetische Identitäten, die oft nur ein Pseudonym sind.
Fälschung von Stimmen: Auch manipulierte Stimmen gehören zu Deepfakes. Hier sind besonders „Text-to-Speech“- und „Voice Conversion“-Verfahren wichtig. Bei der „Text-to-Speech“-Variante geben Anwender einen Text in die entsprechende Anwendung, welcher so in eine Audio verwandelt wird. Bei der „Voice-Conversion“ werden Audio-Dateien genutzt, um daraus eine Audio-Datei mit gleichem Inhalt, aber anderen Charakteristika des Sprechers zu erstellen.
Fälschung von Texten: Auch geschriebene Texte können zu Deepfakes zählen. Dabei geht es vor allem darum, dass man bei einem Text, der durch ein KI-Modell erstellt wurde, nicht immer klar erkennen kann, ob dies nun ein synthetisch erstellter Text ist oder nicht. Large Language Modells (LLMs) generieren mittlerweile lange und auch zusammenhängende Texte, die als Nachricht, Blog-Eintrag oder Chat-Antwort genutzt werden können. Besonders gefährlich ist hierbei die Verbreitung von realistisch erscheinenden Desinformationen.
Die Nutzung von Deepfakes ist allgemein weit verbreitet. Einerseits sind sie im Bereich Marketing und in der Unterhaltungsindustrie längst zu einem Standard geworden: Künstler experimentieren, Filmstudios nutzen Deepfakes für Spezialeffekte und manche Apps versetzen den Anwender ohne viel Aufwand in eine lustige Szene. Andererseits ist es aber immer wichtig zu beachten, was das Ziel eines Deepfakes ist und in wie weit eine betrügerische Absicht dahintersteckt. Dann erstehen nämlich Schäden, die Deepfakes zu einer großen Gefahr für den Alltag von Privatpersonen aber auch von ganzen Unternehmen macht.
Eine Zeit lang wurden Deepfakes hauptsächlich dafür genutzt, nicht-einvernehmliche pornografische Inhalte zu erstellen. Dieses Phänomen traf besonders auch prominente oder vertrauenswürdige Personen, sowie Politiker. Heutzutage geht es darüber hinaus. Deepfakes können dazu dienen, Wähler und politische Akteure in aller Öffentlichkeit zu täuschen. Allgemein wird die Technologie immer häufiger dafür genutzt, große Geldsummen zu verlangen, Reputationen zu schädigen oder Aktienkurse zu manipulieren. Das führt soweit, dass Demokratie, mediale Glaubwürdigkeit und die Wahrheit darunter leidet.
Risiken für Unternehmen
Unternehmen fallen immer mehr in das Visier von Cyberkriminellen – und das in den unterschiedlichsten Formen, sei es durch Ransomware, Lieferketten-Angriffe oder eben KI-basierte Angriffe. Deepfakes in Meetings und Video-Calls sind zwar bisher noch nicht weit verbreitet, dafür wird beispielsweise verstärkt auf Multi-Channel-Angriffe oder CEO-Fraud-Angriffe (Stimme der Führungskraft wird geklont) zurückgegriffen. Mit einer geklonten Stimme des Geschäftsführers können Mitarbeiter dazu überzeugt werden, Überweisungen freizugeben oder Verträge abzuschließen. Social Engineering lässt sich mittels Deepfakes deutlich einfacher und schneller umsetzen, sodass sie kaum von echten Aufnahmen unterscheidbar sind. Kriminelle versuchen auf diese Weise an Passwörter, Multi-Faktor-Authentifizierungen (MFA) oder Systemzugänge zu gelangen, um sich einen Zutritt ins Unternehmen zu verschaffen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Solche Vorfälle gefährden die Geschäftsfähigkeit eines Unternehmens ernsthaft, sowohl durch Kapitalverlust als auch durch Reputationsschäden. Und dabei kommt es kaum darauf an, wie sehr sich ein Unternehmen schützt. Auch wenn alles richtig gemacht wird, das Netzwerk abgesichert ist, betrügerische Aufforderungen ignoriert und Datenschutzgesetze eingehalten werden, kann der Ruf durch einen einzigen Deepfake geschädigt werden. Kriminelle brauchen nur einen Video- oder Audioschnipsel, welche häufig im Netz frei zugänglich sind.
Deepfakes erkennen
Zwar werden Deepfakes immer besser, doch bleiben bisher noch Spuren, an welchen man sie erkennen kann. So kann man detailliert auf die Gesichtsstruktur achten, Lippenbewegungen beobachten oder die Belichtung prüfen. Bei Audio-Dateien treten häufig unnatürliche Pausen ein, es entsteht ein roboterhafter Klang oder eine ungewöhnliche Betonung. Grundsätzlich heißt es immer, Augen und Ohren offen zu halten und skeptisch zu sein.
In Unternehmen spielt besonders die Mitarbeiter-Awareness eine Rolle. Schulungen für das gesamte Unternehmen stärken das Bewusstsein und machen darauf aufmerksam, in bestimmten Situationen, wie beispielsweise einem verdächtiger Anruf oder einer verdächtige Mail, bewusster zu reagieren. Verdächtige Vorgänge sollten im Zweifel lieber abgebrochen und auf Glaubwürdigkeit hin untersucht werden.
Deepfakes sind vielschichtig und, wie viele KI-Technologien, ein zweischneidiges Schwert. Technologien zur Erkennung von Deepfakes gibt es bereits, und diese werden auch immer weiter ausgebaut. Je mehr die Kriminellen dazulernen, desto mehr lernt auch die Verteidigung dazu. Dennoch gilt immer, den natürlichen Menschenverstand zu benutzen und Skepsis zu wahren.