Die Methoden der Cyberkriminellen werden immer perfider. Die Täuschungsversuche per Sprachnachricht oder Anruf, sogenannte Deepfakes, nehmen auch im Unternehmensumfeld stetig zu.
Bei dieser betrügerischen Methode wird beispielsweise die Stimme des Konzernchefs gefälscht, um die Überweisung von hohen Geldbeträgen anzuordnen. Maschinen können inzwischen Dinge sagen, die sehr echt klingen, aber nicht echt sind. Die Deepfakes haben gravierende Auswirkungen auf unser Vertrauen in wahrhaftige Kommunikation.
Wie werden Deepfakes generiert?
Die gefälschten Aufnahmen werden über komplexe, auf KI basierende, Netzwerke – vergleichbar mit dem menschlichen Gehirn – erzeugt.
Und das funktioniert wie folgt: Daten realer Stimmen werden aufgenommen, gespeichert und der Algorithmus lernt, täuschend echt, die Stimmen der Person nachzuahmen.
Die Ursprungsdaten sind zum Beispiel im Internet zugängliche Audioaufnahmen, wie Postcasts, die in einzelne Elemente aufgesplittet und mit einem Texttranskript in das Netzwerk eingepflegt werden.
Durch diesen Lernprozess erkennt das künstliche Netzwerk ein Muster zwischen Stimme und Text und stellt einen Zusammenhang her zwischen demselben Begriff in Textform und dem gesprochenen Wort.
Diese Methode ermöglicht es, jede Stimme mit einem beliebigen Text zu versehen. Das Ergebnis ist ein Deepfake-Audio das für Spoofing-Angriffe, bei denen der Angreifer dem Opfer eine ihm vertraute Person vorspielt, genutzt werden kann.
Wie hoch ist das Risikopotential?
Im Rahmen einer Umfrage des Branchenverbands Bitkom gaben von 1.000 Unternehmen 90 % an, im vergangenen Jahr Opfer eines Cyberangriffs gewesen zu sein. In 20 % dieser Fälle handelte es sich um sogenanntes „Spoofing“, bei dem der Betrüger sich dem Opfer gegenüber als vertrauenswürdig ausgab.
Fast die Hälfte der befragten Unternehmen gab an, von „Social Engineering“ betroffen zu sein, eine Methode, bei der das Opfer zwischenmenschlich beeinflusst wird. Die Dunkelziffer dieser Angriffe wird etwa zehn Mal so hoch eingeschätzt.
Wie kann man sich gegen diese Angriffe zur Wehr setzen?
Für Cyberangriffe mit gefälschten Stimmen gibt es erste Lösungsansätze. Forscher der Ruhr-Universität Bochum fanden heraus, dass sich Fake- und echtes Audio meist stark in der Frequenz unterscheidet.
Sie entwickelten Algorithmen, mit deren Hilfe es möglich ist, zwischen gefälschten und echten Aufnahmen zu unterscheiden. Auf diese Weise lassen sich Fakes sicher identifizieren. Um diese technische Lösung erfolgreich einzusetzen ist jedoch eines essenziell: jemand muss zunächst misstrauisch geworden sein und eine entsprechende Überprüfung veranlassen.
Denn der wichtigste Schutz, auch im Unternehmensumfeld, ist die menschliche Firewall – unsere Mitarbeiter, die stets wachsam bleiben, weil sie wissen, mit welchen Methoden Cyberangriffe durchgeführt werden können.
Für Unternehmen und Organisationen besonders wichtig:
Wir empfehlen regelmäßige Schulung zur Sensibilisierung Ihrer Mitarbeiter rund um die Gefahren von Deepfake und Spoofing. Nehmen Sie im Verdachtsfall immer mittels eines anderen Kanals (z. B. Telefon, Mobilnummer, Chat) Kontakt mit der vermeintlich erkannten Person auf und überprüfen Sie die erhaltenen Anweisungen.
Gerne können Sie uns zu den Themen IT-Sicherheit und Cybersicherheit ansprechen. Wir informieren Sie und Ihr Unternehmen umfassend über die Möglichkeiten zu Schulung und Sensibilisierung Ihrer Mitarbeiter.