Der klassische Enkeltrick ist den meisten Menschen inzwischen bekannt. Die Enkeltrick-Betrüger suchen sich Opfer, deren Urteilsvermögen und Wahrnehmung aufgrund ihres Alters nicht mehr ausreicht, um zu erkennen, dass es gar nicht der in Not geratene Enkel am Telefon ist, der dringend Bares benötigt.

Beim Enkeltrick 2.0 kommen selbst gestandene Manager an ihre Grenzen. Doch wie funktioniert das? Man bedient sich dabei der KI – künstlicher Intelligenz – und startet eine sogenannte Spoofing-Attacke – doch das Prinzip ist das gleiche wie beim klassischen Enkeltrick!

So bekam der Manager eines namhaften deutschen Konzerns kürzlich eine WhatsApp-Sprachnachricht von seinem Vorstandskollegen: Die Stimme erkannte er eindeutig wieder und auch das angezeite Profilbild passte – allerdings war der Inhalt der Nachricht ungewöhnlich. Cyberkriminelle hatten mit Hilfe von Deepfake-Software der Stimme des Vorstands Worte in den Mund gelegt, die dieser nie gesagt hatte. KI macht‘s möglich!

Spoofing-Attacken mit Deepfake-Audios und -Videos sind der letzte Schrei in der Hacker-Szene. Meist wird auf diese Weise versucht, Überweisungen zu veranlassen. Manchmal klappt’s, manchmal nicht – auf zum nächsten Opfer. Jeder kann betroffen sein!

Die Programme mit deren Hilfe Sprache und Tonlage beliebig „nachgebaut“ werden können, werden immer besser und sind vom Original kaum noch zu unterscheiden. Hier hilft auch die beste Sicherheitstechnik nichts. In einem solchen Fall ist die menschliche „Firewall“ gefragt: Gut geschulte, wachsame Mitarbeiter, die mit den neuesten Maschen der Kriminellen vertraut sind.

Hier einige Tipps, wie Sie sich gegen Spoofing-Attacken mit Deepfake-Audios schützen können, um das Risiko zu minimieren:

  1. Bei verdächtigen Nachrichten oder Anfragen per Anruf oder Sprachnachricht die vermeintlich gehörte Person in jedem Fall über alternative Kanäle versuchen zu kontaktieren.
  2. Achten Sie auf ungewöhnliche Hintergrundgeräusche wie knistern oder rauschen.
  3. Informieren Sie sich regelmäßig über die aktuellsten Techniken und ziehen Sie die Meinung Dritter zu Rate, wenn Ihnen Sprachnachrichten seltsam vorkommen.

Sollten Sie Opfer einer Spoofing-Attacken mit Deepfake-Audio geworden sein, wenden Sie sich an die Polizei und erstatten Sie umgehend Anzeige.

Für Unternehmen und Organisationen besonders wichtig:
Veranstalten Sie regelmäßige Awareness-Trainings, die gängige Angriffe nachahmen und Ihre Mitarbeitenden nachhaltig sensibilisieren. Sprechen Sie uns hierzu gerne an. Bei Interesse beraten wir Sie und Ihr Unternehmen gerne rund um das Thema Sicherheit.