Handelsblatt App
Jetzt 4 Wochen für 1 € Alle Inhalte in einer App
Anzeigen Öffnen
MenüZurück
Wird geladen.

30.01.2022

10:11

Cyberkriminalität

Wie der Enkeltrick, nur mit KI: Deepfake-Betrüger erpressen Firmen mit falscher Chef-Stimme

Von: Melanie Raidl

Neun von zehn Unternehmen sind schon einmal Opfer eines Cyberangriffs geworden. Immer häufiger bedienen sich Betrüger einer besonders perfiden Methode.

Mit verschiedenen KI-Softwares lassen sich Audioaufnahmen fälschen. dpa

Deep Fake Betrug

Mit verschiedenen KI-Softwares lassen sich Audioaufnahmen fälschen.

Düsseldorf Es war eine ungewöhnliche WhatsApp-Nachricht, die vor ein paar Tagen südamerikanische Manager der Telekom erreichte: „Ich brauche deine Hilfe für eine wichtige Transaktion“, lautete eine Sprachnachricht auf Englisch mit deutschem Akzent. Die Stimme kannten die Mitarbeiter, es war die eines der deutschen Vorstandsmitglieder. Auch das Profilbild zeigte den Chef. Doch etwas stimmte nicht.

Die Mitarbeiter schickten die Nachricht weiter an Thomas Tschersich, Sicherheitschef der Telekom. Für ihn war schnell klar: Die Aufnahme ist gefälscht – ein Deepfake-Audio. „Es waren zu viele Störgeräusche im Hintergrund, und die Betonung der Sätze war sehr seltsam“, sagt der Sicherheitschef. Tschersich leitete den Betrugsversuch an die Polizei weiter.

Das Unternehmen kam mit dem Schrecken davon. Doch was der Telekom passierte, ist eine wachsende Bedrohung für die gesamte Wirtschaft. Bekannt ist das Phänomen Deepfake zwar schon länger. Doch heute gibt es ausgereifte Technologien auf Basis Künstlicher Intelligenz, die Stimmen und Videos nahezu originalgetreu nachstellen können.

Die Bezeichnung setzt sich aus den Begriffen Deep Learning und Fake zusammen. Algorithmen also, die mittels maschinellen Lernens täuschend echt reale Personen fälschen. Möglich ist das mit Stimmaufnahmen, aber auch mit Videos. Die gefälschten Medien nutzen Kriminelle, um unter anderem Firmen um Geld zu betrügen.

Jeder fünfte Cyberangriff ist bereits eine „Spoofing"-Attacke

Der Branchenverband Bitkom hat jüngst 1000 Unternehmen zu dem Phänomen befragt. 90 Prozent gaben an, im letzten Jahr Opfer eines Cyberangriffs geworden zu sein. 20 Prozent waren „Spoofing“-Fälle: Cyberbetrug, bei denen sich Täter als vertrauenswürdig ausgeben. Im Jahr 2019 waren acht Prozent aller Fälle „Spoofing“.

Fast die Hälfte der Unternehmen gab außerdem an, „Social Engineering“ erlebt zu haben, eine Methode, bei der Kriminelle ihre Opfer zwischenmenschlich beeinflussen wollen. 25 Prozent davon verliefen über das Telefon.

„Die Dunkelziffer ist nach unserer Schätzung zehn Mal so hoch“, warnt Rüdiger Kirsch von der Vertrauensschadenversicherung Euler Hermes, „in ein bis zwei Jahren werden wir solche Fälle an der Tagesordnung haben.“ Auch er musste in den letzten zwei Jahren einige Unternehmenskunden betreuen, die auf Anrufe mit gefälschter Stimme reingefallen waren – und tatsächlich Geld an Betrüger überwiesen hatten.

Grafik

Was der Telekom widerfahren ist, beschäftigt Forscher Nicolas Müller am Fraunhofer Institut für Angewandte und Integrierte Sicherheit jeden Tag. Er leitet eine Arbeitsgruppe, die sich mit Deepfake-Audios beschäftigt. Wie diese entstehen, weiß er im Detail. „Ein Laie schafft das nicht so einfach“, sagt Müller. Die Künstliche Intelligenz, auf der Deepfakes aufgebaut sind, seien komplizierte, aufwendig produzierte Netzwerke, die man mit Daten füttert.

Vergleichbar sind diese sogenannten neuronalen Netzwerke im Computer mit dem menschlichen Gehirn: Sie nehmen Daten auf, speichern sie und lernen. Die Daten sind in diesem Fall Audioaufnahmen.

Müller erklärt es an der Stimme von Angela Merkel, denn von Personen in der Öffentlichkeit gebe es meist viele zugängliche Audioaufnahmen im Internet. Man nehme Aufnahmen aus ihrer Weihnachtsansprache und Podcasts, teilt diese in Bruchstücke auf und pflegt sie zusammen mit einem Texttranskript davon in das Netzwerk ein. Dann erkenne das künstliche Netzwerk ein Muster zwischen Text und Audio.

„Das Netzwerk versteht nach einer Zeit den statistischen Zusammenhang zwischen einem Hallo als Textform und einem Hallo aus dem Mund von Angela Merkel.“ Am Ende könne man so jegliche Stimmen mit jeglichem Text versehen – entstanden ist ein Audio-Deepfake.

Deepfake-Software ist mittlerweile leicht zugänglich

Lydia Kostopolous, US-Expertin für Cybersicherheit und Zukunftstechnologien, warnt allerdings vor fertig gebauter und leicht zugänglicher Software, mit der auch Laien Deepfakes erstellen können. „Es gibt zahlreiche Webseiten, auf denen man seine eigene Stimme aufnehmen kann, und ein Tool kreiert daraus einen Deepfake.“ Wichtig sei, bei verdächtigen Nachrichten oder Anfragen per Anruf oder Sprachnachricht in jedem Fall über alternative Kanäle die vermeintlich gehörte Person zu kontaktieren.

Bei einem erfolgreichen Betrugsfall mit einem Deepfake-Audio in 2019 hatten Mitarbeiter des britischen Tochterunternehmens eines deutschen Energiekonzerns dies nicht getan. Die Betrüger riefen mit der gefälschten Stimme eines Vorstandsvorsitzenden den britischen Geschäftsführer an und wiesen ihn an, das Geld an einen Lieferanten zu überweisen. Der falsche deutsche Konzernchef habe sich „echt“ angehört, auch Satzmelodie und ein deutscher Akzent seien zu erkennen gewesen. Die Mitarbeiter überwiesen dann 220.000 Euro an die Betrüger.

Mehr zu Cybersicherheit:

Je besser Täter ihre Deepfake-Stimmen mit gutem KI-Training erstellen, desto schwieriger wird es, diese zu erkennen. Microsoft stellte 2020 erstmals ein Tool vor, welches erkennen soll, ob ein Video ein Deepfake oder echte Bildsequenzen zeigt.

Für die Erkennung von Audio-Deepfakes fanden in Deutschland Lea Schönherr und Joel Frank am Horst-Görtz-Institut für IT-Sicherheit der Ruhr-Universität Bochum eine Lösung: Sie erforschten, dass sich Deepfake-Audios und „echte“ Audios in ihrer Frequenz meist stark unterscheiden, und entwickelten Algorithmen, welche zwischen einem Fake und einer echten Aufnahme unterscheiden können.

Lars Niggemann, CEO des Beratungsunternehmens Prevency, setzt auf präventive Maßnahmen, um auf Bewusstsein für Deepfakes zu trainieren. Mithilfe einer Software simuliert er potenziell geschäftsschädigende Szenarien für seine Kunden wie die Verbreitung von Falschinformationen in sozialen Medien, Cyberattacken oder die Erpressung mit einem Deepfake. „Präventiv lernen unsere Kunden so die Bedrohungen kennen, die aus dem Internet kommen“, sagt Gründer Niggemann.

Auch Polizeistellen in Deutschland rechnen mit mehr Deepfakes in der Zukunft. „Es ist davon auszugehen, dass solche Techniken bei der Tatausführung zukünftig eine deutlich größere Rolle spielen werden“, sagte eine Sprecherin des Landeskriminalamtes in NRW dem Handelsblatt. Die Polizei trainiere stetig, wie Deepfake-Betrug geahndet werden könne. Wie, das müsse aus taktischen Gründen geheim bleiben.

Direkt vom Startbildschirm zu Handelsblatt.com

Auf tippen, dann auf „Zum Home-Bildschirm“ hinzufügen.

Auf tippen, dann „Zum Startbildschirm“ hinzufügen.

×