betrugsalarm-kriminelle-imitieren-assinger-und-weichselbraun

Betrügerische Imitationen: Falsche Polizisten und gefälschte Stimmen bedrohen Vertrauen

Ein Spiel mit dem Vertrauen nimmt immer gefährlichere Ausmaße an, wenn es um Betrugsfälle geht. Seit dem Jahr 2021 ist der Schaden durch falsche Polizisten, die vor allem ältere Menschen täuschen, auf mehr als 47 Millionen Euro angestiegen. Die Vorgehensweise ist perfide: Die Opfer erhalten Anrufe, in denen behauptet wird, ein Familienmitglied befinde sich in einer Notlage. Oft wird von einem Verkehrsunfall berichtet, bei dem ein Mensch ums Leben gekommen sei.

Millionenschaden durch Betrugsmasche der falschen Polizisten

Die Täter erkundigen sich gezielt nach den Wertgegenständen und dem Vermögen ihrer Opfer. Durch psychologische Tricks und Manipulation werden die Betroffenen unter Druck gesetzt, eine Kaution für das vermeintlich in Not geratene Familienmitglied zu zahlen. Angebliche Polizeibeamte in Zivil sollen das Geld dann persönlich abholen. Seit der Gründung der Einsatzgruppe „Falsche Polizisten“ (EG FaPo) im September 2022 konnten insgesamt 150 Täter identifiziert werden, davon allein 50 im Jahr 2024. Dem gegenüber stehen 616 Anzeigen wegen mutmaßlicher Betrugsversuche.

Die Tatsache, dass gerade die Polizei als vertrauenswürdige Institution Ziel einer Betrugsmasche ist, ist nicht verwunderlich. Laut dem OGM-Vertrauensindex war die Polizei im Jahr 2024 nach dem Bundesheer und der Volksanwaltschaft die Institution mit dem höchsten Vertrauen in Österreich. Besonders bei älteren Menschen ist die Zustimmung besonders hoch. Doch nicht nur die falschen Polizisten sind eine Bedrohung, sondern auch gefälschte Stimmen.

Voice Cloning als neue Betrugsmasche

Durch kurze Audioaufnahmen, die nicht länger als zehn Sekunden sind, können Stimmen von Personen geklont werden. „Betrüger können durch ‚voice cloning‘ Personen einfach alles sagen lassen“, erklärt Sandra Pöheim von „Watchlist Internet“. Verschiedene Tools im Internet ermöglichen diese Masche – einige kostenpflichtig, andere kostenlos.

Besonders im Bereich des Anlagebetrugs ist diese Methode derzeit verbreitet. Falsche Webseiten von Nachrichtenmedien, wie der ZiB, werden erstellt, auf denen Prominente wie Armin Assinger, Mirjam Weichselbraun und Alexander Van der Bellen zu Investitionen in zweifelhafte Finanzgeschäfte aufrufen. Obwohl diese Persönlichkeiten nichts mit der Masche zu tun haben, sind ihre Stimmen im Visier der Betrüger.

Langfristig könnte das ‚voice cloning‘ den Enkeltrick auf ein neues Level heben. „Je besser diese Tools werden, desto breiter können sie eingesetzt werden, beispielsweise auch durch Fälschung der Stimmen von Angehörigen“, so Pöheim. Obwohl dies aufwendiger ist, stellt es dennoch eine lukrative Betrugsmasche dar.

Noch stoßen die Tools an ihre Grenzen, insbesondere mit Dialekten, und wirken nicht authentisch. Im englischsprachigen Raum und in Deutschland ist das Problem bereits größer. Dennoch sollte man sich nicht darauf verlassen. „Die KI entwickelt sich rasant weiter – langfristig wird sie wohl auch steirischen und österreichischen Dialekt lernen“, sagt Pöheim. Persönliche Sicherheitsfragen könnten einen effizienten Schutz bieten, der zumindest in einem Telefonat mit einer vermeintlich bekannten Stimme eingebaut werden könnte. Die Quellenkritik bei gefälschten Videos ist ebenfalls hilfreich – das Gesagte kann durch zusätzliche Recherche überprüft werden. Denn Wissen kann die KI nicht fälschen.