Der Enkeltrick, dass Betrüger an Geld kommen wollen, indem sie sich als Verwandte am Telefon ausgeben, ist bekannt. Auch WhatsApp Nachrichten werden verschickt. Jetzt kommt die nächste Betrugsmasche.

JEDER KANN ZUM OPFER WERDEN

Betrüger setzen jetzt künstliche Intelligenz ein, um Stimmen von Familienangehörigen nachzuahmen. Das Telefon klingelt und zu hören ist, die vermeintliche Stimme eines bekannten Menschen an.

Die Stimme klingt panisch und berichtet von einer Krisensituation, in der sich die Person aktuell befinde. Häufig sind es Sätze wie „Ich bin im Gefängnis.“ oder „Ich hatte einen Unfall.“ Anschließend folgt die Bitte, Geld zu überweisen.

Die neue KI-Masche macht es nicht nur älteren Menschen schwer, den Betrug zu erkennen. Jede Altersgruppe ist gefährdet darauf hereinzufallen.

Mehr