Neues KI-Werkzeug FraudGPT für Cyberkriminalität aufgetaucht. Funktionen, Risiken und Schutzmaßnahmen gegen solche Bedrohungen erkunden.Neues KI-Werkzeug FraudGPT für Cyberkriminalität aufgetaucht. Funktionen, Risiken und Schutzmaßnahmen gegen solche Bedrohungen erkunden.

Aufstieg der kriminellen KI

Es ist ein neuer Spieler in der Welt der Cyberkriminalität aufgetaucht der als ‘FraudGPT’ bekannt ist. Es folgt in den Fußstapfen von WormGPT. Laut Rakesh Krishnan, einem Sicherheitsforscher von Netenrich, handelt es sich um eine KI, die ausschließlich für offensive Zwecke konzipiert wurde.

“Sie kann Phishing-E-Mails erstellen, Cracking-Tools erzeugen und sogar beim Carding helfen”, sagte Krishnan in einem am Dienstag veröffentlichten Bericht. Es scheint, dass die Kriminellen diese KI-Tools für ihre eigenen Zwecke anpassen.

Einblick in FraudGPT

FraudGPT wird auf verschiedenen Darknet-Marktplätzen und in Telegram-Kanälen beworben. Seit mindestens dem 22. Juli 2023 ist es für einen Abonnementpreis von 200 US-Dollar pro Monat (oder 1.000 US-Dollar für sechs Monate und 1.700 US-Dollar für ein Jahr) im Umlauf.

Der Nutzer, der unter dem Online-Alias CanadianKingpin bekannt ist, preist das Werkzeug als “die ideale Alternative zu Chat GPT” an, die “ein breites Spektrum an exklusiven Werkzeugen, Features und Fähigkeiten bietet, die individuell auf jeden Nutzer zugeschnitten sind und keine Grenzen kennen.”

Potenzielle Gefahren von FraudGPT

FraudGPT kann auch dazu genutzt werden, bösartigen Code zu schreiben, undurchsichtige Malware zu erstellen und Lecks und Schwachstellen aufzuspüren. Mehr als 3.000 bestätigte Verkäufe und Rezensionen wurden bereits gemeldet. Welches genau Sprachmodell (LLM) zur Entwicklung des Systems verwendet wurde, ist derzeit unbekannt.

Diese Werkzeuge könnten die Phishing-as-a-Service (PhaaS) Model auf die nächste Stufe heben. Sie könnten auch als Startrampe für unerfahrene Akteure dienen, die überzeugende Phishing- und Business-E-Mail-Kompromiss (BEC) Angriffe in großem Maßstab durchführen wollen. Das könnte zu Diebstahl sensibler Informationen und unbefugten Überweisungen führen.

Absicherung gegen FraudGPT

Krishnan weist darauf hin, dass es zwar möglich ist, ChatGPT und andere Tools mit ethischen Sicherheitsmaßnahmen zu erstellen, es aber nicht schwierig ist, dieselbe Technologie ohne diese Sicherheitsmaßnahmen nachzubilden.

“Daher ist es umso wichtiger, eine umfassende Verteidigungsstrategie mit all den verfügbaren Sicherheitsdaten für schnelle Analysen zu implementieren. Das hilft, diese schnell bewegenden Bedrohungen zu erkennen, bevor eine Phishing-E-Mail zu Ransomware oder Datenexfiltration werden kann”, betont Krishnan.

Quelle The Hackers News