Arriva FraudGPT il fratello cattivo di ChatGPT che aiuta le truffe

VEB

Il “fratello cattivo” di ChatGPT, che è stato adoperato dai criminali come potente strumento di intelligenza artificiale, viene indicato come un nuovo mezzo utilizzato dai truffatori “senza regolamenti o limiti” per sottrarre le identità di persone ignare nell’ultima serie di inganni online.

Arriva FraudGPT il fratello cattivo di ChatGPT che aiuta le truffe
Foto@Pixabay

Questa variante malevola di ChatGPT viene utilizzata dai criminali informatici come una nuova arma formidabile dell’AI, come rivela il portale DailyStar.

Questo strumento avanzato è in funzione solamente da una settimana, ma si pensa che gli hacker abbiano già sottratto l’identità di centinaia di utenti online inconsapevoli.

Conosciuto come FraudGPT, il chatbot fa uso di pagine di phishing e codice maligno per orchestrare truffe testuali, messaggi email fuorvianti e documenti falsi che ingannano le vittime, comprese aziende e individui, inducendole a rivelare dettagli di sicurezza e password.

E’ capace di rimuovere gli errori di ortografia e grammatica spesso presenti nelle email truffaldine, e gli specialisti temono che potrebbe essere dannoso anche nelle mani di un hacker alle prime armi.

L’analista di crimini informatici Rakesh Krishnan ha dichiarato: “Con l’avvento dei modelli AI generativi, il panorama delle minacce si è trasformato drasticamente. Le recenti attività nei forum del Dark Web mostrano l’emergenza di FraudGPT, disponibile sui canali Telegram dal 22 luglio“.

FraudGPT è un robot AI, creato appositamente per fini malevoli, come la realizzazione di email di spear phishing, lo sviluppo di strumenti di cracking, carding, ecc. Lo strumento è attualmente in vendita in vari mercati del dark web e su Telegram.“.

Il bot viene offerto a circa 175 euro al mese o 1.300 all’anno, con più di 3.000 vendite già effettuate. FraudGPT, promosso come un “bot senza restrizioni, regole o limiti“, viene venduto da un venditore che si proclama autenticato nei mercati del Dark Web, inclusi Alphabay, Impero e WHM.

Il suo inventore si vanta che “il cielo è il suo unico limite” con questo “strumento all’avanguardia”, affermando che il bot può “produrre malware invisibili” e individuare siti web suscettibili alle frodi con carta di credito. Krishana ha inoltre aggiunto: “Col tempo, i criminali scopriranno nuovi modi per incrementare le loro abilità criminali usando le tecnologie che inventiamo“.

Pur potendo le organizzazioni creare ChatGPT e altri strumenti con misure di sicurezza etiche, non è complicato riprodurre la stessa tecnologia senza tali protezioni“.

Un rapporto della società di sicurezza informatica Egress rivela che il 92% delle organizzazioni è stato “vittima di phishing” nel 2022, con il 54% che ha registrato perdite finanziarie di conseguenza. Il tutto basato sulle risposte di 500 specialisti di sicurezza informatica in aziende nel Regno Unito, negli Stati Uniti e in Australia. L’esperto di sicurezza online Patrick Harr ha commentato: “Prima, i truffatori che compromettevano le email aziendali dovevano creare una mail fraudolenta e poi rifarla più volte. Ora non è più necessario farlo”.

fonte@DailyStar

Next Post

Intelligenza artificiale legge il pensiero e identifica la musica che stai pensando

Un’azienda sta sviluppando un’intelligenza artificiale che può identificare le melodie che stai pensando attraverso l’analisi delle tue onde cerebrali. Gli scienziati dell’Università di Osaka e Google stanno lavorando su un’intelligenza artificiale capace di generare musica simile a quella ascoltata da un individuo, interpretando i segnali del cervello. Negli ultimi tempi, […]
Intelligenza artificiale legge il pensiero e identifica la musica che stai pensando