html
Gli utenti si chiedono regolarmente: "Sono stato truffato con la criptovaluta, cosa faccio?" O "come recuperare i fondi rubati dal portafoglio fiduciario?". Il motivo per cui questi crimini sono così diffusi oggi è che il panorama della criminalità legata alle risorse digitali sta attraversando un cambiamento economico fondamentale.
Storicamente, gestire una truffa crittografica ad alto rendimento, implementare una sofisticata campagna di phishing o aggirare il KYC istituzionale richiedeva conoscenze tecniche specializzate, operatori multilingue e un notevole capitale umano. Oggi, l’intelligenza artificiale generativa ha completamente rimosso quel limite umano. Stiamo assistendo all’industrializzazione della frode, in cui la barriera all’ingresso è crollata, consentendo ad attori poco qualificati di eseguire inganni su scala meccanica.
L’impatto finanziario di questo cambiamento non ha precedenti. Nel 2025, il volume illecito di criptovalute ha raggiunto il massimo storico di 158 miliardi di dollari, con attività legate alle truffe che ammontavano a circa 30 miliardi di dollari. Allo stesso tempo, nell’ultimo anno il settore ha assistito a uno sconcertante aumento del 500% delle attività di truffa basate sull’intelligenza artificiale. Le truffe legate alle catene di fornitori di intelligenza artificiale ora generano 4,5 volte più entrate rispetto ai modelli di frode tradizionali, generando una velocità di transazione 9 volte superiore. *(Fonti: TRM Labs 2026 Crypto Crime Report, Chainalysis 2026 Crypto Crime Report)*
"L'uso dell'intelligenza artificiale generativa abbassa decisamente la soglia tecnica necessaria per eseguire attacchi sofisticati", afferma Umberto Buonora, responsabile della ricerca di Recoveris. "Ci aspettiamo di vedere un forte aumento dei furti guidati da pagine di phishing iperrealistiche, nuovi malware e vulnerabilità degli smart contract che i sistemi automatizzati scoprono e sfruttano in pochi secondi."
Nel nostro lavoro, vediamo che attualmente l’intelligenza artificiale viene utilizzata più intensamente nella fase di manipolazione iniziale, prendendo di mira l’elemento umano prima che venga coinvolta la blockchain. Gli autori delle minacce utilizzano modelli linguistici di grandi dimensioni (LLM) per creare “fiducia sintetica”: mantenere impegni emotivi coerenti e a lungo termine con centinaia di vittime contemporaneamente, senza la necessità di call center manuali o fabbriche di “macellazione di maiali”.
“Attualmente l’intelligenza artificiale viene utilizzata prevalentemente per adescare le vittime”, spiega Dominik Konopacki, Blockchain Investigations Manager presso Recoveris. "Sebbene sia ancora difficile raccogliere prove concrete del fatto che l'intelligenza artificiale guidi complessi processi di riciclaggio di denaro, stiamo vedendo che viene ampiamente utilizzata come arma attraverso deepfake e ingegneria sociale automatizzata per avviare il crimine."
Questa attrazione automatizzata si sta rivelando molto efficace. I deepfake e i generatori di identità sintetica ora alimentano circa il 40% di tutte le truffe crittografiche di alto valore, con conseguenti perdite stimate di 4,6 miliardi di dollari. I truffatori utilizzano questi stessi strumenti generativi per aggirare i controlli di “attività” dei Virtual Asset Service Provider (VASP) e i processi di conformità normativa (KYC). *(Fonti: Elliptic The State of Crypto Scams 2025)*