I criminali informatici stanno utilizzando l'intelligenza artificiale per realizzare schemi più elaborati. Stanno prendendo di mira di tutto, dai risparmi pensionistici ai segreti aziendali, con metodi sempre più difficili da individuare.
La stessa tecnologia che personalizza gli annunci pubblicitari per gli acquirenti online viene ora utilizzata da malintenzionati per raccogliere dettagli personali e lanciare truffe personalizzate velocemente. Molto velocemente.
Grandi aziende di IA come Anthropic, OpenAI e Google riferiscono che i criminali stanno sfruttando le loro piattaforme per orchestrare complesse operazioni di phishing, sviluppare software dannosi ed eseguire vari attacchi digitali. Gli specialisti della sicurezza avvertono che i criminali stanno anche producendo clip audio e video falsi di leader aziendali per ingannare i dipendenti e fargli rivelare informazioni sensibili.
Le aziende e gli uffici governativi potrebbero presto affrontare sciami di sistemi basati su IA che possono individuare debolezze nelle reti informatiche e poi pianificare ed eseguire attacchi con quasi nessun aiuto umano.
La tecnologia sta cambiando il modo in cui i criminali operano online. Alice Marwick dirige la ricerca presso Data & Society, un'organizzazione indipendente di ricerca tecnologica. Ha detto al Wall Street Journal che il cambiamento più grande riguarda dimensioni e portata. "Il vero cambiamento è ambito e scala. Le truffe sono più grandi, più mirate, più convincenti."
Brian Singer è uno studente di dottorato alla Carnegie Mellon University. Studia come i modelli linguistici di grandi dimensioni vengono utilizzati negli attacchi informatici e nelle difese. La sua stima? Dalla metà ai tre quarti dei messaggi spam e di phishing in tutto il mondo provengono ora da sistemi di IA.
Gli attacchi stessi sono diventati più credibili. I sistemi di IA addestrati sulle comunicazioni aziendali possono produrre migliaia di messaggi che suonano naturali e corrispondono allo stile di un'azienda. Copiano il modo in cui scrivono i dirigenti. Menzionano notizie recenti trovate negli archivi pubblici.
La tecnologia aiuta anche i truffatori stranieri a nascondere gli errori linguistici che un tempo rendevano evidenti i loro tentativi. I criminali possono impersonare le vittime attraverso video falsi e voci copiate. Usano la stessa identità falsa per colpire più persone contemporaneamente.
John Hultquist è chief analyst presso il Google Threat Intelligence Group. Descrive il cambiamento principale come "credibilità su scala."
I malintenzionati stanno anche migliorando nella selezione degli obiettivi. Usano l'IA per esaminare i social media e trovare persone che affrontano grandi difficoltà nella vita. Divorzi, morti in famiglia, perdita del lavoro e situazioni che potrebbero rendere qualcuno più vulnerabile a truffe romantiche, frodi sugli investimenti o false offerte di lavoro.
La barriera d'ingresso per il crimine informatico è diminuita. I mercati sotterranei ora vendono o affittano strumenti di IA per attività criminali per soli 90 dollari al mese. Nicolas Christin dirige il dipartimento di software e sistemi sociali della Carnegie Mellon.
Ha detto che queste piattaforme hanno diversi livelli di prezzo e assistenza clienti. "Gli sviluppatori vendono abbonamenti a piattaforme di attacco con prezzi a livelli e supporto clienti."
Questi servizi hanno nomi come WormGPT, FraudGPT e DarkGPT. Possono creare software dannosi e campagne di phishing. Alcuni includono persino materiali didattici sulle tecniche di hacking.
Margaret Cunningham è vicepresidente della sicurezza e strategia IA presso Darktrace, un'azienda di sicurezza. Dice che è semplice. "Non è necessario sapere come programmare, solo dove trovare lo strumento."
C'è uno sviluppo recente chiamato vibe-coding o vibe-hacking. Potrebbe consentire agli aspiranti criminali di utilizzare l'IA per creare i propri programmi dannosi piuttosto che acquistarli da fonti sotterranee. Anthropic ha rivelato all'inizio di quest'anno di aver fermato diversi tentativi di utilizzare la sua IA Claude per creare ransomware da parte di "criminali con poche competenze tecniche."
Le operazioni criminali stesse stanno cambiando. Secondo gli esperti, il crimine informatico funziona come un mercato commerciale da anni ormai. Una tipica operazione ransomware coinvolgeva gruppi diversi. Broker di accesso che violavano le reti aziendali e vendevano l'ingresso. Team di intrusione che si muovevano attraverso i sistemi rubando dati. E fornitori di ransomware-as-a-service che rilasciavano il malware, gestivano le negoziazioni e dividevano il denaro.
L'IA ha aumentato la velocità, le dimensioni e la disponibilità di questo sistema. Il lavoro precedentemente svolto da persone con conoscenze tecniche può ora essere eseguito automaticamente. Questo consente a questi gruppi di operare con meno persone, meno rischi e profitti più alti. "Pensatelo come il prossimo livello di industrializzazione. L'IA aumenta la produttività senza richiedere più manodopera qualificata," spiega Christin.
L'IA può lanciare attacchi completamente da sola? Non ancora del tutto. Gli esperti paragonano la situazione alla spinta per i veicoli completamente autonomi. Il primo 95% è stato raggiunto. Ma la parte finale che consentirebbe a un'auto di guidare ovunque, in qualsiasi momento da sola rimane fuori portata.
I ricercatori stanno testando le capacità di hacking dell'IA in ambienti di laboratorio. Un team della Carnegie Mellon, supportato da Anthropic, ha ricreato la famosa violazione dei dati di Equifax utilizzando l'IA all'inizio di quest'anno. Singer ha guidato il lavoro presso il CyLab Security and Privacy Institute della Carnegie Mellon. Lo definisce "un grande balzo."
I criminali sfruttano l'IA per scopi dannosi. Ma le aziende di IA affermano che gli stessi strumenti possono aiutare le organizzazioni a rafforzare le loro difese digitali.
Anthropic e OpenAI stanno costruendo sistemi di IA che possono esaminare continuamente il codice software per individuare debolezze che i criminali potrebbero sfruttare. Le persone devono comunque approvare eventuali correzioni. Un recente programma di IA sviluppato da ricercatori di Stanford ha ottenuto risultati migliori rispetto ad alcuni tester umani nella ricerca di problemi di sicurezza in una rete.
Nemmeno l'IA fermerà tutte le violazioni. Ecco perché le organizzazioni devono concentrarsi sulla creazione di reti robuste che continuino a funzionare durante gli attacchi, afferma Hultquist.
Se stai leggendo questo, sei già avanti. Rimani lì con la nostra newsletter.


