Slopsquatting e allucinazioni AI, il nuovo rischio per la sicurezza aziendale

https://www.hdblog.it/business/articoli/n626786/slopsquatting-allucinazioni-ai-nuovo-rischio/

HDblog.it Jul 29, 2025 · 2 mins read
Slopsquatting e allucinazioni AI, il nuovo rischio per la sicurezza aziendale
Share this

dall'intelligenza artificiale,Gli assistenti di codifica alimentati dall'intelligenza artificiale, come GitHub Copilot, Cursor AI e ChatGPT, sono diventati strumenti centrali per gli sviluppatori, accelerando i flussi di lavoro e migliorando la produttività. Secondo una recente ricerca di Stack Overflow, oltre il 76% degli sviluppatori utilizza questi sistemi e più dell'80% ha riscontrato benefici significativi in termini di efficienza. Tuttavia, a questa diffusione si accompagna l'emergere di nuove tipologie di rischio: tra queste, le cosiddette "allucinazioni", ovvero la generazione da parte dei modelli di raccomandazioni di pacchetti software inesistenti ma credibili.

Uno studio recente ha evidenziato come i modelli open-source presentino un tasso medio di pacchetti "allucinati" pari al 21,7%, molto superiore al 5,2% rilevato per i modelli commerciali. I ricercatori hanno identificato oltre 200.000 nomi unici di pacchetti inesistenti, sottolineando la pervasività del problema. Non si tratta di errori evidenti: i nomi creati assomigliano a quelli di pacchetti autentici e possono trarre in inganno anche sviluppatori esperti. È emerso inoltre un aspetto "interlinguistico", con modelli di generazione di codice per Python che "allucinano" pacchetti JavaScript, aumentando la confusione negli ecosistemi software.

Questa vulnerabilità ha dato origine a una nuova forma di attacco alla supply chain denominata "slopsquatting". A differenza del typosquatting, che sfrutta gli errori di digitazione umani, lo slopsquatting si basa proprio sulle allucinazioni dei sistemi AI. Gli attaccanti monitorano i pacchetti suggeriti dall'intelligenza artificiale, registrano rapidamente quei nomi su repository come npm o PyPI e diffondono così codice malevolo. Un caso emblematico è quello di "huggingface-cli": nel 2023 un ricercatore ha registrato su PyPI questo pacchetto inesistente, ripetutamente suggerito dall'AI, come esperimento innocuo. In pochi giorni migliaia di sviluppatori, inclusi team di Alibaba, lo hanno integrato inconsapevolmente nei propri progetti, dimostrando la facilità con cui simili falle possono essere sfruttate.

Uno scenario su scala più ampia, con attaccanti intenzionati a danneggiare sistemi critici, potrebbe provocare compromissioni estese, violazioni di dati, backdoor persistenti e interruzioni gravi. La natura automatizzata della gestione delle dipendenze nelle moderne pipeline CI/CD facilita infatti la propagazione rapida del codice dannoso dagli ambienti di sviluppo ai sistemi di produzione. Le pratiche di sicurezza tradizionali risultano spesso inefficaci, poiché molti scanner di dipendenze si basano sulla reputazione storica e non riescono a rilevare pacchetti appena registrati.

Secondo Aaron Rose, Office of the CTO di Check Point Software, è essenziale adottare contromisure rigorose. Gli sviluppatori e i team di sicurezza devono trattare con scetticismo le raccomandazioni dell'AI, verificando manualmente i pacchetti sconosciuti e utilizzando strumenti come lockfile, versioni fissate e verifica degli hash crittografici. L'impiego di mirror interni o di elenchi di pacchetti fidati può ridurre l'esposizione alle nuove minacce.

I ricercatori hanno inoltre sperimentato tecniche come la retrieval augmented generation (RAG) e la messa a punto supervisionata, riuscendo a ridurre le allucinazioni fino all'85%, ma con un impatto negativo sulla qualità complessiva del codice. Questo evidenzia la necessità di soluzioni di sicurezza che individuino in modo proattivo le minacce senza compromettere l'efficienza dello sviluppo.