Cybercriminali Sfruttano LLM: Nuove Varianti di Malware JavaScript eludono la Sicurezza Globale
- News
- Visite: 63
L'avvento dei modelli di linguaggio di grandi dimensioni (LLM) sta aprendo nuove strade nel panorama della cybersecurity. Recenti ricerche hanno dimostrato che questi modelli possono essere utilizzati per generare varianti di malware JavaScript su larga scala, complicando la rilevazione da parte di sistemi di sicurezza. Anche se gli LLM non sono ancora in grado di creare malware da zero, i criminali informatici possono sfruttarli per riscrivere o offuscare malware esistenti, rendendo più difficile la loro individuazione. Gli esperti di Palo Alto Networks Unit 42 hanno sottolineato che i criminali possono indurre gli LLM a eseguire trasformazioni più naturali, aumentando così la difficoltà di rilevamento del malware.
Questa tecnica potrebbe, nel tempo, influenzare negativamente le prestazioni dei sistemi di classificazione del malware, ingannandoli nel considerare codice dannoso come benigno. Nonostante i fornitori di LLM abbiano rafforzato le misure di sicurezza per impedire utilizzi impropri, esistono strumenti come WormGPT che automatizzano la creazione di email di phishing e la generazione di nuovo malware. In un esperimento, Unit 42 ha utilizzato LLM per riscrivere campioni di malware esistenti, eludendo i modelli di apprendimento automatico come Innocent Until Proven Guilty e PhishingJS, creando 10.000 nuove varianti di JavaScript senza modificare la funzionalità originale.
Il metodo di apprendimento automatico avversario trasforma il malware utilizzando metodi come la rinominazione delle variabili, l'inserimento di codice inutile e la rimozione di spazi bianchi, rendendo il codice più naturale e meno rilevabile rispetto a librerie come obfuscator.io. Questo approccio ha dimostrato di ingannare i classificatori di malware, riducendo il punteggio di pericolosità del codice nell'88% dei casi quando testato su VirusTotal.
Inoltre, un gruppo di ricercatori della North Carolina State University ha sviluppato un attacco a canale laterale chiamato TPUXtract, che consente di rubare modelli di apprendimento automatico dai dispositivi Google Edge TPU. Questo attacco, che richiede accesso fisico al dispositivo, sfrutta i segnali elettromagnetici emessi durante le inferenze per dedurre gli iperparametri dei modelli, potenzialmente facilitando il furto di proprietà intellettuale.
Infine, è stato rivelato che i framework di intelligenza artificiale come l'Exploit Prediction Scoring System (EPSS) sono vulnerabili ad attacchi avversari. Questi attacchi possono influenzare la valutazione del rischio e la probabilità di sfruttamento di vulnerabilità software note, alterando il modo in cui i punteggi EPSS vengono utilizzati per gestire le vulnerabilità.