Microsoft contro Hacker Globali: Bloccato il Sistema di Hacking-as-a-Service su AI Generativa di Azure
- Redazione
- News
- Visite: 112
Microsoft ha recentemente intrapreso un'azione legale contro un gruppo di hacker basato all'estero, accusato di sfruttare l'infrastruttura di hacking-as-a-service per aggirare i controlli di sicurezza dei servizi di intelligenza artificiale generativa di Azure, con l'intento di creare contenuti offensivi e dannosi. Secondo il Digital Crimes Unit di Microsoft, questi hacker hanno sviluppato software avanzati per sfruttare le credenziali dei clienti, esposte su siti web pubblici, al fine di accedere illegalmente a servizi generativi di AI e alterarne le capacità per scopi illeciti.
Questa minaccia è stata scoperta nel luglio 2024, quando Microsoft ha individuato che il gruppo di hacker stava utilizzando servizi come Azure OpenAI Service per vendere l'accesso a questi strumenti a ulteriori attori malintenzionati, fornendo istruzioni dettagliate sull'uso degli strumenti per generare contenuti dannosi. Microsoft è riuscita a revocare l'accesso del gruppo agli strumenti e ha implementato nuove contromisure per impedire futuri abusi, ottenendo anche un'ordinanza del tribunale per sequestrare un sito web centrale per le operazioni criminali del gruppo.
La popolarità degli strumenti di AI, come ChatGPT di OpenAI, ha portato anche all'abuso da parte di attori di minaccia che li utilizzano per scopi malevoli, dalla produzione di contenuti proibiti allo sviluppo di malware. Microsoft e OpenAI hanno ripetutamente segnalato che gruppi di stati nazionali, come quelli di Cina, Iran, Corea del Nord e Russia, hanno utilizzato questi servizi per attività di riconoscimento, traduzione e campagne di disinformazione.
I documenti del tribunale indicano che almeno tre individui sconosciuti sono dietro queste operazioni, utilizzando chiavi API di Azure rubate e informazioni di autenticazione Entra ID per violare i sistemi Microsoft e creare immagini dannose con DALL-E, in violazione della politica di utilizzo accettabile. Si stima che altre sette parti abbiano usato i servizi e gli strumenti forniti per scopi simili.
Non è ancora chiaro come siano state raccolte le chiavi API, ma Microsoft afferma che i responsabili hanno condotto un "furto sistematico di chiavi API" da più clienti, tra cui diverse aziende statunitensi situate in Pennsylvania e New Jersey. Utilizzando le chiavi API rubate, i responsabili hanno creato uno schema di hacking-as-a-service accessibile tramite infrastrutture come i domini 'rentry.org/de3u' e 'aitism.net', progettato specificamente per abusare dell'infrastruttura e del software di Azure.
La denuncia legale di Microsoft sottolinea come i responsabili abbiano cercato di coprire le loro tracce, tentando di cancellare le pagine di Rentry.org, il repository GitHub per lo strumento de3u e parte dell'infrastruttura di proxy inverso, dopo il sequestro del dominio 'aitism.net'. Questo caso mette in evidenza la continua minaccia che i servizi di AI rappresentano quando utilizzati per scopi malevoli, e la necessità di misure di sicurezza più rigorose per proteggere le piattaforme di intelligenza artificiale.