tags: reconnaissance_for_AI misconfiguration_cloud_services poisoning_AI avvelenamento_IA
Cos’è l’Exploitation dei Cloud Services?
I cloud services sono spesso utilizzati per ospitare applicazioni e gestire grandi quantità di dati, tra cui:
- Modelli di intelligenza artificiale.
- Dataset utilizzati per addestrare o migliorare l’IA.
- Endpoint API attraverso cui utenti e sviluppatori interagiscono con l’IA.
Se i servizi cloud sono configurati male, possono essere un punto debole sfruttabile da un attaccante.
Come funziona l’exploit?
1. Ricognizione
L’attaccante cerca di individuare configurazioni errate, come:
- Bucket S3 di AWS pubblici: File e dati sensibili lasciati esposti a chiunque.
- Permessi eccessivi: Account o servizi cloud con privilegi amministrativi non necessari.
- Credenziali hardcoded: Chiavi API o segreti lasciati nel codice sorgente o in configurazioni pubbliche.
2. Accesso Non Autorizzato
Se l’attaccante trova vulnerabilità, può ottenere l’accesso ai sistemi cloud. Ad esempio:
- Accede ai dati usati per addestrare l’intelligenza artificiale.
- Ruba o modifica i modelli dell’IA.
- Compromette l’infrastruttura su cui l’IA è eseguita.
3. Inserimento di Dati Malevoli (“Data Poisoning”)
Una volta ottenuto l’accesso, l’attaccante può:
- Avvelenare i dataset: Inserendo dati manipolati per influenzare il comportamento del modello IA.
- Esempio: Inserire dati falsi o pregiudizievoli per far sì che l’IA risponda in modo errato.
- Compromettere il training: Inserendo esempi malevoli durante l’addestramento per sabotare il modello.
- Esempio: Manipolare il modello affinché accetti input dannosi senza rilevarli.
4. Abuso dell’Infrastruttura Cloud
- L’attaccante potrebbe utilizzare i server compromessi per lanciare ulteriori attacchi, come il mining di criptovalute o il lancio di attacchi DDoS.
- Potrebbe anche lasciare porte aperte per mantenere l’accesso ai sistemi compromessi.
Esempi di Vulnerabilità Comuni nei Cloud Services
-
Bucket di Archiviazione Pubblica
- Ad esempio, un bucket S3 AWS configurato per essere accessibile pubblicamente potrebbe contenere dataset sensibili usati per addestrare il modello.
-
Servizi API Mal Configurati
- Se l’API non richiede autenticazione o è esposta con permessi eccessivi, un attaccante può interagirvi liberamente.
-
Esposizione di Segreti
- Se chiavi API o credenziali sono presenti nel codice sorgente o nei log pubblici (es. GitHub), un attaccante può utilizzarle per accedere al cloud.
-
Permessi eccessivi
- Account con privilegi amministrativi non necessari potrebbero consentire a un attaccante di ottenere il controllo totale sull’infrastruttura.
Un esempio pratico:
Un’organizzazione ospita il modello AI su un’istanza EC2 di AWS e usa un bucket S3 per archiviare i dati di addestramento:
- L’attaccante scopre che il bucket S3 è configurato come pubblico.
- Accede ai dati di training e li scarica.
- Inserisce dati malevoli nel bucket.
- L’AI, addestrata con questi dati, inizia a comportarsi in modo anomalo, causando problemi all’organizzazione.