Home Blog AI e cybersecurity: ...

AI e cybersecurity: le applicazioni e i rischi

Claudio Zamboni

L’Intelligenza Artificiale è ormai un elemento pervasivo e di grande impatto nella nostra vita quotidiana, in grado di plasmare il modo in cui lavoriamo e viviamo il mondo che ci circonda.

Ad esempio, negli ultimi anni l’AI ha notevolmente potenziato il settore sanitario, abilitando diagnosi più precoci, trovando i migliori protocolli per le nuove cure e persino nuovi farmaci, attraverso l’analisi di dati storici e la cosiddetta medical intelligence.

Nel settore Marketing & Sales, l’intelligenza artificiale ha notevolmente migliorato le strategie e le performance aziendali, fornendo ai clienti raccomandazioni in base alle previsioni sui loro futuri comportamenti  e assegnando priorità alle azioni di vendita in base ai lead score e ai dettagli di contatto.

Inoltre, l’Intelligenza Artificiale ha molte applicazioni diverse nel settore FinTech: dal rilevamento di azioni finanziarie fraudolente e anomale al monitoraggio del portfolio attraverso il Robo-Advisory.

Anche l’AI per la cybersecurity è una delle applicazioni fondamentali, oggi.

 

Intelligenza Artificiale: una benedizione e una minaccia per la sicurezza informatica

Quando si tratta di sicurezza informatica, l’intelligenza artificiale può rivelarsi sia una benedizione che una maledizione.

Analogamente ai tradizionali sistemi hardware-software, i sistemi basati sull’AI ​​presentano caratteristiche specifiche che possono essere attaccate in modi non tradizionali: la cosiddetta A.I.A.: Artificial Intelligence Attacks – Attacchi di intelligenza artificiale.

Attraverso questi attacchi, i cybercriminali possono ottenere il controllo dei sistemi di intelligenza artificiale all’avanguardia introducendo nel sistema campioni di dati accuratamente perturbati, volti a fuorviare l’algoritmo di Machine Learning sottostante o far crollare il sistema.

Gli algoritmi di apprendimento automatico sono impressionanti nel gestire grandi volumi di dati, ma devono essere addestrati correttamente utilizzando set di dati di accurati e ben etichettati, altrimenti dovranno affrontare rischi quali l’avvelenamento dei dati, furto di modelli o attacchi di evasione.

Gli attacchi di data poisoning (avvelenamento dei dati) manipolano il set di dati di addestramento utilizzato per addestrare algoritmi di machine learning, inducendo errori di classificazione in un campione di test specifico o in un sottoinsieme del campione di test.

Un evasion attack (attacco di evasione) si verifica quando un algoritmo di Machine Learning viene alimentato con un “esempio contraddittorio” – un input accuratamente perturbato che appare e si sente esattamente come la sua copia non manomessa per un essere umano – ma che elimina completamente il classificatore.

Secondo Gartner, gli attacchi informatici di intelligenza artificiale raddoppieranno di anno in anno, ma la maggior parte delle aziende li sta ancora fronteggiando attraverso metodologie generaliste e troppo limitate, come l’Application Security Testing (AST): di fatto non ci sono strumenti maturi per identificare, monitorare e mitigare questi attacchi di intelligenza artificiale.

 

AIA Guard: la prima soluzione Europea per valutare le vulnerabilità verso gli Attacchi di Intelligenza Artificiale 

Sviluppata da Datrix, AIA Guard (aiaguard.com) è la prima soluzione europea in grado di identificare i fattori di rischio e le debolezze di un sistema verso degli attacchi di intelligenza artificiale in modo conforme al GDPR. AIA Guard analizza automaticamente l’intero workflow del modello di machine learning, con particolare attenzione al data poisoning, agli attacchi di inferenza, al furto di modelli, alla perdita di dati e all’adversarial machine learning.

Può essere implementato in sede o su cloud privato e non richiede interazione con fonti esterne, inoltre si può annettere ai moduli esistenti per soddisfare le esigenze specifiche del cliente. È uno strumento molto intuitivo e facile da usare, sviluppato in modo che i messaggi chiave e le raccomandazioni vengano recepiti dagli utenti finali sia tecnici che non tecnici in maniera rapida e chiara.

Innanzitutto identifica i punti deboli della sicurezza nel codice sorgente dell’applicazione di machine learning, scansionando le dipendenze del software alla ricerca di vulnerabilità note.

In secondo luogo, rileva le informazioni sensibili, identificando il rischio di possibili fughe di dati personali (numeri di telefono, e-mail, codice postale, ecc.).

AIA Guard esegue analisi di evasione focalizzate su modelli testuali di ML. Questi attacchi potrebbero dirottare il modello verso un comportamento fuorviante generando esempi contraddittori in grado di ingannare il classificatore colpito.

Attraverso un test di penetrazione per valutare le vulnerabilità, rileva i punti critici sui servizi e sulle API esposte che potrebbero subire azioni a loro danno.

Alla fine, AIA Guard fornisce alle aziende informazioni fruibili, generando report chiari di tutte le procedure eseguite, suggerendo azioni correttive per migliorare la sicurezza e l’efficienza.