IA nella cybersecurity: così può diventare alleata delle aziende


Le sfide e le opportunità generate dall’intelligenza artificiale sono particolarmente evidenti per i professionisti della sicurezza informatica.

L’IA assume oggi, infatti, simultaneamente il ruolo di minaccia e di soluzione. Mentre i cybercriminali sfruttano sempre più queste tecnologie per perfezionare i loro attacchi, i professionisti della sicurezza informatica stanno sviluppando strumenti di difesa altrettanto avanzati per proteggere le organizzazioni moderne.

IA, arma a doppio taglio per la cybersicurezza

Da un lato, l’IA sta inaugurando un’era di esplorazione in cui si sta cercando di capire come la tecnologia possa rimodellare la sicurezza: dal rilevamento avanzato delle minacce alla risposta automatizzata, fino alla protezione dei dati in ambienti AI-driven. Dall’altro, i cybercriminali stanno approfittando della crescente disponibilità e accessibilità delle capacità dell’IA per creare tecniche sempre più sofisticate.

I ricercatori del Netskope Threat Labs hanno recentemente pubblicato un nuovo studio da cui emerge che nel 2024 i clic su link di phishing nei luoghi di lavoro sono triplicati e che ogni mese nell’88% delle organizzazioni si verifica il download di contenuti malevoli. Hanno anche constatato che il denominatore comune che decreta il successo di queste minacce informatiche è la crescente sofisticazione delle campagne di ingegneria sociale progettate dagli hacker per ingannare le vittime, dove i contenuti generati dall’IA contribuiscono in modo significativo.

Strumenti malevoli e deepfake: nuove frontiere del crimine

Strumenti come WormGPT e FraudGPT, gemelli malevoli di ChatGPT, si sono affermati come varianti oscure e incontrollate di legittimi strumenti di GenAI e stanno aiutando i criminali informatici a creare email più convincenti e a scrivere malware più efficaci, diventando fonti d’ispirazione per attività ancora più dannose.

L’emergere dell’IA ha portato con sé anche il fenomeno dei deepfake audio e video, quasi sempre creati per scopi malevoli. Creare deepfake iper-realistici e convincenti è diventato più semplice e veloce, e stiamo già assistendo alla loro efficacia in una vasta gamma di attività criminali, dalle frodi mirate nei luoghi di lavoro alla disinformazione di massa.

Rischi di perdita dati con l’IA generativa aziendale

Oltre a potenziare le minacce, l’IA sta creando seri problemi anche ai professionisti della protezione dei dati. Non possiamo parlare dei rischi dell’IA senza affrontare i pericoli legati all’uso dell’IA generativa in azienda e al rischio di perdita di dati sensibili. Lo studio dei ricercatori Netskope ha rilevato che i caricamenti di dati su applicazioni GenAI sono aumentati di 30 volte in 1 anno: 3 utenti aziendali su 4 accedono ad applicazioni con funzionalità GenAI incorporate.  

La tipologia di dati caricati su applicazioni di GenAI è varia: da dati sensibili come codici sorgente, dati regolamentati, password e chiavi, a dati di proprietà intellettuale, il che aumenta significativamente il rischio di costose violazioni dei dati, violazioni della conformità e furto di proprietà intellettuale.

È chiaro che l’avvento dell’IA generativa ha rappresentato la pietra angolare della nascita di nuovi vettori di minaccia.

L’IA come alleato nella cybersecurity moderna

Ma se da un lato l’IA sta aiutando i cybercriminali a migliorare le loro capacità, sta anche fornendo un contributo uguale, se non maggiore, alle tecnologie e alle pratiche di cybersicurezza.

Se ci fermiamo solo alle notizie allarmanti, potrebbe sembrare che i criminali informatici abbiano il sopravvento sulle capacità di chi difende. Ma questa è un’immagine distorta della realtà. Sono i team di sicurezza che in realtà hanno il vantaggio, perché alcune delle menti più brillanti nel campo dell’IA e del machine learning stanno contribuendo da oltre un decennio alla creazione e al perfezionamento di strumenti di sicurezza straordinari.

Rilevamento avanzato delle minacce con intelligenza artificiale

L’IA ha rivoluzionato il modo in cui vengono rilevate le minacce, grazie alla sua capacità di analizzare e identificare comportamenti e schemi in tempo reale con un alto livello di sofisticazione e granularità. Riconoscere quando un utente fa clic su un link di phishing, accede a pagine di login false, si comporta in modo insolito (segno di una possibile compromissione), inserisce dati sensibili in un prompt di IA generativa o scarica contenuti malevoli da applicazioni cloud: questi sono tutti scenari che i motori di rilevamento delle minacce basati sull’IA dovrebbero coprire.

Algoritmi ben addestrati stanno aiutando anche nella prevenzione e risposta automatizzate alle minacce. Gli strumenti di Data Loss Prevention (DLP), ad esempio, bloccano automaticamente le azioni degli utenti che violano le policy di protezione dei dati, come l’invio di informazioni riservate ad account personali. Strumenti di coaching in tempo reale adottano un approccio più soft, ma altrettanto efficace nel diffondere le migliori pratiche di cybersicurezza: rilevano comportamenti indesiderati nel momento in cui si verificano e avvisano gli utenti con pop-up quando stanno compiendo un’azione potenzialmente rischiosa. Gli utenti ricevono informazioni sulla policy di sicurezza, possono decidere se “accettare il rischio” (la maggior parte non lo farà), essere indirizzati verso un’alternativa o giustificare l’azione e richiedere un’esenzione dalla policy, a seconda delle scelte del team di sicurezza.

Protezione completa: dall’analisi testuale al riconoscimento immagini

Nel valutare gli strumenti e definire le policy, i responsabili della sicurezza devono garantire che tutti gli scenari possibili affrontati dai dipendenti siano coperti. Le informazioni non sono sempre testuali: il 20% dei dati sensibili è rappresentato da immagini come foto o screenshot. Potenti algoritmi di IA addestrati per questo scopo possono ora rilevare potenziali fughe di dati che si manifestano attraverso immagini o video.

Se queste capacità sembrano straordinarie, considerate che abbiamo solo scalfito la superficie. La quantità di ricerca e sviluppo in questo settore è fenomenale e nuove funzionalità vengono costantemente integrate nei servizi di sicurezza cloud, consentendo alle organizzazioni di rimanere al passo molto più velocemente rispetto agli approcci basati su dispositivi hardware tradizionali.

L’IA sta quindi apportando capacità straordinarie nel campo della sicurezza informatica ed è il nostro migliore alleato, oggi e in futuro, per difenderci dalle minacce moderne e in continua evoluzione, comprese quelle che coinvolgono l’IA stessa.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link