ScenarioSicurezza

Rischi e benefici degli LLM nel cloud: il punto di Palo Alto Networks

Tristano Ermini, Manager, Systems Engineering di Palo Alto Networks, ci parla dell’utilizzo dei modelli linguistici di grandi dimensioni (LLM) in ottica cloud, analizzando i pro e i contro dell’Intelligenza Artificiale.

Cosa sono gli LLM?

I modelli linguistici di grandi dimensioni (LLM) sono programmi di intelligenza artificiale che riescono a capire e produrre il linguaggio umano. Si basano su enormi quantità di dati testuali raccolti da Internet, dai quali apprendono le regole grammaticali e il modo di ragionare degli esseri umani. Queste capacità consentono agli LLM di risolvere problemi, creare contenuti e interagire con gli utenti. Alcuni esempi celebri di LLM sono ChatGPT di OpenAI, Bard di Google e il motore di ricerca Bing di Microsoft.

Gli LLMpossono essere sia una risorsa che una minaccia per la sicurezza dei sistemi cloud, che ormai dominano il settore tecnologico. Difatti, se da un lato questi modelli possono aiutare a proteggere i servizi e i dati che risiedono nel cloud, dall’altro possono generare disinformazione e vulnerabilità.

 I principali rischi associati agli LLM in ottica cloud

Ecco le principali criticità evidenziate da Tristano Ermini:

  • Allucinazione: gli LLM possono produrre output che non hanno alcun fondamento nell’input ricevuto o nella conoscenza del modello. Questo significa che il modello linguistico può creare un testo che non ha senso logico o semantico, ma che sembra plausibile a un osservatore umano.
  • Pregiudizi: la maggior parte delle applicazioni LLM si basa su modelli già addestrati, perché costruire un modello da zero è troppo costoso per la maggior parte delle aziende. Tuttavia, nessun modello è perfettamente imparziale, perché i dati di addestramento sono sempre sbilanciati in qualche modo. Ad esempio, i dati potrebbero contenere più testi in inglese che in cinese o più informazioni sul liberalismo che sul conservatorismo. Questo può portare a decisioni errate o ingiuste da parte degli esseri umani che si affidano ai suggerimenti dei modelli.
  • Coerenza: gli LLM non producono sempre lo stesso output a partire dallo stesso input: sono modelli probabilistici che continuano a “indovinare” la parola successiva in base a certe distribuzioni di probabilità.
  • Elusione dei filtri: gli strumenti LLM sono solitamente dotati di filtri di sicurezza per evitare che i modelli generino contenuti indesiderati, come quelli per adulti, violenti o protetti da diritti d’autore. Tuttavia, questi filtri possono essere elusi in alcuni casi, ad esempio, modificando gli input (prompt injection attack). I ricercatori hanno mostrato diverse tecniche per far generare a ChatGPT testi offensivi o previsioni infondate.
  • Privacy: gli LLM possono solo elaborare input e output non criptati in cloud. Quando un modello proprietario viene offerto come servizio, ad esempio OpenAI, i fornitori di servizi accumulano una grande quantità di informazioni sensibili o riservate, la cui compromissione potrebbe essere disastrosa, come dimostrato dai recenti casi di takeover di account e incidenti di query trapelate.

Le sfide che il settore dovrà affrontare

I rischi sopra elencati possono facilmente tramutarsi in sfide per i vari settori digitali (e non). In particolare:

  • Fake news e disinformazione: grazie alle loro avanzate capacità di generazione del linguaggio, gli LLM possono creare contenuti convincenti, basati su input verosimili ma falsi, contribuendo alla diffusione di fake news, teorie cospirative o narrazioni con intenti negativi.
  • Attacchi di social engineering: i malintenzionati possono utilizzare gli LLM per creare sofisticati attacchi di social engineering, come le e-mail di spear phishing e contenuti basati sul deep fake.
  • Violazione della proprietà intellettuale: gli LLM possono essere utilizzati per generare contenuti molto simili a materiale protetto da diritti d’autore. Ciò rappresenta un rischio per le aziende che si affidano alla proprietà intellettuale per mantenere un vantaggio competitivo.
  • Creazione di strumenti di attacco: l’AI generativa è stata utilizzata per verificare codice sorgente e scrivere nuovo codice e i ricercatori hanno dimostrato che può anche scriverne di pericolosi, come i ransomware. Ulteriori ricerche dimostrano che i criminali informatici usano ChatGPT anche per creare script di attacco.

LLM e AI: anche opportunità per il cloud

I modelli linguistici di grandi dimensioni non rappresentano solamente un rischio potenziale, ma possono anche assumere un ruolo positivo. Difatti, se usati correttamente, possono essere sfruttati anche per migliorare la sicurezza cloud. Vediamo alcuni casi d’uso degli LLM nella sicurezza cloud:

  • Automatizzare il rilevamento e la risposta alle minacce. Uno dei vantaggi più significativi degli LLM nel contesto della sicurezza cloud è la capacità di ottimizzare i processi di rilevamento e risposta alle minacce. Unendo la comprensione del linguaggio naturale, tipica degli LLM, alla Precision AI (Machine Learning o Deep Learning), si possono identificare potenziali minacce nascoste in grandi volumi di dati e modelli di comportamento degli utenti. Inoltre, imparando continuamente da nuovi dati, è possibile adattarsi alle minacce emergenti. In tal modo si ottengono informazioni sui rischi in tempo reale, consentendo alle aziende di rispondere in modo rapido ed efficiente agli incidenti di sicurezza.
  • Migliorare la conformità alla sicurezza: con la continua evoluzione dei quadri normativi, le aziende devono affrontare la sfida della compliance rispetto a vari standard e requisiti di sicurezza. Gli LLM possono essere utilizzati per analizzare e interpretare i testi normativi, consentendo di comprendere e implementare facilmente i controlli di protezione necessari. Automatizzando la gestione della conformità, possono ridurre significativamente l’impegno dei team di sicurezza, consentendo loro di concentrarsi su altre attività fondamentali. Questo aspetto è estremamente importante per le soluzioni che richiedono un elevato livello di conformità. E lo è ancora di più quando il cliente che le gestisce desidera rispettare determinate normative.
  • Prevenzione degli attacchi di social engineering: gli attacchi di social engineering, come il phishing e il pretexting, sono tra le minacce più diffuse alla sicurezza cloud. Utilizzando gli LLM per analizzare i modelli di comunicazione e identificare i potenziali rischi, le aziende possono rilevare e bloccare in modo proattivo gli attacchi di social engineering. Grazie a capacità avanzate di comprensione del linguaggio, gli LLM sono in grado di discernere le sottili differenze tra comunicazioni legittime e dannose. L’AI fornisce quindi un ulteriore livello di protezione per i sistemi basati su cloud.
  • Migliorare la comunicazione della risposta agli incidenti: quando si parla di sicurezza cloud, un aspetto critico dell’incident response è rappresentato dall’efficacia dei processi di comunicazione. Gli LLM possono essere utilizzati per generare report accurati e tempestivi. Rendendo quindi più facile per i team di sicurezza comprendere la natura degli incidenti e coordinare le attività di risposta. Inoltre, possono essere adottati per creare comunicazioni chiare e concise con gli stakeholder. In questo modo si possono aiutare le aziende a gestire i rischi per la reputazione associati alle violazioni di sicurezza.

Considerazioni finali di Tristano Ermini

“Come abbiamo visto, gli LLM presentano sia vantaggi che rischi per la sicurezza cloud. In particolare, essi aumentano il rischio che i dipendenti delle organizzazioni diffondano dati sensibili attraverso le applicazioni di Generative AI, violando la conformità o i requisiti normativi. Palo Alto Networks offre ai propri clienti un CASB di nuova generazione, in grado di identificare e bloccare l’accesso a interi cataloghi di app di Gen AI non autorizzate, che possono mettere a rischio utenti e dati. Inoltre, per le app consentite, il CASB può impedire la dispersione di dati sensibili su ChatGPT e altre app di uso comune, ad esempio quando gli utenti incollano codice sorgente o dati personali e/o sensibili negli appositi campi di queste applicazioni”

Tristano Ermini, Manager, Systems Engineering di Palo Alto Networks
Offerta
Sony WH-1000XM5 | Cuffie Wireless con Noise Cancelling, Connessione Multipoint, Batteria fino a 30h e Ricarica rapida, Alexa, Google Assistant e Siri - Nero
  • Il nuovo Processore Integrato V1 massimizza il potenziale del Processore di Eliminazione del Rumore HD QN1: la più grande innovazione nella nostra già leader tecnologia di eliminazione del rumore
  • Progettate con precisione per offrire un'eccezionale qualità di ascolto, anche in chiamata grazie alla tecnologia di rilevamento della voce e alla nuova struttura di riduzione del rumore del vento
  • L'Adaptive Sound Control regola automaticamente le impostazioni audio in base all'ambiente e all'attività e la funzione Speak-to-Chat mette automaticamente in pausa la musica quando vuoi parlare
  • Queste cuffie possono essere accoppiate con due dispositivi in contemporanea; con Fast Pair puoi localizzare le WH-1000XM5 se non riesci a trovarle e Swift Pair semplifica il pairing al tuo PC/tablet
  • Con una durata della batteria fino a 30 ore, avrai abbastanza energia, anche per lunghi viaggi Una custodia pieghevole è inclusa con queste cuffie Sony per conservarle e trasportarle comodamente

Da non perdere questa settimana su Techbusiness

🍎Indeed: che impatto avrà l’Intelligenza Artificiale sul futuro del lavoro?
☄️Data breach: le 8 cause principali della fuga di informazioni
🖥️Lavoro ibrido: i numeri del fenomeno e le soluzioni integrate di Logitech e Microsoft
🖨️FUJIFILM annuncia la serie Apeos, l'innovativa linea di stampanti multifunzione
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
💌 Risolviamo i tuoi problemi di cuore con B1NARY
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!

Marco Brunasso

Scrivere è la mia passione, la musica è la mia vita e Liam Gallagher il mio Dio. Per il resto ho 30 anni e sono un musicista, cantante e autore. Qui scrivo principalmente di musica e videogame, ma mi affascina tutto ciò che ha a che fare con la creazione di mondi paralleli. 🌋From Pompei with love.🧡

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button