Ultimi trend in ambito digitale e news dell'associazione | Blog | ated

La sicurezza digitale ai tempi dell’AI. Come proteggersi con la Cyber Security

Scritto da ated | 26 set 2025

Digitale fa rima con opportunità ma anche con rischi

Quando la digitalizzazione è entrata in modo dirompente nella quotidianità, sono stati necessari alcuni anni per rendersi conto dei possibili rischi causati da una navigazione in rete poco consapevole. Al contempo chi desiderava trarne dei vantaggi in modo fraudolento affinava sempre più dei possibili sistemi. La sicurezza digitale è minacciata quotidianamente da fenomeni quali il furto dei dati sensibili, soprattutto da quando si conosce una digitalizzazione spinta di servizi quali quelli, ad esempio, postali o bancari e dello shopping online. Il pishing e l’uso di malware sono divenuti via via più efficaci e difficili da identificare, permettendo di mettere a segno azioni dannose contro privati, aziende e organizzazioni e rendendo sempre più complesso proteggersi.

Al contempo si sono sviluppate varie azioni di Cyber Security, cercando di stare al passo col cybercrimine. Si possono citare misure quali sistemi di protezione (si pensi ai classici antivirus) e interventi legislativi per la protezione di uno dei beni più preziosi, i propri dati personali: quello più noto a livello europeo è il GDPR, che ha imposto una serie di norme stringenti alle aziende e a cui la Svizzera si è in qualche modo adeguata con la Nuova Legge sulla Protezione dei Dati.

Con l’AI si fa meno attenzione, ecco perchè

L’avvento dell’intelligenza artificiale ha dato vita non solo a nuove e ancora inimmaginabili possibilità di crescita e di utilizzo in vari campi della vita privata e lavorativa, ma anche a nuove frontiere di rischio. Alcune caratteristiche di chatbot di AI generativa, volti cioè alla creazione di contenuti scritti, video, audio o immagini, come la rapidità e la sostanziale semplicità di uso (anche se per avere dei risultati realmente efficaci non basta la digitazione di una frase, ma servono studi su prompt e ordini, possibili solo con una debita formazione e sensibilizzazione), portano spesso a sottovalutare i possibili rischi e ad inserire, senza ragionare sulla quantità di informazioni sensibili che si sta dando in pasto a un sistema ancora poco conosciuto ai più. Costruendo conversazioni, chiedendo risposte e proseguendo in botta e risposta si danno in pasto ai sistemi dati sensibili: se per quanto concerne l’uso dei dati online è stato fatto un importante lavoro di sensibilizzazione e si adotta maggiore prudenza, lo stesso non sempre avviene in questi casi. L’intelligenza artificiale viene vissuta come una sorta di assistente virtuale, con cui condividere informazioni e dati per avere in cambio consigli di produttività e una generale semplificazione, razionalizzazione e automatizzazione del proprio lavoro.

La sicurezza digitale in relazione ai dati inseriti nei chatbot AI

Quando si inseriscono dei dati in un chatbot come possono essere ChatGpt, Bard o Claude, essi potrebbero rimanere memorizzati nei log oppure nei detaset del provider. I log possono essere definiti dei file o registri nei quali vengono salvati in automatico eventi, operazioni e messaggi generati dal sistema stesso durante il suo funzionamento. Per certo si sa che vengono immagazzinati i dati che permettono di mappare eventuali problemi o errori, ma si ritiene che, senza una dovuta politica di protezione, potrebbero venir trattenuti anche quelli che vengono usati negli input e nei prompt, quindi spesso dati sensibili. L’intelligenza artificiale viene sviluppata continuamente tramite un addestramento che avviene proprio attraverso l’inserimento in sistemi strutturati o non strutturati di dati, i cosiddetti dataset, per riuscire a determinare delle connessioni e degli schemi e applicarli quindi nella generazione di nuovi output. Le informazioni condivise potrebbero rimanere al loro interno, anche se generalmente si pensa che, salvo indicazioni e impostazioni specifiche, restino memorizzati solamente all’interno di una singola conversazione.

I malware ai tempi dell’intelligenza artificiale

Non vi è però solamente il furto di dati tout court, in conseguenza all’azione di inserimento da parte degli utenti. Chi crea malware e sistemi di pishing sempre più evoluti ha ovviamente compreso il potenziale fraudolento dell’AI. Tramite dei prompt injection e data exfiltration sono infatti in grado di aggirare eventuali barriere di protezione e indurre l’intelligenza artificiale stessa a rivelare i dati inseriti. Grazie a modelli di membership interference attack malintenzionati possono scoprire se un determinato dato è presente in uno specifico dataset, consentendo così di ottenere informazioni sensibili, ad esempio la presenza o meno di persone in un registro medico. Al contempo, strumenti condivisi in sistemi di AI da aziende, come codici sorgente, strategie aziendali o addirittura documenti riservati possono essere intercettati e rubati.

Una nuova frontiera per la Cyber Security: i malware che imparano con l’intelligenza artificiale

La sicurezza digitale viene anche resa più fragile dal fatto che l’intelligenza artificiale viene utilizzata anche come strumento per rendere maggiormente efficaci e dunque combattibili i malware. I sistemi generativi possono essere impiegati per far scrivere dei codici di malware automatici, aumentandone quindi la velocità di generazione e di conseguenza il numero di rischi immessi in rete, con varianti infinite dello stesso codice malefico, anche personalizzate in base all’obiettivo che desidera colpire. Utilizzare i metodi di AI per generare dei potenziali malware li può rendere anche più difficili da trovare e da battere, divenendo quindi ancor più subdoli e insidiosi. Grazie all’intelligenza artificiale i malware stessi possono evolversi nello stesso momento in cui agiscono, modificando i loro comportamenti man mano che vengono scoperti per rimanere invisibili e sempre più complessi da identificare, trovando ambienti sandbox dove nascondersi. Analogamente a come impara tramite un addestramento coi dati, si sviluppa apprendendo dalle risposte dei sistemi di sicurezza, in una infinita corsa e rincorsa.

E il pishing? Ancor più credibile

L’AI può essere impiegata anche per dar vita a truffe pishing sempre più iperrealistiche e personalizzate sulla base della vittima, in modo da rendere sempre più complessa l’identificazione e aumentando le probabilità di colpire anche utenti potenzialmente informati e attenti su rischi e misure di protezione.

Come proteggersi con gli esperti di cybersicurezza

Ben si comprende come chi desidera implementare l’intelligenza artificiale nei suoi sistemi debba al contempo investire sulla Cyber Security, sia con formazione che con figure specifiche. In particolare, si occupano di sicurezza digitale professioni come il Cyber Security Specialist o il Data Security Analyst, che proteggono sistemi e dati da attacchi mirati, valutando le possibili vulnerabilità, gli AI Security Researcher o Adversarial AI expert, impiegati specificamente per studiare come i vari modelli possono essere attaccati. I Machine learning engeenering, gli AI developper e i Businnes AI Specialist dovranno sempre porre maggiormente il focus sulla sicurezza, dando vita anche a ulteriori specificazioni. Si tratta di figure che saranno man mano più indispensabili per le aziende e dunque più appetibili come profili, delle carriere potenzialmente interessanti e con grandi margini di sviluppo.

Il ruolo delle regolamentazioni nella sicurezza legata all’intelligenza artificiale

Anche le regolamentazioni in futuro avranno un loro ruolo, a partire dagli AI charter, per ora limitati a organizzazioni e aziende ma che in futuro probabilmente si amplieranno, specularmente a quanto accaduto col GDPR. La figura deputata alla gestione dei dati nelle aziende secondo questa norma, il Data Protection Officer, potrebbe iniziare a dover inserire nei suoi task anche la gestione dell’inserimento dei dati nei sistemi AI.

 

Prossimi appuntamenti Ated

11 ottobre: CoderDojo 2924/2025 Impara a programmare divertendoti!

14 ottobre: Webinar di presentazione del Corso Cisco CCNA 2025-2026

28 ottobre: Cyber Security Day & Night: Cybersecurity e intelligenza artificiale - Sfide e opportunità per un futuro digitale sicuro

6 novembre: Presentazione del percorso formativo APF – Digital Collaboration Specialist