Skip to content
ated09 mar 20265 min read

La Svizzera firma una dichiarazione contro l’uso dell’AI per creare immagini a scopo fraudolento

Intelligenza artificiale, opportunità ma anche sfide di cyber security

Se fenomeni come il cyberbullismo e le truffe online, che vanno dal pishing al furto dei dati sino al sextortion rappresentano da tempo sfide che interessano il mondo intero, l’arrivo dell’AI, oltre a aprire nuove vie per automatizzare e semplificare lavori, prevedere tendenze e potenziali problemi, analizzare dati e creare offerte personalizzate, ha fornito nuovi strumenti ai malintenzionati. La cyber security, da sempre centrale quando si parla di digitalizzazione, ha conosciuto un’evoluzione, che è stata centrale nel Cyber Security Day dello scorso anno organizzato dalla nostra associazione Ated: non solamente infatti i malintenzionati possono utilizzare l’AI per rendere sempre più personalizzate e dunque credibili le loro truffe, ma anche chi vuole difendersi può usarla, facendone un suo strumento.

La dichiarazione sulle immagini generate dall’AI

A fine febbraio numerose autorità garanti per la protezione dei dati di vari Paesi, tra cui l’incarico federale della protezione dei dati e della trasparenza (IFPDT), hanno sottoscritto una dichiarazione congiunta in merito ad una tematica ben precisa di cyber security: la creazione e la diffusione di immagini generate dall’intelligenza artificiale. Esse possono essere profondamente lesive e dannose, perché, grazie a vari programmi, chiunque può far realizzare delle foto, dei video o dei contenuti multimediali estremamente realistici, al punto da essere spesso difficili da distinguere da quelli reali, raffiguranti persone identificabili, che però non hanno mai dato il loro consenso.

Gli usi impropri di immagini create con intelligenza artificiale

Le immagini create con l’AI sono un problema di cyber security di vasta portata. Chiunque, prendendo una foto ad esempio dai social, dal web o inserendola in un programma, può modificarla con scopi diversi, a partire dal cyberbullismo o per ordire truffe di vario genere. L’attualità segnala spesso video propagandistici con volti di personaggi famosi che cercano di ingannare il pubblico convincendolo ad acquistare dei prodotti o di manipolarne l’opinione. I protagonisti, i cui viso e voce vengono usati e modificati senza consenso, sono a loro volta vittime. Con pochi clic si è potenzialmente in grado di far fare all’AI qualcosa che danneggi la reputazione di qualcuno, senza che egli lo sappia.

Come l’intelligenza artificiale si inserisce nella sextortion

Un settore particolarmente delicato è quello relativo ai contenuti a sfondo pornografico, dove ciascuno può diventare a sua insaputa protagonista di video osè diffusi in rete, con potenziali ricatti. La sextortion è da sempre uno dei meccanismi più complessi, anche e soprattutto dal punto di vista emotivo, delle truffe online ed ora con l’intelligenza artificiale non serve nemmeno più che il carnefice possieda delle immagini della potenziale vittima, perché le può creare. Ed è a queste casistiche che si rivolge la dichiarazione firmata anche dal rappresentante svizzero.

Cosa dice la dichiarazione

Le sessantuno autorità che hanno sottoscritto la dichiarazione si dicono preoccupate per “la creazione di immagini intime non consensuali, rappresentazioni diffamatorie e altri contenuti dannosi che coinvolgono persone reali” e in particolare “per i potenziali danni ai minori e ad altri gruppi vulnerabili, come il cyberbullismo e/o lo sfruttamento”. Il loro appello si rivolge a tutte le organizzazioni che sviluppano e utilizzano sistemi di generazione di contenuti tramite AI e chiede loro che gli stessi sistemi siano “sviluppati e impiegati in conformità ai quadri giuridici applicabili, comprese le norme in materia di protezione dei dati e della privacy”, pur nella complessità portata dal fatto che non esista un quadro normativo omogeneo. Viene altresì sottolineato che dar vita a immagini con intelligenza artificiale non consensuali può essere un reato penale.

Le misure di cyber security proposte

La dichiarazione chiede un uso etico dell’AI e in particolare della generazione di immagini, salvaguardando la privacy e un uso rispettoso dei dati. Specificatamente, vuole che vengano implementate misure per prevenire l’uso improprio delle informazioni, soprattutto quando sono coinvolti dei minori. Si domanda a chi è coinvolto nel processo di creazione di immagini, a qualsiasi livello, di garantire trasparenza riguardo le capacità dei sistemi AI impiegati o sviluppati e sulle misure di protezione. La sensibilizzazione deve riguardare anche le conseguenze di un uso a scopo fradulento: ciascuno deve sapere a che cosa va incontro. Al tempo stesso, chi è vittima deve la possibilità, continuano le organizzazioni, di chiedere la rimozione dei contenuti dannosi che usano il loro volto in modo improprio e servono dunque dei meccanismi efficaci e accessibili che lo permettano. Servono anche misure di tutela rafforzate quando sono coinvolti i minori e di conseguenza informazioni mirate e adeguate all’età per i ragazzi, i genitori, i docenti e gli educatori.

A chi si rivolge la dichiarazione

La dichiarazione si rivolge ad attori diversi, con gradi di responsabilità differenti. Le società e le organizzazioni che sviluppano i sistemi di generazione immagini sono coloro che progettano e addestrano i modelli di AI, come le Bigt Tech (da OpenAI a Meta), le startup che operano nel campo e le università, ha una la responsabilità strutturale. Coloro che integrano e offrono le capacità generative di immagini hanno la responsabilità dell’uso etico dei sistemi. Si tratta dei servizi che usano questo potenziale nei loro servizi, principalmente di piattaforme social e di comunicazione (Meta, Tik Tok, Snapchat, Youtube tanto per citarne alcune), di strumenti di produttività e creatività che integrano l’AI, come Canva o i programmi Microsoft, di piattaforme di chatbot, come le più note ChatGPT o Claude. Gli utilizzatori sono di fatto l’intero pubblico degli utilizzatori delle immagini, dai media alle agenzie di marketing sino a chiunque realizzi contenuti e hanno una responsabilità individuale.

Che cosa può fare ognuno contro la generazione di immagini fraudolente con AI

Ciascuno deve fare il suo. Gli sviluppatori hanno il dovere di una progettazione responsabile che anticipi e prevenga la possibilità di creare contenuti dannosi. Chi integra l’AI nei suoi sistemi può inserire filtri che identifichino potenziali contenuti fraudolenti e, come viene chiesto nella dichiarazione, muoversi per rimuovere quelli che vengono messi lo stesso online. Gli utenti, tramite l’informazione, possono comprendere il funzionamento dei mezzi a disposizione e proteggere la loro privacy, oltre che segnalare contenuti sospetti e porre attenzione a comprendere la veridicità di quelli che consumano. Come Ated siamo come sempre convinti che la consapevolezza passi dall’informazione.

Una collaborazione tra i firmatari

Il testo della dichiarazione non ha un valore normativo e legale ma è un atto politico ed etico. I firmatari scrivono anche che intendono collaborare e aggiornarsi sui loro approcci nella gestione della cyber security relativa alla creazione di immagini non consensuali con AI. Si coordineranno dove possibile dunque su attività di vigilanza, iniziative normative e azioni educative, dove appropriato e nella misura in cui tale condivisione sia conforme alle leggi applicabili, riflettendo la volontà di affrontare questo rischio con uno sforzo congiunto.

Prossimi eventi Ated

10 marzo: ATED Tech Espresso

26 marzo: Assemblea Generale Ordinaria 2026

10 aprile: Tech Inside

 

avatar

ated

Associazione Ticinese Evoluzione Digitale – Informare, educare, e appassionare all’informatica tutte le generazioni, e creare sinergie in Ticino con eventi e collaborazioni.

ARTICOLI CORRELATI