Dalla zona grigia alla regolamentazione, da dove nasce l’esigenza dell’etica dell’AI
Quando una tecnologia profondamente innovativa si affaccia sul mercato, spesso si sviluppa in una zona grigia, priva di vincoli normativi strutturati: essendo una novità, ha spazio di movimento, può crescere, svilupparsi, non è nota a sufficienza per essere regolamentata con norme e paletti. Man mano poi che viene adottata da sempre più utenti e con scopi diversi, da aziende o da privati, soprattutto se il suo carattere innovatore e rivoluzionario è grande e affascina e spaventa al tempo stesso, nasce il bisogno di una regolamentazione, che metta dei limiti precisi a dove essa può arrivare, sia etici che tecnici, e credi delle basi normative applicabili su vari settori.
Come prevedibile dato il suo sviluppo e le sue immense e ancora inesplorate opportunità, ha fatto sorgere e fa nascere quotidianamente domande e quesiti relativi all’etica dell’AI, a quali devono essere i suoi limiti e i suoi ruoli, come supporto e non come sostituto dell’elemento umano. In particolare, sono molti i questi sulla sicurezza della gestione dei dati, tema cruciale da vari anni, da quando online, con svariate attività, si lasciano, volutamente o no, sempre più informazioni sensibili.
Dall’esigenza di regole all’AI Act europeo
Di pari passo è dunque nata l’esigenza di una regolamentazione che potesse guidare l’adozione dell’AI in modo etico, sicuro e responsabile. Sebbene possa sembrare complesso riuscire a trovare accordi a livello internazionale in modo rapido, l’Unione europea ha sviluppato un regolamento, che rappresenta la prima legge mondiale relativa all’uso sistematico dell’intelligenza artificiale. L’AI act europeo è stato approvato nel 2024 e entrerà in vigore nella sua interezza nel 2026, con alcune norme che sono già applicate e vincolanti attualmente, per introdurre l’etica dell’AI e rispondere in primis alla paura della sostituzione del personale umano con macchine e poi a vari timori, ad esempio di una perdita di controllo e di trasparenza nell’uso dell’AI, con l’uomo superato e schiacciato da scelte e processi automatici, di possibili manipolazioni collettiva attraverso l’influenza di opinioni e comportamenti, di una ipotetica sorveglianza di massa che possa ledere la privacy e della perpetuazione, attraverso i sistemi generativi, di bias e di comportamenti discriminatori. La legge getta le basi per una regolamentazione comune che valga a livello europeo. Classifica i sistemi di AI in base al rischio determinato dal loro utilizzo, andando a determinare sino a dove ci si può spingere nel suo uso nel rispetto dell’etica, vietando ad esempio adozioni che violino i diritti fondamentali e rendendo obbligatoria la trasparenza sull’impiego. Ha il pregio di andare a categorizzare e quindi a sistematizzare definizioni e obblighi che ne derivano, portando una base comune che risponda il più possibile alle sensibilità generali.
AI Charter: la risposta delle aziende
A livello aziendale, ci si è mossi sin dal 2017, facendo nascere, a livello di organizzazioni, aziende e contesti pubblici, gli AI Charter, dei documenti interni che definiscono i principi, le linee guida e i limiti dell’etica nell’AI per lo sviluppo, l’uso e la gestione. Essi non sono però vincolanti a livello legale se non all’interno dell’azienda o organizzazione che lo emana, mentre l’AI act lo è.
Sebbene abbiano validità solamente interna, sempre più aziende, a partire ovviamente da quelle di grandi dimensioni che fanno un uso massiccio e qualitativamente importante dell’intelligenza artificiale, li stanno adottando. Si tratta non solo di una dichiarazione di intenti a livello astratto, un documento che resta quindi sulla carta, ma, se ben redatto in modo condiviso con tutti gli attori coinvolti, uno strumento operativo che va integrato nella governance e nei processi aziendali, andando ad interessare tanto i livelli dirigenziali che quelli operativi.
Un AI charter, letteralmente una “carta dell’intelligenza artificiale”, sono linee guida vincolanti a livello interno e al contempo una dichiarazione di intenti sull’uso etico, responsabile e trasparente dell’AI verso l’esterno, i potenziali clienti e i fornitori. Ha dunque varie funzioni, soprattutto quella di orientare lo sviluppo interno relativo all’intelligenza artificiale, definendo una serie di confini, costruire fiducia in clienti, utenti e possibili partner o stakeholder, mostrando così un uso consapevole, responsabile, orientato e con etica dell’AI. Opera per prevenire eventuali rischi etici, legali e reputazionali. Se inizialmente aveva lo scopo di anticipare l’AI Act, ora deve, se si parla di aziende europee, giocoforza adeguarvisi.
Un regolamento per l’intelligenza artificiale, a fianco delle persone
Quanto è utile, per una realtà imprenditoriale, in particolar modo locale, adottare un proprio AI Charter? Tradotto, una azienda ticinese lo deve preparare? Dato il bisogno di avere un perimetro chiaro in cui muoversi e i diffusi timori da parte dei lavoratori che l’intelligenza artificiale possa sostituirli e non solo affiancarli, è certamente utile, anche se la differenza deve continuare a essere fatta dal fattore umano più che da norme stringenti.
Un regolamento interno permette di definire con chiarezza assoluta per quali compiti, da chi e in che misura viene usata l’AI, come si dovrebbe fare per qualsiasi altra tecnologia e per ogni processo interno, favorendo la trasparenza e consentendo a ciascuno di sapere che cosa deve fare. All’interno del quadro normativo di riferimento, una carta interna va creata sulle singole esigenze di ogni realtà, preferendo un accenno pratico a uno eccessivamente rigoroso e tecnico.
L’intelligenza artificiale, come molte altre tecnologie prima di essa, viene usata da esseri umani, che ne devono trarre beneficio: sono le persone a conoscere il miglior uso e i confini. Quindi, un AI charter è certamente utile e porta un valore aggiunto a livello di impressione e di reputazione verso i clienti, ma a vincere e a dover essere tenuto presente è sempre il buonsenso di chi utilizza lo strumento in senso pratico. È dunque utile costruirlo stimolando una discussione interna che coinvolga i dipendenti interessati direttamente e sia da base per una formazione specifica e continua come quella fornita da Ated. Deve quindi racchiudere gli usi aziendali in materia di intelligenza artificiale includendo però il fattore umano, lasciando sufficienti margini per farlo agire a fianco alla tecnologia e non in opposizione.
La protezione dei dati nell’etica dell’AI
Una “carta” sull’ AI ha una grande importanza nell’ambito della protezione dei dati, uno dei timori più diffusi dall’inizio della digitalizzazione. È un argomento su cui si discute da anni, tanto che è nel 2018 è entrato in vigore il GDPR, General Data Protection Regulation) il Regolamento europeo sulla protezione dei dati personali, con l’obiettivo di definire cosa sono i dati personali, imporre il consenso esplicito al loro uso, dare in merito dei diritti ai cittadini, obbligare alla trasparenza e prevedere delle eventuali sanzioni. Va precisato che, come nel caso dell’AI Act, la Svizzera non lo deve recepire in modo automatico, non facendo parte dell’UE. Ma come ha adeguato la sua legge sulla protezione dei dati al GDPR, qualsiasi regolamentazione relativa all’intelligenza artificiale, sia se riguarda le singole aziende sia un domani a livello nazionale, non può non tenerne conto, visti gli importanti rapporti commerciali e la posizione geografica. Un AI charter va anche a regolamentare e proteggere i dati personali che vengono usati nell’impiego dell’AI, a vari livelli.
Prossimi appuntamenti Ated
21 agosto: AIperithink: l’Intelligenza Artificiale che ispira, connette e rivoluziona
25-29 agosto: Summer Camp ated4kids 2025
24 settembre: AIperithink by ated. Dialoghi sull'Intelligenza Artificiale: applicazioni e impatti
