Ultimi trend in ambito digitale e news dell'associazione | Blog | ated

Bias e condizionamenti, l’importanza del senso critico nell’uso dell’intelligenza artificiale

Scritto da ated | 23 set 2025

Il ruolo dell’AI nel mondo aziendale

L’avvento e lo sviluppo dell’intelligenza artificiale hanno semplificato (e continueranno a farlo in modi ancora sconosciuti nei prossimi anni, una lunga serie di operazioni). Viene usata in vari settori, per automatizzare compiti ripetitivi o pericolosi, analizzare una serie di dati per identificare degli errori in una catena produttiva o per predire eventuali guasti e problemi, creare esperienze personalizzate su misura per ogni tipologia di clientela, permettendo in generale di aumentare l’efficienza, ridurre gli sbagli umani e diminuire i tempi morti e gli scarti, con importanti impatti anche dal lato economico. Ma il senso critico e la sicurezza non vanno mai sottovalutati.

Come funziona l’intelligenza artificiale: il ruolo dei dati

L’AI è in grado di compiere i task per cui viene impiegata grazie a una lunga serie di dati, come testi, immagini, audio e numeri. Li analizza per imparare una serie di schemi, regole e relazioni tra gli elementi che poi utilizza per costruire una nuova rappresentazione interna, che è alla base della predizione o della creazione di contenuti. In pratica, per poter essere sempre più efficiente, precisa e veloce, deve essere sviluppata tramite un apprendimento continuo di nuovi dati: più sono quelli con cui è stata addestrata, più sarà in grado di vedere degli schemi che li accumunano e di riprodurli quando viene impiegata, in qualsiasi ambito. Conoscere il sistema che sta alla base del funzionamento dei vari tipi di intelligenza artificiale consente di comprendere come sia necessario mantenere un occhio attento sulla sicurezza con cui si opera, ponendo attenzione ai dati che vengono inseriti, e come il senso critico debba rimanere alla base della sua utilizzazione.

La differenza tra intelligenza artificiale generativa e non generativa

Sostanzialmente l’AI sinora sviluppata e usata si può dividere in due grandi categorie: generativa e non. La prima, tra cui si possono annoverare i più noti chatbot conversazionali come ChatGPT (che appartiene a OpenAI), Bard (che è di Google), Claude (di Anthropic), utilizza i dati che le vengono forniti tramite delle richieste o istruzioni, chiamati prompt, per produrre in risposta un contenuto, ad esempio un testo o un’immagine. La seconda invece interpreta gli input che riceve e restituisce una risposta, una classificazione o una predizione sulla base di essi. Degli esempi a livello casalingo possono essere sistemi come l’assistente vocale Alexa, che traduce le indicazioni che le vengono fornite a voce in azioni, o a livello industriale le tecnologie di controllo di una catena produttiva, che si serve di parametri appresi per verificare la correttezza della produzione. La base, in ciascuno dei due casi, sono i dati (nell’intelligenza artificiale generativa i prompt e in quella non generativa gli input o comandi) che le vengono inseriti.

Da dati errati conclusioni sensate ma errate. E se ci sono bias… Serve senso critico

Se essi non sono corretti, l’AI infatti spesso genera dei contenuti, delle azioni, a sua volta errate, addirittura spesso amplifica il presupposto errato: la sua risposta è perfettamente sensata, grazie all’interpretazione e alla riproduzione di schemi che ha imparato, ma non corretta per chi la riceve. La conoscenza del sistema consente di ridurre l’impatto dell’inserimento di dati errati o di correggerli durante il processo, ad esempio trasmutando le affermazioni inserite in domande, che non verranno dunque prese come basi certe ma messe in discussione a partire dagli schemi conosciuti. Per riuscirci, è indispensabile conoscere il metodo di funzionamento. Non basta l’uso intuitivo bensì è fondamentale una formazione mirata. Al contempo, con il passare del tempo ci si sta rendendo conto di come per ottenere delle risposte adeguate e sufficientemente precise e attinenti al proprio target, sia nel campo della produzione di contenuti che di previsione di dati, sia indispensabile saper formulare dei prompt efficaci, che vadano al di là di una semplice frase o di una domanda.

Come fa l’AI a imparare: il ruolo degli sviluppatori nella diffusione di bias e credenze

Gli sviluppatori si occupano di addestrare offline i sistemi di intelligenza artificiale con enormi datatest, in cui vengono istruiti con testi, immagini, audio, codici, per sviluppare e imparare connessioni e schemi. Evidentemente, se i dati che vengono inseriti non sono corretti le risposte che verranno generate amplificheranno l’errore: se in un metodo che trova un guasto si inseriscono parametri errati, gli allarmi dati non saranno veritieri. Il rischio non è tanto quello legato a dati errati, bensì parziali o influenzati da un determinato contesto politico, sociale, di parte, contenenti bias e credenze: a quel punto, gli utenti potrebbero ottenere dei feedback che a loro volta portano convinzioni e visioni, non neutri. Posizioni e pregiudizi possono dunque essere fatti apprendere ai sistemi generativi.

La differenza coi motori di ricerca

Sino a pochi anni fa le ricerche di informazioni venivano svolte prevalentemente sui motori di ricerca, che a differenza dei sistemi di intelligenza artificiale generativa non creano ex novo dei contenuti ma mostrano dei risultati tra quelli già presenti. Il rischio di trasmettere dei bias è quindi teoricamente meno elevato, anche se gli algoritmi che determinano le pagine da mostrare prima, grazie alla indicizzazione SEO e a fattori di autorità, possono a loro volta esserne influenzati.

E se gli utenti inseriscono dati non corretti o di parte?

Quando si effettuano delle ricerche su chatbot è quindi essenziale mantenere il proprio senso critico, verificando le informazioni ricevute. Spesso avere risposte in tempi rapidissimi, pochi secondi, può far abbassare la guardia, dimenticando l’importanza di rimanere attenti a quello che viene restituito. I sistemi di AI non imparano direttamente da quanto viene inserito dagli utenti, per cui i bias e i pregiudizi eventualmente trasmessi tramite i prompt non diventano parte del meccanismo generativo. Anzi, a meno che siano attive impostazioni specifiche sulla memoria, vengono utilizzati solo all’interno della conversazione in cui sono stati utilizzati.

Attenzione anche alla privacy

Un consiglio in ambito sicurezza in ogni caso valido per chiunque è porre attenzione ai dati che si inseriscono: le raccomandazioni in merito alla privacy, perché non si sa ancora dove potranno essere eventualmente salvate le informazioni personali che vengono trasmesse tramite i prompt e gli input.

Mai scordare la formazione

La formazione diviene dunque la vera carta vincente per chi desidera utilizzare l’AI e noi di Ated la promuoviamo con decisione. Chi la usa in aziende deve conoscerne i funzionamenti utili per gli adempimenti quotidiani. Le imprese hanno anche la necessità di appoggiarsi a esperti del settore, come business AI specialist, digital collaboration specialist e cyber security specialist. Quest’ultimo si occupa della tematica della sicurezza in ambito di intelligenza artificiale.

Prossimo appuntamento con l'AI

AIPerithink - Asilo Ciani - 24 settembre 2025 - Maggiori informazioni da qui: https://ated.ch/evento/aiperithink25