Home / Innovazione / L’Italia approva l’AI Act europeo, dal clic distratto al consenso consapevole

L’Italia approva l’AI Act europeo, dal clic distratto al consenso consapevole

Proviamo a dirla semplice, come un filo unico che entra davvero nella nostra vita quotidiana. All’interno della cornice europea, che un anno fa aveva adottato l’AI Act (il regolamento sull’Intelligenza Artificiale), l’Italia, mercoledì scorso, ha aggiunto la propria tessera: una legge nazionale che in base alle direttive di Bruxelles specifica e rafforza l’utilizzo dell’AI. Lo fa introducendo tutele penali sui deepfake (contenuti falsi ma realistici), regole più chiare per i minori (consenso sotto i 14 anni), una governance domestica (chi vigila e coordina) e strumenti pratici per le imprese, dalle sandbox (banchi di prova regolati) agli incentivi. Da qui la domanda che conta: al di là dei principi, che cosa cambierà davvero nella vita di tutti i giorni dei cittadini, e delle imprese, quando apriamo un’app, guardiamo un video sui social o scriviamo a un servizio clienti?

Intanto dobbiamo capire se stiamo parlando con una persona o con un sistema automatico. D’ora in poi dovrà essere scritto chiaro, all’inizio della conversazione: una “disclosure” (cioè un avviso) che ci dice che è un bot. E potremo chiedere di passare a un operatore umano quando serve. Subito dopo viene il tema dei contenuti “sintetici”: foto ritoccate, voci clonate, video verosimili. Funzioneranno davvero le etichette? La nuova regola chiede una doppia cintura: un contrassegno tecnico, una sorta di “filigrana digitale” (watermark), e un’etichetta visibile a chi guarda. È un passo avanti, ma non una bacchetta magica: i watermark oggi si rovinano con un ritaglio o una ricompressione e non tutti i servizi nel mondo li applicheranno allo stesso modo. Qui si gioca la partita sull’informazione politica: certo, resta da capire quali sanzioni e in quanto tempo verranno adottate contro chi volesse carpire la nostra buona fede di elettori con campagne di disinformazione organizzate. La cornice però c’è; ora serviranno standard condivisi e controlli veri, specie nei periodi elettorali. In Italia, inoltre, i deepfake più gravi diventano reato: un deterrente in più.

Ma cosa accade quando la nostra banca ci chiederà un consenso “per adeguarsi alla legge”? L’era in cui cliccavamo su “accetta tutto” alla cieca è al tramonto. Se un sito o un’app usa l’AI per profilarci o moderare ciò che pubblichiamo, dovrà dirci come e con quali effetti. Le scelte dovranno essere reversibili e, soprattutto, comprensibili. Quando un algoritmo incide davvero sulla nostra vita – un mutuo negato, una tariffa più cara, una graduatoria pubblica – dovremo essere informati che è stato usato un sistema di AI ad alto impatto e potremo chiedere una spiegazione in linguaggio normale e una revisione umana.

Veniamo alla parte più delicata: volti, corpi, emozioni, che con la tecnologia AI è possibile identificare utilizzando dati biometrici (volto, impronte, iride, voce, andatura). La legge blocca la classificazione biometrica su caratteristiche sensibili – salute, orientamento, religione – ferma il “riconoscimento emozioni” a scuola e al lavoro e vieta il riconoscimento facciale in tempo reale negli spazi pubblici, salvo eccezioni strettissime e autorizzate. Tradotto: niente software invadente agli esami online, niente telecamere “che leggono lo sguardo” al colloquio, niente corsie preferenziali per sistemi che trasformano ogni volto in un’etichetta.

Tutto questo riguarda i cittadini, ma c’è un’altra domanda inevitabile: le imprese italiane sono pronte? In una intervista ad Affari Italiani, Floriano Masoero, Ceo di Siemens Italia, ha ricordato che oggi solo l’8% delle aziende ha davvero messo mano a progetti di AI. Il punto non è solo “comprare” tecnologia, è costruire competenze e casi d’uso replicabili. E soprattutto distinguere tra AI “consumer” e AI “industriale”: in fabbrica servono affidabilità senza compromessi, dati di qualità, integrazione con macchine e reti. Se la normativa si sovrappone in modo confuso, il rischio è rallentare invece di accelerare. Per questo i prossimi mesi, con i decreti attuativi, saranno decisivi: regole chiare per settore, formazione mirata, incentivi a chi sperimenta sul serio.

Le nostre reti – telefonia, internet e cloud – useranno sempre più l’AI per prevenire guasti, difendersi dagli attacchi e ottimizzare i servizi. Quando queste funzioni toccano servizi essenziali (ospedali, energia, pagamenti), scattano cautele più forti: valutare i rischi, tenere un registro tecnico di ciò che accade, fare prove e verifiche periodiche e prevedere sempre la possibilità di intervento umano. Non è burocrazia: significa meno blackout e servizi più affidabili.

Sul fronte dei dati industriali la domanda è: quanta condivisione serve per innovare senza svuotare il valore di chi investe? Nel dibattito sul Data Act c’è il timore di obblighi troppo ampi; la rotta è l’equilibrio: accesso equo dove servono concorrenza e interoperabilità, protezione del know-how quando è strategico.

In teoria quindi saremo tutti più tutelati da false informazioni e informative “furbette” durante i nostri acquisti. Con la possibilità, quando qualcosa non torna, di chiedere un intervento umano. Per le Pmi, il passo non è un software in più, ma un inventario degli usi dell’AI, regole sui dati, formazione delle persone, e piccoli progetti pilota con obiettivi misurabili.

Da parte nostra, di cittadini sempre più alfabetizzati tecnologicamente, l’unico modo per esercitare un controllo effettivo sull’attuazione delle regole consiste nell’esercitare i nuovi diritti e segnalare abusi o omissioni. In altre parole: dal clic distratto al consenso consapevole.

Tag:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *