Cerved
  • ITA
Homepage/AI & Innovation/Tech/AI Act e tutela delle persone fisiche

17 GIUGNO 2025

AI Act e tutela delle persone fisiche: regole chiare per un’IA più etica e trasparente

Verso un'intelligenza artificiale al servizio della persona

L’intelligenza artificiale sta rivoluzionando il modo in cui interagiamo con la tecnologia, portando benefici significativi in numerosi settori. Tuttavia, l’adozione dell’AI comporta anche rischi concreti per i diritti fondamentali delle persone. È per questo che l’AI Act dell’Unione Europea stabilisce principi chiari e vincolanti per proteggere la dignità, la sicurezza e l’autonomia degli individui.

Tra le disposizioni più rilevanti, il regolamento definisce con precisione quando l’uso dell’IA è vietato, se richiede una supervisione umana continua, e quali obblighi di trasparenza devono essere garantiti a chi interagisce con sistemi basati su IA.


Casi di divieto: quando l’IA non può essere utilizzata


L’AI Act vieta espressamente alcuni utilizzi dell’IA che mettono a rischio la libertà individuale, la privacy o la dignità delle persone fisiche. Questi divieti si concentrano su situazioni in cui l’IA potrebbe influenzare o danneggiare persone inconsapevoli o vulnerabili.

Ad esempio, è vietato l’uso di sistemi di IA che impiegano tecniche subliminali o approfittano delle vulnerabilità psicologiche o cognitive di determinate persone per condizionarne il comportamento a loro insaputa (art. 5, lett. a e b). È inoltre proibito l’utilizzo dell’IA per pratiche di social scoring, ovvero per classificare le persone sulla base di comportamenti o caratteristiche personali, con effetti penalizzanti (art. 5, lett. c).

Il regolamento proibisce anche forme di profilazione predittiva per finalità di polizia basate su tratti della personalità (art. 5, lett. d), e vieta la creazione di database biometrici tramite tecniche invasive come lo scraping di immagini video senza consenso (art. 5, lett. e). L’uso dell’IA per rilevare emozioni in contesti lavorativi o scolastici è ammesso solo in casi eccezionali e documentati (art. 5, lett. f).

Sono inoltre vietate applicazioni che deducono categorie sensibili, come l’orientamento sessuale, da dati biometrici (art. 5, lett. g), così come il riconoscimento facciale in tempo reale in spazi pubblici, salvo precise eccezioni di legge (art. 5, lett. h).


La centralità della supervisione umana


Per i sistemi di IA ad alto rischio, l’AI Act impone l’obbligo di una supervisione continua da parte di persone fisiche durante tutto il periodo di utilizzo (art. 14, comma 1). Non solo: chi ha il compito di sorvegliare questi sistemi deve anche avere la possibilità concreta di intervenire, annullare o interrompere il funzionamento dell’IA se necessario, garantendo così condizioni di sicurezza per tutte le persone coinvolte (art. 14, comma 4).

In ambiti particolarmente delicati, come l’identificazione delle persone, è richiesta una verifica da parte di almeno due operatori umani, in modo da evitare errori o abusi e assicurare che decisioni critiche non siano affidate esclusivamente alle macchine (art. 14, comma 5).


Obblighi di trasparenza e diritto all’informazione


Il regolamento riconosce l’importanza di informare le persone fisiche ogni volta che interagiscono con un sistema di IA. I fornitori devono garantire che gli utenti siano consapevoli di dialogare con un’intelligenza artificiale, e che eventuali contenuti generati o manipolati artificialmente siano chiaramente etichettati come tali (art. 50, commi 1–2).

Inoltre, chi implementa sistemi di IA (i cosiddetti deployer) ha il dovere di informare le persone soggette ad analisi biometriche o emotive, e di rendere trasparente quando testi o contenuti siano stati generati da IA, compresi i deepfake (art. 50, commi 3–5).

Questi obblighi rafforzano il diritto delle persone a conoscere la natura degli strumenti con cui interagiscono e ad agire in modo consapevole.


Una protezione concreta per ruoli e soggetti diversi


Il regolamento europeo è costruito attorno a un principio fondamentale: l’IA deve servire la persona, non sostituirla né manipolarla. Per questo, identifica ruoli specifici che possono essere esposti a rischi e stabilisce tutele appropriate per ciascuno di essi:

Il personale operativo umano che lavora con sistemi IA deve ricevere formazione adeguata (art. 4).

• Le persone bersaglio inconsapevoli o vulnerabili devono essere protette da manipolazioni subliminali o scorrette (art. 5, lett. a e b).

• Le persone valutate o classificate devono essere tutelate contro punteggi sociali arbitrari e discriminazioni (art. 5, lett. c e g).

• Le persone in spazi pubblici devono poter contare su una regolamentazione chiara dell’uso del riconoscimento facciale (art. 5, lett. h).

• I supervisori umani devono poter esercitare un controllo effettivo e continuo sui sistemi ad alto rischio (art. 14).

• Gli utenti finali, i fruitori di contenuti IA, così come i lettori di testi generati da IA, devono ricevere informazioni chiare e tempestive sull’origine dei contenuti e sulle interazioni con sistemi automatici (artt. 50, commi 1–5).


Un’IA più umana è possibile


L’AI Act non si limita a porre divieti o obblighi: propone una visione europea di intelligenza artificiale centrata sulla persona, dove tecnologia, diritti e responsabilità si bilanciano per creare innovazione sostenibile e fiducia.

In questo scenario, le organizzazioni che investono in IA hanno l’opportunità di distinguersi non solo per competenza tecnica, ma per etica, trasparenza e rispetto delle persone. Lavorare con e per le persone, anche attraverso l’IA, è la strada più efficace per costruire un futuro tecnologico realmente inclusivo.