Get Mystery Box with random crypto!

...Vieta inoltre l’utilizzo di alcuni tipi di sistemi di AI, c | MCC - Marco Camisani Calzolari

...Vieta inoltre l’utilizzo di alcuni tipi di sistemi di AI, come quelli in grado di manipolare il comportamento umano in modo nascosto o di provocare rischi di discriminazione. Impone sanzioni per le violazioni delle norme sulle attività di sviluppo dell'AI.
Richiede la certificazione obbligatoria per i sistemi di intelligenza artificiale ad alto rischio, come quelli utilizzati nei settori della salute e della sicurezza.
Stabilisce la creazione di un organismo di controllo per garantire la conformità alle norme e la tutela dei diritti dei cittadini.
Promuove la cooperazione internazionale per lo sviluppo di standard etici e normative per l'uso dell'AI. Infine prevede il sostegno finanziario all'innovazione nell’Artificial Intelligence, con particolare attenzione alle piccole e medie imprese.


Il testo indica le pratiche di AI vietate in base al rischio che creano: inaccettabile, alto, basso o minimo. In particolare si sofferma sull’impiego della tecnologia a riconoscimento facciale (biometrica) combinata con l’AI, ovvero quei software in grado di dire con certezza chi è una persona ripresa da una telecamera.

L’ “AI Act” ne vieta l’uso nei luoghi pubblici se l’attività viene eseguita in tempo reale (cioè se faccio in modo di capire all’istante chi è un qualsiasi individuo tra la folla). È invece possibile il riconoscimento biometrico (facciale, ma non solo) a posteriori, ovvero su video registrati, ma soltanto con l’autorizzazione del giudice e soltanto per crimini gravi e reati già commessi.

Sono vietati anche i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili come sesso, razza, etnia, cittadinanza, religione, orientamento politico. In altre parole non si possono identificare le persone sulla base di queste caratteristiche. Stop anche ai sistemi di polizia predittiva, cioè quei software basati su algoritmi di intelligenza artificiale che utilizzano le banche dati delle forze dell'ordine per provare a prevedere dove e quando potrebbero verificarsi di nuovo reati simili.

L’“AI Act” dice no ai sistemi di riconoscimento delle emozioni nelle forze dell’ordine, nella gestione delle frontiere, nei luoghi di lavoro e nelle istituzioni scolastiche. Vietato anche lo scraping (tecnica informatica di estrazione di dati da un sito web attraverso programmi software) di immagini facciali da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale: rappresenta una violazione dei diritti umani e del diritto alla privacy.

Su questo regolamento si sono espressi in molti e, come avviene di solito in questi casi, ci sono stati commenti positivi ma anche qualche osservazione critica. Non essendo ancora definitivo, c’è tempo per mettere a punto le parti meno chiare. Ma è importante che l’Unione europea abbia deciso di dare precise regole a un mondo, quello dell’intelligenza artificiale, che è certamente ricco di opportunità ma che ha bisogno di trasparenza, sicurezza, correttezza ed etica.