L’Ue vuole regolamentare l’intelligenza artificiale, a partire dal riconoscimento facciale

La Commissione ha lanciato un piano strategico e l'intenzione di introdurre delle serie limitazioni per preservare la privacy dei cittadini. Le nuove tecnologie "devono servire i cittadini e non il contrario"

TUTELA PRIVACY INTELLIGENZA ARTIFICIALE

L’Unione europea vuole entrare a pieno titolo nella definizione dell’imminente futuro digitale. Nel ‘White Paper‘ sull’intelligenza artificiale (AI), presentato il 19 febbraio 2020, ha annunciato 20 miliardi di euro all’anno di investimento nei prossimi dieci anni. Ma anche norme chiare e vincolanti per i sistemi di AI ad alto rischio, come il riconoscimento facciale. Limitazioni che siano in grado di resistere alle pressioni esterne, in particolare quelle provenienti dalle Big Tech a stelle e strisce.

RICONOSCIMENTO FACCIALE PRIVACY

A tal proposito, inizialmente, la Commissione aveva considerando la possibilità di mettere al bando il riconoscimento facciale nei luoghi pubblici. La norma, valida per un massimo di cinque anni, era pensata per permettere l’introduzione di nuove regole che prevengano i rischi di questa nuova tecnologia, salvaguardando la privacy dei cittadini. Allo stato attuale, invece, sembra che rimarrà una riserva di legge per i governi nazionali, partendo dal presupposto che il suo uso è generalmente proibito dal Regolamento Generale sulla Protezione dei Dati. Nello specifico le eccezioni dovranno essere “debitamente giustificate e proporzionate”, mentre per le applicazioni a basso rischio sarà previsto un sistema volontario di etichettatura. Una volta che, però, le norme saranno messe nere su bianco (probabilmente entro fine anno), non ci sarà più nessuna possibilità di transigere: tutti gli sviluppatori di AI dovranno conformarsi. Nel mentre i governi dei singoli Stati membri sono chiamati a “testare e certificare gli algoritmi” dietro alle applicazioni per tutelare il rispetto dei diritti fondamentali.

REGOLAMENTAZIONE DELL’INTELLIGENZA ARTIFICIALE

Nello specifico, spiegano da Bruxelles, i sistemi di intelligenza artificiale (AI) ad alto rischio, come appunto il riconoscimento facciale, dovranno essere “trasparenti, tacciabili e garantire il controllo umano” in settori ‘sensibili’ come “salute, sicurezza e trasporti“. Questi sistemi, infatti, possono comportare rischi per questo “è essenziale costruire fiducia” con “regole chiare” per le applicazioni “ad alto rischio” che dovranno essere “conformi alle norme europee”. Per quanto riguarda il settore del riconoscimento facciale, al momento, è quasi del tutto privo di regolamentazione. Una lacuna che, soprattutto negli Stati Uniti, ha suscitato un dibattito vivace che gira soprattuto intorno alle applicazioni dell’intelligenza artificiale (A.I.) per scopi di sicurezza.

LEGGI ANCHE: Privacy e dati personali, come proteggersi in 10 mosse. A ogni clic diamo un’informazione

NORME UNIONE EUROPEA RICONOSCIMENTO FACCIALE

Secondo la Commissione europea saranno necessarie nuove regole che supportino quelle attuali che riguardano la privacy e la protezione dei dati personali. A tal proposito si sta lavorando a un “mercato unico europeo” dei dati industriali per imprese e governi, capace – garantisce il commissario Ue per il Mercato interno, Thierry Breton – di “cambiare le nostre società ed economie” e mettersi al servizio di crescita, ambiente e infrastrutture.

TUTELA PRIVACY INTELLIGENZA ARTIFICIALE

Il riconoscimento facciale, in questi ultimi tempi, sta prendendo piede anche nel campo del marketing, con molte aziende private che, attraverso i dati raccolti, riescono a targettizzate i potenziali clienti. Per questa ragione, spiega la presidente della Commissione Ue, Ursula von der Leyen, è giunto il momento che l’Ue faccia “le proprie scelte, basate sui propri valori, rispettando le proprie regole”. Perché le nuove tecnologie, precisa la vicepresidente Ue Margrethe Vestager, “devono servire i cittadini e non il contrario”.

I CASI IN CUI LA TECNOLOGIA MIGLIORA LA VITA:

Torna in alto