21.4.21

INTELLIGENZA ARTIFICIALE: VIA LIBERA UE!

Macchine, non più esseri umani. Ecco il primo passo ufficiale per implementare ulteriormente il controllo elettronico degli esseri umani. Tutti i sistemi di identificazione biometrica sono considerati ad alto rischio e dunque, pur non venendo vietati, saranno soggetti a una serie di requisiti a tutela della privacy, secondo quanto prevede il pacchetto di regole proposte dalla Commissione europea per introdurre un quadro giuridico che metta ordine nel mondo dell’AI (Artificial intelligence). Nel documento, l’esecutivo Ue classifica le nuove tecnologie per livelli di rischio: inaccettabile, alto, limitato, minimo.

I sistemi di AI considerati una chiara minaccia alla sicurezza, ai mezzi di sussistenza e ai diritti delle persone saranno vietati”, è la decisione di Bruxelles. Tra questi rientrano le macchine “che manipolano il comportamento umano per eludere il libero arbitrio degli utenti”, come i giochi per minori che utilizzano l'assistenza vocale e capaci di incoraggiare comportamenti pericolosi, ma anche i programmi che assegnano un punteggio sociale ai cittadini in funzione dei loro comportamenti.

L’utilizzo dei sistemi di identificazione biometrica, se verrà approvata questa proposta, sarà comunque soggetto all’autorizzazione giudiziaria o di altro organo indipendente e limitato ad opportuni limiti di tempo, portata geografica e banche dati.

Tra gli altri sistemi ritenuti ad alto rischio, e per questo soggetti a requisiti e controlli periodici, ci sono le tecnologie usate nel settore dei trasporti “che potrebbero mettere a rischio la vita e la salute dei cittadini”, meccanismi di assistenza nella formazione scolastica o professionale “che possono determinare l'accesso all'istruzione e al percorso professionale”, ma anche programmi di gestione dei lavoratori e accesso al lavoro (ad esempio i software di smistamento dei Cv dei candidati a un posto di lavoro).

La Commissione ritiene tecnologia a rischio limitato tutti i sistemi soggetti a soli obblighi di trasparenza. Si tratta, ad esempio, dei sistemi di intelligenza artificiale come i chatbot, per i quali gli utenti devono essere consapevoli che stanno interagendo con una macchina anziché con un umano.

Videogiochi abilitati per l’intelligenza artificiale e filtri antispam rientrano invece sotto la categoria del rischio minimo, sui quali la Commissione ha scelto di non intervenire con nuove regole poiché “questi sistemi di AI rappresentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini”.

Riferimenti:

Gianni Lannes, IL GRANDE FRATELLO, Draco edizioni, Modena, 2012.

https://sulatestagiannilannes.blogspot.com/search?q=robot



Nessun commento:

Posta un commento

Gradita firma degli utenti.