TECH
Il testo ufficiale a fine febbraio
Ue, arriva il Libro bianco sull'Intelligenza artificiale: moratoria per il riconoscimento facciale
La Commissione europea sta per pubblicare il Libro bianco sull'Intelligenza artificiale, di cui una parte, quella riguardante la moratoria sul riconoscimento facciale, ha avuto ampia eco. Ma sono principalmente le questioni etiche dell'IA ad essere al centro dell'attenzione. Non solo dell'Ue, ma anche del Vaticano e della Silicon Valley
E’ il passaggio più significativo, non a caso evidenziato dai media, a proposito della bozza di ‘Libro bianco’ della Commissione europea sull’Intelligenza artificiale.
Il testo, che dovrebbe essere presentato a fine febbraio, è il risultato della discussione pubblica su come affrontare le sfide poste da questa tecnologia nel suo insieme.
Il Gruppo di alto livello su IA
In un rapporto presentato nel giugno 2019, infatti, il Gruppo di alto livello della Commissione europea su IA (composto da 52 esperti tra cui Luciano Floridi, Stefano Quintarelli, Andrea Renda) ha indicato che l’Ue dovrebbe prendere in seria considerazione l’esigenza di regole per proteggersi dall’impatto negativo che potrebbero avere, in particolare, l’identificazione biometrica (come il riconoscimento facciale), l’uso di sistemi autonomi di armi letali (come i robot militari), la profilazione dei bambini con sistemi di Intelligenza artificiale, nonché l’impatto dell’IA sui diritti fondamentali dell’uomo.
La bozza di documento venuta alla luce (pubblicata da Euractiv, potete leggerla qui) è composta da 18 pagine. La versione completa, che la Commissione dovrebbe rendere nota verso la fine di febbraio, presenta cinque opzioni normative per l'intelligenza artificiale, che sarebbero:
1. Etichettatura volontaria
2. Requisiti settoriali per la pubblica amministrazione e il riconoscimento facciale
3. Requisiti obbligatori per applicazioni ad alto rischio
4. Sicurezza e responsabilità
5. Governance
E' probabile che la Commissione decida di adottare formalmente un 'mix' delle opzioni 3, 4 e 5, sottolinea Euractiv.
Le opzioni per le nuove regole
Ecco cosa prevedono: sul punto 3, il documento recita che "l'approccio basato sul rischio si concentrerebbe su aree in cui il pubblico è a rischio o è in gioco un interesse legale importante", per esempio l'assistenza sanitaria, i trasporti, la polizia e la magistratura.
Sicurezza e reponsabilità, comprese le minacce informatiche
Il punto 4 riguarda invece le questioni di sicurezza e responsabilità che potrebbero sorgere nel futuro sviluppo dell'Intelligenza artificiale e prevede "modifiche mirate" alla legislazione comunitaria come, per esempio, la direttiva sulla sicurezza generale dei prodotti, la direttiva sulle macchine, quella sulle apparecchiature radio e quella sull'affidabilità del prodotto. Andrebbero anche identificati "i rischi di minacce informatiche, i rischi per la sicurezza personale, la privacy e la protezione dei dati personali".
Sul fronte della responsabilità, "potrebbero essere necessari adeguamenti per chiarire la responsabilità degli sviluppatori dell'Intelligenza artificiale e per distinguerli dalle responsabilità del produttore". Ancora prima, bisognerà stabilire se i sistemi di intelligenza artificiale dovranno essere considerati come "prodotti".
Per quanto riguarda infine la Governance, la Commissione afferma che è essenziale un efficace e forte sistema di controllo pubblico con il coinvolgimento delle autorità nazionali e la cooperazione tra Stati membri.
Il Vaticano e l'etica dell'IA
"RenAIssance. Per un'Intelligenza Artificiale umanistica": se ne occupa anche la Pontificia Accademia per la Vita, con un convegno che, a febbraio, vedrà la partecipazione di Brad Smith, presidente di Microsoft, John Kelly III, vice direttore esecutivo di Ibm, il presidente del Parlamento Europeo David Sassoli, il direttore generale della Fao Qu Dongyu.
Nell'occasione, Microsoft e Ibm firmeranno una 'Call for Ethics' per coinvolgere le aziende in un percorso di valutazione degli effetti delle tecnologie collegate all'intelligenza artificiale, dei rischi che comportano, di possibili vie di regolamentazione, anche sul piano educativo.
"Siamo impegnati in questo settore", spiega monsignor Vincenzo Paglia, presidente della Pontificia Accademia per la Vita, perché "con lo sviluppo dell'Intelligenza Artificiale il rischio è che l'accesso e l'elaborazione diventino selettivamente riservate alle grandi holding economiche, ai sistemi di pubblica sicurezza, agli attori della governance politica. In altri termini, è in gioco l'equità nella ricerca di informazioni o nel mantenere i contatti con gli altri, se la sofisticazione dei servizi sarà automaticamente sottratta a chi non appartiene a gruppi privilegiati o non dispone di particolari competenze".