Orientamenti etici sull’intelligenza artificiale, proseguono i lavori della Commissione europea

Intelligenza artificiale (Immagine rawpixel.com) Imc

Intelligenza artificiale (Immagine rawpixel.com) Imc

La Commissione ha presentato le prossime tappe per creare fiducia nell’intelligenza artificiale, proseguendo il lavoro del gruppo di esperti ad alto livello

Partendo dal lavoro del gruppo di esperti indipendenti nominati nel giugno 2018, la Commissione europea ha avviato una fase pilota per garantire che sia possibile applicare nella pratica gli orientamenti gli orientamenti etici per lo sviluppo e l’utilizzo dell’intelligenza artificiale (IA). La Commissione si rivolge all’industria, agli istituti di ricerca e alle autorità pubbliche invitandoli a testare la lista di controllo dettagliata che il gruppo di esperti ad alto livello ha messo a punto ad integrazione degli orientamenti.

Quanto presentato nella giornata di ieri è un risultato atteso della strategia per l’IA che la Commissione ha presentato nell’aprile 2018 e i cui obiettivi sono: aumentare gli investimenti pubblici e privati (portandoli ad almeno 20 miliardi di Euro l’anno nei prossimi dieci anni), mettere a disposizione più dati, promuovere il talento e garantire la fiducia.

“Mi congratulo per il lavoro svolto dai nostri esperti indipendenti – ha dichiarato Andrus Ansip, vicepresidente e commissario responsabile per il Mercato unico digitale –. La dimensione etica dell’intelligenza artificiale non può essere considerata un’opzione di lusso né un complemento accessorio: solo con la fiducia la nostra società potrà trarre il massimo vantaggio dalle tecnologie. L’intelligenza artificiale etica è una proposta vantaggiosa per tutti, che può offrire un vantaggio competitivo all’Europa, ossia quello di essere leader nello sviluppo di un’intelligenza artificiale antropocentrica di cui i cittadini possono fidarsi”.

“La data di oggi segna una tappa importante verso un’intelligenza artificiale etica e sicura nell’Unione europea – ha aggiunto Mariya Gabriel, commissaria responsabile per l’Economia e la società digitali –. Disponiamo ora di una base solida, che si fonda sui valori dell’UE ed è il prodotto dell’impegno ampio e costruttivo di molte parti interessate, tra cui imprese, mondo accademico e società civile. Daremo attuazione concreta a questi requisiti e contemporaneamente promuoveremo una discussione internazionale sull’intelligenza artificiale antropocentrica”.

Un’ampia gamma di settori, come l’assistenza sanitaria, il consumo energetico, la sicurezza delle automobili, l’agricoltura, i cambiamenti climatici e la gestione dei rischi finanziari, potrà trarre beneficio dall’intelligenza artificiale, che può – evidenziano dalla Commissione – anche aiutare a rilevare le frodi e le minacce alla cybersicurezza e consente alle forze dell’ordine di lottare più efficacemente contro la criminalità. Lo scenario comporta però anche nuove sfide per il futuro del lavoro e solleva interrogativi giuridici ed etici.

La Commissione sta adottando un approccio articolato in tre fasi: definizione dei requisiti fondamentali per un’IA affidabile, avvio di una fase pilota su larga scala per raccogliere le osservazioni delle parti interessate e impegno volto al raggiungimento di un consenso internazionale per un’intelligenza artificiale antropocentrica.

Sette elementi fondamentali per un’IA affidabile

Un’intelligenza artificiale affidabile dovrebbe rispettare tutte le disposizioni legislative e regolamentari applicabili e una serie di requisiti. Liste di controllo specifiche aiuteranno a verificare l’applicazione di ciascuno dei seguenti requisiti fondamentali.

  • Azione e sorveglianza umane: i sistemi di IA dovrebbero promuovere lo sviluppo di società eque sostenendo l’azione umana e i diritti fondamentali e non dovrebbero ridurre, limitare o sviare l’autonomia dell’uomo;
  • Robustezza e sicurezza: per un’intelligenza artificiale di cui ci si possa fidare è indispensabile che gli algoritmi siano sicuri, affidabili e sufficientemente robusti da far fronte a errori o incongruenze durante tutte le fasi del ciclo di vita dei sistemi di IA;
  • Riservatezza e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati personali e nel contempo i dati che li riguardano non dovranno essere utilizzati per danneggiarli o discriminarli;
  • Trasparenza: dovrebbe essere garantita la tracciabilità dei sistemi di intelligenza artificiale;
  • Diversità, non discriminazione ed equità: i sistemi di IA dovrebbero tenere in considerazione l’intera gamma delle capacità, delle competenze e dei bisogni umani ed essere accessibili;
  • Benessere sociale e ambientale: i sistemi di intelligenza artificiale dovrebbero essere utilizzati per promuovere i cambiamenti sociali positivi e accrescere la sostenibilità e la responsabilità ecologica;
  • Responsabilità intesa anche come accountability: dovrebbero essere previsti meccanismi che garantiscano la responsabilità e l’accountability dei sistemi di IA e dei loro risultati.

Fase pilota su larga scala con i partner

Nell’estate del 2019 la Commissione avvierà una fase pilota con la partecipazione di un’ampia gamma di parti interessate. Già oggi le imprese, le amministrazioni e le organizzazioni pubbliche possono iscriversi all’Alleanza europea per l’IA e riceveranno una notifica quando inizierà la fase pilota. I membri del gruppo di esperti ad alto livello sull’IA forniranno inoltre la loro assistenza nella presentazione e illustrazione degli orientamenti alle parti interessate di tutti gli Stati membri.

Raggiungimento di un consenso internazionale per un’IA antropocentrica

La Commissione intende promuovere a livello internazionale questo approccio relativo all’etica dell’intelligenza artificiale, perché le tecnologie, i dati e gli algoritmi non conoscono frontiere. Per questo la Commissione rafforzerà la cooperazione con i partner che condividono gli stessi principi, come il Giappone, il Canada e Singapore, e continuerà a partecipare attivamente alle discussioni e alle iniziative internazionali, anche a livello di G7 e G20. La fase pilota coinvolgerà anche imprese di altri paesi e organizzazioni internazionali.

Prossime tappe

I membri del gruppo di esperti sull’IA presenteranno dettagliatamente la loro attività in occasione della terza Giornata digitale, in programma oggi a Bruxelles. All’inizio del 2020, dopo la fase pilota e alla luce delle osservazioni ricevute, il gruppo di esperti sull’intelligenza artificiale riesaminerà le liste di controllo relative ai requisiti fondamentali. Sulla base di questo riesame, la Commissione valuterà i risultati ottenuti e proporrà eventuali tappe successive.

Inoltre per garantire lo sviluppo etico dell’IA, la Commissione, entro l’autunno del 2019, varerà una serie di reti di centri di eccellenza per la ricerca sull’intelligenza artificiale, inizierà la creazione di reti di poli dell’innovazione digitale e insieme agli Stati membri e alle parti interessate avvierà discussioni per sviluppare e attuare un modello per la condivisione dei dati e per utilizzare al meglio gli spazi di dati comuni.

Intermedia Channel


Commissione europea – Orientamenti etici per l’intelligenza artificiale (in inglese)

Related posts

Top