La ricerca ICT e la tecnologia stanno portando ad una crescita dell’AI che non sembra fermarsi, ma qual è il rapporto tra intelligenza artificiale ed etica? Scopriamolo insieme in questo articolo.
Numerosi benefici si attendono senz’altro dalla disponibilità di tecnologie con capacità di calcolo e computazionali sempre più elevate e potenti, dall’evoluzione dell’Internet of Things e dalla grande mole di dati che questi nuovi dispositivi sono in grado di raccogliere ed elaborare. Grazie all’intelligenza artificiale si aprono nuove possibilità di impiego di sistemi robotici e di macchine dotate di capacità non solo motorie, ma anche di ragionamento. Robot pensati per dare assistenza agli uomini nelle faccende domestiche ma anche nella cura della salute. Tutto questo apre anche nuove problematiche etiche, verso cui l’Europa ha mostrato una certa sensibilità, non solo riguardo alle nuove forme di interazione uomo-macchina, ma soprattutto con riferimento all’identità e alla sicurezza della persona umana, all’accesso equo alle risorse tecnologiche e alla libertà di ricerca.
Nel 2018 l’Unione Europea aveva già pubblicato le sue linee guida per garantire un approccio etico all’intelligenza artificiale. L’iniziativa venne lanciata con la creazione di un gruppo di lavoro e con una consultazione pubblica, alla quale hanno preso parte anche i cittadini, oltre che i ricercatori e le istituzioni. L’8 aprile 2019 è stato pubblicato un elenco di requisiti che consentono di anteporre l’aggettivo – Trustworthy – al termine Artificial Intelligence (AI, Intelligenza Artificiale).
La Commissione europea vanta il primato di essere la prima istituzione al mondo ad aver stilato, nell’aprile 2019, le “linee guida etiche per un’intelligenza artificiale affidabile”. Lo scopo del documento, che è stato redatto da 52 esperti, è quello di prevedere che i sistemi di deep learning siano, da un punto di vista tecnico, “rispettosi della legge e dei valori etici, tenendo in considerazione l’ambiente sociale”.
Nel documento della Commissione si legge infatti che:
“La dimensione etica dell’intelligenza artificiale non può essere considerata un’opzione di lusso né un complemento accessorio: solo con la fiducia la nostra società potrà trarre il massimo vantaggio dalle tecnologie. L’Intelligenza artificiale etica è una proposta vantaggiosa per tutti, che può offrire un vantaggio competitivo all’Europa, ossia quello di essere leader nello sviluppo di una AI antropocentrica di cui i cittadini possano fidarsi”.
Indicazioni chiave per garantire finalità etiche
Nel documento degli Orientamenti etici per un’AI affidabile, si riflette sull’esistenza di un quadro normativo preciso, dal quale si evince la necessità che l’intelligenza artificiale assicuri legalità.
- adoperarsi per un'AI antropocentrica: l'AI dovrebbe essere sviluppata, distribuita e utilizzata con "finalità etiche" che riflettono i diritti fondamentali, i valori sociali e i principi etici su cui sono basate, vale a dire beneficenza (fare del bene), non maleficenza (non nuocere), autonomia degli umani, giustizia ed esplicabilità. Ciò è essenziale per raggiungere l'obiettivo di un'AI affidabile
- basarsi sui diritti fondamentali, i principi etici e i valori sociali per valutare i possibili effetti futuri dell'AI sugli esseri umani e sul bene comune. Prestare particolare attenzione alle situazioni che coinvolgono gruppi più vulnerabili, come i bambini, le persone con disabilità o le minoranze, o a situazioni in cui si verificano asimmetrie di potere o di informazione, ad esempio tra datori di lavoro e lavoratori, o tra imprese e consumatori
- riconoscere e essere consapevoli del fatto che, pur apportando benefici sostanziali agli individui e alla società, l'AI può avere anche conseguenze negative. Mantenere alta la guardia per gli ambiti più critici
I sistemi di AI non operano in un mondo senza leggi. A livello europeo, nazionale e internazionale un corpus normativo giuridicamente vincolante è già in vigore o è pertinente per lo sviluppo, la distribuzione e l’utilizzo dei sistemi di AI. Le fonti giuridiche pertinenti sono, a titolo esemplificativo, il diritto primario dell’UE (i trattati dell’Unione europea e la sua Carta dei diritti fondamentali), il diritto derivato dell’UE (ad esempio il regolamento generale sulla protezione dei dati, le direttive antidiscriminazione, la direttiva macchine, la direttiva sulla responsabilità dei prodotti, il regolamento sulla libera circolazione dei dati non personali, il diritto dei consumatori e le direttive in materia di salute e sicurezza sul lavoro). Inoltre abbiamo anche i trattati ONU sui diritti umani, le convenzioni del Consiglio d’Europa (come la Convenzione europea dei diritti dell’uomo) e numerose leggi degli Stati membri dell’UE. Oltre alle norme applicabili orizzontalmente, esistono varie norme specifiche per settore, applicabili a particolari utilizzi di AI (ad esempio il regolamento sui dispositivi medici nel settore sanitario).
I requisiti per una Intelligenza Artificiale etica
Nel documento pubblicato l’8 aprile 2019, la Commissione Europea indica i requisiti per una AI etica, accompagnando questo elenco ad una roadmap, che prevede il coinvolgimento di diversi stakeholder.
Vediamo insieme l’elenco dei requisiti.
Azione e sorveglianza umane
L’utilizzo dei sistemi di intelligenza artificiale dovrebbe essere rispettoso dei diritti fondamentali, sostenendo l’equità sociale, senza diminuire l’autonomia umana.
Robustezza e sicurezza
La Trustworthy AI richiede l’adozione di algoritmi sicuri che riescano a contrastare gli errori e le inconsistenze durante l’intero ciclo di vita dei sistemi e che ostacolino le eventuali operazioni illecite.
Riservatezza e data governance
Si richiede un approccio di data protection fin dalla progettazione dei sistemi di AI, per garantire ai cittadini di avere pieno controllo sui propri dati, nella sicurezza questi dati non vengano utilizzati contro di loro, ad esempio a fini discriminatori.
Trasparenza
Deve essere garantita la tracciabilità dei sistemi di Intelligenza Artificiale.
Diversità, non discriminazione ed equità
I sistemi di Intelligenza Artificiale dovrebbero prendere in considerazione tutte le capacità umane, senza essere inficiati da modelli di governance inadatti e garantendo a tutti l’accessibilità.
Benessere sociale e ambientale
L’utilizzo dei sistemi di Intelligenza Artificiale deve essere teso a creare una situazione di benessere e a migliorare la sostenibilità ambientale e la responsabilità ecologica, per uno sviluppo sostenibile.
Responsabilità
Devono essere adottati meccanismi che garantiscano la responsabilità sui sistemi di Intelligenza Artificiale e sui loro risultati, attraverso una continua verificabilità dei sistemi.
Riflessioni conclusive
Il commissario europeo per l’agenda Digitale Marija Gabriel afferma di essere “sicura che queste linee guida etiche saranno portatrici di innovazione nel campo dell’intelligenza artificiale”.
Non mancano visioni differenti, come quella di Daniel Castro, vicepresidente del think tank Itif, secondo il quale questa strada causerà un ulteriore ritardo dell’Europa rispetto alla Cina e agli Stati Uniti. Casto motiva la sua opinione in questo modo: “Ai consumatori interessa che un prodotto sia efficace. Non c’è nessuna prova che siano invece disposti a pagare per un prodotto soltanto perché etico”.
Sicuramente la grande attenzione dell’Europa nei confronti della privacy, soprattutto in seguito al GDPR, limita la quantità di dati che le aziende possono raccogliere e utilizzare.
Questo comporta, inevitabilmente, la possibilità di subire penalizzazioni rispetto ad altre nazioni, dove la protezione delle informazioni personali è molto meno rigida (Usa e Cina).
Tuttavia, a queste obiezioni, il gruppo di esperti ha risposto sottolineando che così come ci sono consumatori disposti a pagare di più per consumare cibi biologici, ci saranno consumatori che richiederanno una AI affidabile, una nicchia di mercato più esigente e quindi interessata ai prodotti etici made in Europe.
Segui il nostro JOurnal per rimanere aggiornato.