Etica dell’AI

Volto di uomo e di bambino wireframe

Sommario

L’etica dell’Intelligenza Artificiale (AI) si rende necessaria e urgente per affrontare una serie di rischi significativi che emergono dallo sviluppo e dall’applicazione di sistemi sempre più autonomi e pervasivi.

Il “perché” dell'Etica dell'AI

  1. La necessità di un’etica per l’AI deriva primariamente dal suo impatto potenziale sulla società e sui diritti fondamentali degli individui. Le norme tradizionali potrebbero non essere sufficienti per attivare la responsabilità per i danni causati da un robot o da un sistema autonomo, poiché non consentirebbero di determinare facilmente il soggetto cui incombe la responsabilità del risarcimento
  2. L’AI è una tecnologia che, per sua natura, può comportare rischi e pregiudicare gli interessi pubblici e i diritti fondamentali tutelati dal diritto dell’Unione, con pregiudizi che possono essere sia materiali che immateriali (fisico, psicologico, sociale o economico).
  3. La necessità di un quadro etico e normativo è rafforzata dalla consapevolezza che l’AI può essere utilizzata impropriamente, fornendo strumenti potenti per pratiche di manipolazione, sfruttamento e controllo sociale, che sono contrarie ai valori dell’Unione e ai diritti fondamentali.
  4. Occorrono l’intervento e la sorveglianza umani, la robustezza tecnica e la sicurezza, la vita privata e la governance dei dati, la trasparenza, la diversità, la non discriminazione e l’equità, il benessere sociale e ambientale, e la responsabilità.

I Rischi Affrontati dall'AI: Il "Cosa"

Le fonti identificano una serie di rischi specifici associati all’uso dell’AI, in particolare per i sistemi classificati come “ad alto rischio” nell’ambito del Regolamento (UE) 2024/1689 (AI Act).
Questi rischi richiedono misure di mitigazione e un solido quadro etico e normativo.

  1. Rischi per i Diritti Fondamentali: L’AI può avere un impatto negativo significativo su una vasta gamma di diritti fondamentali, tra cui il diritto alla dignità umana, il rispetto della vita privata e familiare, la protezione dei dati personali, la libertà di espressione, il diritto alla non discriminazione, il diritto a un ricorso effettivo e a un giudice imparziale, i diritti della difesa e la presunzione di innocenza I minori godono di diritti specifici che devono essere tutelati, tenendo conto delle loro vulnerabilità nell’ambiente digitale.
  2. Rischio di Discriminazione e Pregiudizi Algoritmici: I sistemi di AI, se non adeguatamente progettati e addestrati, possono individuare le persone in modo discriminatorio, errato o ingiusto. Possono portare alla discriminazione tra persone o gruppi e perpetuare modelli storici di discriminazione (basata su origine razziale o etnica, genere, disabilità, età, orientamento sessuale) o crearne di nuove.
  3. Mancanza di Trasparenza e Spiegabilità: I sistemi di AI possono operare come “scatole nere”, rendendo difficile comprendere la logica utilizzata per arrivare a una decisione. Questa opacità ostacola l’esercizio di importanti diritti procedurali fondamentali, come il diritto a un ricorso effettivo e i diritti della difesa. È necessario garantire la conoscibilità dei processi decisionali automatizzati e ricevere informazioni significative sulla logica utilizzata decisionali automatizzati.
  4. Mancanza di Robustezza, Accuratezza e Cibersicurezza: I sistemi di AI ad alto rischio devono conseguire un adeguato livello di accuratezza, robustezza e cibersicurezza. Errori, guasti, incongruenze o tentativi di manipolazione (come l'”avvelenamento dei dati” o dei modelli) possono compromettere il funzionamento del sistema e portare a output errati o distorti, con ripercussioni sulla sicurezza o impatti negativi sui diritti fondamentali.
  5. Perdita della Sorveglianza Umana e “Distorsione dell’Automazione”: Affidare solo alle macchine il compito di prendere decisioni sulla base di dati comporta rischi per i diritti e le libertà delle persone.
  6. Rischi Specifici in Contesti Sensibili: L’uso dell’AI in settori come le attività di contrasto (law enforcement), la migrazione, il controllo delle frontiere o l’asilo presenta un significativo squilibrio di potere e può portare a sorveglianza, arresto o privazione della libertà. In questi contesti, l’accuratezza, l’affidabilità e la trasparenza sono particolarmente importanti per evitare impatti negativi e garantire responsabilità e mezzi di ricorso efficaci.
  7. Potenziale per Sorveglianza di Massa e Controllo Sociale: L’uso dei dati personali e di sistemi predittivi basati sull’AI può portare a una sorveglianza di massa, un potere onnisciente che può controllare e prevedere i comportamenti

In sintesi, l’etica dell’AI è indispensabile perché questa tecnologia ha il potenziale di incidere profondamente sui diritti e sulle libertà fondamentali, sulla sicurezza e sulla struttura stessa della società. I rischi associati, che vanno dalla discriminazione e dalla mancanza di trasparenza alla perdita di controllo umano e alla potenziale sorveglianza di massa, richiedono un approccio proattivo e basato su principi etici solidi, tradotti in requisiti legali vincolanti, in particolare per le applicazioni ad alto rischio, al fine di garantire che l’AI sia sviluppata e utilizzata in modo affidabile, sicuro e rispettoso dell’essere umano.

Il bagaglio messo a disposizione: il “Come”

Profonda Conoscenza del Quadro Normativo e delle Linee Guida Etiche:

  • AI Act: una comprensione approfondita del Regolamento (UE) 2024/1689
  • Normativa sulla Protezione dei Dati (GDPR)
  • Linee Guida Etiche
  • Codici di Condotta e Buone Pratiche.

Competenza nella Valutazione e Gestione dei Rischi Etici e Legali:

  • Identificazione dei Rischi
  • Valutazione d’Impatto.
  • Misure di Mitigazione

Approccio antropocentrico all’IA:

Il professionista deve promuovere un approccio antropocentrico all’IA. Come evidenziato dal Garante Privacy, è cruciale “l’effettiva centralità degli esseri umani” che “dovrebbe fondarsi su una supervisione altamente qualificata e sulla liceità del trattamento, al fine di assicurare il rispetto del diritto di non essere assoggettato a una decisione basata esclusivamente su un trattamento automatizzato”.

Garanzia di Trasparenza, Spiegabilità (Explainability) e Conoscibilità:

Il professionista deve assicurare che i sistemi di IA siano sviluppati e utilizzati in modo trasparente. Capacità di tradurre la complessità tecnica degli algoritmi in spiegazioni comprensibili per i clienti e, ove necessario, per gli interessati e le autorità.

Promozione della Non Discriminazione e dell’Equità (Fairness):

Attenzione critica ai potenziali bias nei dati di addestramento e negli algoritmi, che possono portare a risultati discriminatori.

Accountability e Responsabilità:

Il professionista deve aiutare i clienti a definire chiare linee di responsabilità per lo sviluppo, l’implementazione e la manutenzione dei sistemi di IA

Doveri Professionali Generali Applicati al Contesto dell’IA:

Diligenza Professionale: Il professionista è tenuto ad operare con la diligenza qualificata richiesta dall’art. 1176, comma 2, c.c., che è quella “del professionista di media attenzione e preparazione, qualificato dalla perizia e dall’impiego di strumenti tecnici adeguati al tipo di prestazione dovuta”

Dovere di Informazione e Consulenza: Il professionista ha l’obbligo “non solo di fornire tutte le informazioni che siano di utilità per il cliente e rientrino nell’ambito della sua competenza, ma anche, tenuto conto della portata dell’incarico conferito, di individuare le questioni che esulino dalla stessa, informando il cliente dei limiti della propria competenza e fornendogli gli elementi necessari per assumere le proprie autonome determinazioni”

Rispetto dell’Etica Professionale: L’etica professionale, come indicato dalla Cassazione con riferimento alla professione notarile ma con valenza generale, “si ricava dalle regole di etica professionale e, quindi, dal complesso dei principi di deontologia oggettivamente enucleabili dal comune sentire di un dato momento storico.

Formazione Continua: Data la rapida evoluzione dell’IA e del relativo quadro giuridico ed etico, la formazione continua è un requisito imprescindibile.

Competenze Interdisciplinari e Capacità di Comunicazione:

Capacità di interfacciarsi con team multidisciplinari (ingegneri, data scientist, legali interni, product manager).

Abilità nel comunicare concetti complessi in modo chiaro ed efficace a diverse tipologie di interlocutori, inclusi quelli non tecnici.

Promuovere una cultura dell'”IA etica” all’interno dell’organizzazione del cliente, favorendo l’alfabetizzazione in materia di IA