Intelligenza artificiale: soluzione finale o deterioramento dei diritti umani


Sharing is caring!

L’intelligenza artificiale (AI)

In modo semplicistico potremmo definire l’intelligenza artificiale come l’abilità di un sistema tecnologico di risolvere problemi o svolgere compiti e attività tipici della mente e dell’abilità umane. Guardando al settore informatico, potremmo identificare l’AI – Artificial Intelligence – come la disciplina che si occupa di realizzare macchine (hardware e software) in grado di “agire” autonomamente (risolvere problemi, compiere azioni, ecc.). Le soluzioni che al loro interno integrano sistemi esperti, permettono agli utenti di risolvere problemi particolarmente complessi, per i quali servirebbe necessariamente l’intervento di un essere umano, esperto dello specifico settore, o attività capace di risolvere tale problema. In parole povere, sono sistemi che permettono alle persone di trovare una soluzione ad un problema anche senza richiedere l’intervento di un esperto e ciò dovrebbe farci notare sin da subito una duplice faccia della stessa medaglia; se da un lato gli utenti sono facilitati, sia da un punto di vista fisico, che economico, dal software, dall’altro lato viene a mancare la figura e le competenze, acquisite dagli anni, dall’esperto, che vede venir meno il suo guadagno derivante dalla transazione.

Abbiamo già notato settori ove l’AI si sta introducendo:

A. Gli assistenti virtuali che si stanno cominciando a vedere con maggiore frequenza nelle sale operatorie, a supporto del personale di accoglienza o di chi offre servizi di primo soccorso;

B. La prevenzione delle frodi è una delle applicazioni più mature dove l’Intelligenza Artificiale si concretizza con quelli che tecnicamente vengono chiamati “advanced analytics”, analisi molto sofisticate che correlano dati, eventi, comportamenti ed abitudini per capire in anticipo eventuali attività fraudolente (come la clonazione di una carta di credito o l’esecuzione di una transazione non autorizzata);

C. Offre un potenziale enorme per il miglioramento dell’efficienza e dell’efficacia della sicurezza pubblica, per esempio per la sicurezza e la prevenzione dei crimini in aeroporti, stazioni ferroviarie e città metropolitane oppure per la prevenzione e la gestione della crisi in casi di calamità naturali come terremoti e tsunami;

D. Assistenti vocali/virtuali (Siri di Apple, Cortana di Microsoft, Alexa di Amazon) che sfruttano l’Intelligenza Artificiale sia per il riconoscimento del linguaggio naturale sia per l’apprendimento e l’analisi delle abitudini e dei comportamenti degli utenti per la comprensione delle esigenze delle persone per migliorarne i servizi di assistenza e

In questi esempi, i vantaggi sono chiari, ma la società è spesso trascurata dal lato etico e legale della raccolta e dell’analisi dei dati dietro di essi. L’intelligenza artificiale, comprese aree come l’apprendimento automatico e l’apprendimento profondo, sono neutrali solo a prima vista. Uno sguardo più attento rivela come possa influire notevolmente sugli interessi delle persone in casi specifici, e possa rivestire un ruolo troppo grande nella vita umana, il che implica l’identificazione di modelli di comportamento ripetitivi, e ciò si potrebbe ritorcere contro gli stessi utenti, portare all’ingiustizia e anche alle restrizioni dei diritti umani.

L’uso dell’intelligenza artificiale infatti tocca molti aspetti dei diritti umani, pertanto, l’uso di questi algoritmi può influire negativamente su alcuni dei nostri stessi diritti. Il problema è aggravato dalla mancata trasparenza, responsabilità e informazione su come questi sistemi possano funzionare e dove.

AI e diritto alla privacy

La tensione tra i benefici della tecnologia AI e le limitazioni dei diritti umani è particolarmente evidente nel settore della privacy. Il diritto alla privacy è un diritto umano fondamentale necessario per una vita sicura e dignitosa, tuttavia, lo spazio digitale, anche quando utilizziamo app e social media, raccoglie un’enorme quantità di dati personali (con o senza la nostra conoscenza) che possono essere utilizzati per creare il nostro profilo e prevedere il nostro comportamento. Dato che le macchine funzionano in base al modo in cui gli umani le hanno programmate, se nel sistema vengono introdotti algoritmi (deliberatamente o accidentalmente) che includono pregiudizi umani, tale sistema li ripeterà inevitabilmente. La preoccupazione principale è la mancanza di diversità e inclusione nei sistemi di IA: invece di rendere le nostre decisioni più oggettive, possono rafforzare la discriminazione e il pregiudizio. “L’intelligenza artificiale può dunque aggravare la discriminazione”, secondo l’Agenzia dell’Unione europea per i diritti fondamentali, la quale ha lo scopo di fornire alle istituzioni europee e alle autorità nazionali competenti assistenza e consulenza sui diritti fondamentali nell’attuazione del diritto comunitario, nonché di aiutarle ad adottare le misure o a definire le iniziative appropriate.

AI e libertà di espressione

Un altro diritto particolarmente minacciato è la libertà di espressione. In una recente pubblicazione del Consiglio d’Europa “Algorithms and Human Rights”, in particolare, si osserva che esistono meccanismi di filtraggio su Facebook e YouTube per identificare i contenuti estremisti con richieste di violenza. Tuttavia, non ci sono informazioni su quali procedure e criteri vengono applicati per determinare tali contenuti o su quali video contengono “contenuti chiaramente illegali”.

Mentre l’iniziativa di sopprimere tali contenuti è lodevole in sé, l’opacità della moderazione dei contenuti è allarmante, poiché comporta il rischio di limitare il diritto legale alla libertà di parola e di espressione.

Preoccupazioni simili derivano infatti dal filtraggio automatico dei contenuti generati dagli utenti quando questi vengono caricati a causa di una presunta violazione dei diritti di proprietà intellettuale, che è emersa nella proposta di direttiva UE sul diritto d’autore. In alcuni casi, l’uso di tecnologie automatizzate per diffondere informazioni può anche influenzare materialmente il diritto alla libertà di espressione e alla privacy quando bot, pubblicità mirate o spam vengono diffusi utilizzando un algoritmo che determina i contenuti per utenti specifici.

Il conflitto tra tecnologia e diritti umani è evidente anche nell’area del riconoscimento facciale che, utilizzato come potente strumento per rintracciare i sospetti terroristi, può anche trasformarsi in un mezzo per controllare le persone. Ora è particolarmente facile per gli stati spiarci, invadere la nostra privacy, limitare la libertà di riunione, la libertà di movimento e la libertà di stampa.

AI e giustizia

Nel sistema giudiziario, l’AI può essere sia il motore del progresso che del regresso. I sistemi di giustizia penale in tutto il mondo si rivolgono sempre più all’intelligenza artificiale per la prevenzione della criminalità, ma allo stesso tempo, molti esperti esprimono preoccupazione per l’obiettività di tali modelli. Per affrontare questo problema, è stata creata la Commissione del Consiglio d’Europa sull’efficacia dell’amministrazione della giustizia (CEPEJ) un team interdisciplinare di esperti che “preparerà linee guida sull’uso etico degli algoritmi nei sistemi giudiziari, comprese le previsioni”. Il COMPAS Recidivism Algorithm, è un sistema ad intelligenza artificiale che viene utilizzato, oramai sempre più spesso, all’interno delle corti statunitensi con l’obiettivo di prevedere la possibilità che un criminale, dopo il suo arresto, possa essere recidivo o meno. Queste valutazioni del rischio vengono utilizzate dal giudice come informazioni aggiuntive nel momento in cui deve esser presa una decisione nei confronti dell’imputato, come ad esempio la possibilità di esser lasciato in libertà. Uno studio portato avanti dall’organizzazione indipendente americana ProPublica ha dimostrato infatti come tale software però prenda le sue decisioni su basi discriminatorie, ed in particolare nei confronti della popolazione afro-americana, tant’è che, nei casi portati avanti dall’organizzazione giornalistica investigativa americana gli imputati di colore erano spesso riconosciuti come criminali che presentavano un rischio più elevato di recidiva di quanto non fossero in realtà, mentre gli imputati bianchi l’esatto contrario.

Nuovi metodi di apprendimento

Non si può più parlare di AI senza parlare del sistema scolastico, responsabile dello sviluppo e della diffusione della conoscenza. Di fronte all’affermazione dei sistemi di AI, in effetti, i modelli educativi tradizionali si trovano alle strette, e servirebbe dunque un cambio di passo in grado di cogliere i vantaggi offerti dalle tecnologie a favore delle nuove generazioni, ma che al tempo stesso non facciano dimenticare l’importanza del lavoro di gruppo, che sin da sempre è riuscito a fornire agli studenti una marcia in più, all’insegna della cooperazione. Obbligatoria una formazione personalizzata, più inclusiva, in grado di garantire l’accesso universale a tutti gli studenti, non escludendo coloro i quali hanno delle evidenti difficoltà di reddito. La creazione di “contenuti intelligenti”, da guide digitalizzate dei libri di testo a strumenti digitali personalizzabili, o le diverse applicazioni, anche gratuite, per l’apprendimento di lingue straniere o il miglioramento della scrittura, sono alcuni tra i più svariati strumenti tecnologici utili non solo agli studenti, ma anche e soprattutto agli insegnanti, i quali riescono ad aiutare maggiormente i ragazzi meno abili.

Già delle lezioni telematiche abbiamo fatto esperienza, in seguito alla pandemia da Covid19, dove a partire dalle scuole primarie fino alle università, gli studenti hanno seguito le lezioni rimanendo all’interno dei propri domicili. La conseguenza però potrebbe essere quella di tuffarsi in un modello di apprendimento che si limita a trasferire competenze da docente a discente senza possibilità di confronto diretto, andando a deteriorare sempre più i rapporti interpersonali, e a fomentare ancor di più un individualismo lontano da uno spirito di condivisione, unione, confronto, collegialità e crescita comune.

Lavori automatizzati

Quando si parla di Intelligenza Artificiale non si può però, come abbiamo già anticipato qui sopra, non toccare aspetti etici e sociali come quelli legati al lavoro e all’occupazione dato che i timori nella comunità globale crescono, e sono del tutto giustificati se si pensa che la metà delle attività lavorative di oggi potrebbero essere automatizzate entro il 2055. Secondo alcuni ricercatori dell’Università di Oxford il 47% dei lavoratori di oggi è ad alto rischio di diventare automatizzato nei prossimi decenni, il 19% è a medio rischio, mentre solo un terzo degli attuali lavoratori è relativamente sicuro dall’esser sostituito nei prossimi vent’anni. Gli economisti si interrogano da tempo su quali strumenti puntare per impedire che l’evoluzione della società verso un’economia a sempre minore intensità di lavoro non si traduca in un impoverimento della popolazione, situazione che richiederebbe una “redistribuzione” delle ricchezze considerando che la maggior parte di queste saranno prodotte dalle macchine. Ciò non può che farci venire in mente quanto aveva predetto uno dei più grandi economisti dell’XIX secolo, Karl Marx, il quale già in quegli anni accusava un inevitabile sostituzione della forza lavoro umana a favore delle macchine, o meglio, ciò che noi oggi intendiamo meglio come Intelligenza Artificiale. Secondo l’economista, storico e filosofo tedesco il tutto non sarebbe stato altro che un processo inevitabile, frutto del sistema capitalistico, che avrebbe giovato solo ed esclusivamente ai ricchi industriali, detentori, non solo del controllo e gestione dell’azienda o impresa, ma anche della forza lavoro stessa degli operai.

Cooperazione per un bene comune

L’intelligenza artificiale ha il potenziale per aiutare le persone a sfruttare al massimo il loro tempo, espandere la loro libertà e renderle più felici, ma è anche in grado di condurci, come abbiamo visto, nel mondo della distopia. Pertanto, è estremamente importante trovare il giusto equilibrio tra sviluppo tecnologico e protezione dei diritti umani, perché il futuro della società in cui vogliamo vivere dipenderà da questo. Il raggiungimento di questo equilibrio richiede una più stretta cooperazione tra le autorità pubbliche (governi, parlamenti, magistratura e forze dell’ordine) e le imprese private, la comunità accademica, le ONG, le organizzazioni internazionali e la società in generale. Un compito scoraggiante, ma fattibile. Già oggi esistono diversi standard su cui basarsi; ad esempio, la giurisprudenza della Corte europea dei diritti dell’uomo stabilisce chiaramente come rispettare il diritto alla privacy, alla libertà e alla sicurezza. Sottolineano inoltre il dovere degli Stati di fornire rimedi efficaci per contrastare la violazione della privacy e la sorveglianza illegale.

Inoltre, quest’anno è stata adottata una Convenzione aggiornata del Consiglio d’Europa per la protezione delle persone rispetto al trattamento automatico dei dati personali, che affronta le minacce alla privacy poste dalle nuove tecnologie dell’informazione e della comunicazione. I paesi hanno deciso di adottare approcci molto diversi. La Cina ad esempio, nella sua interpretazione di tech management, sta adottando forme di controllo sulla società sempre più pervasive, con buona pace di qualunque forma di riservatezza e privacy. All’interno di queste riflessioni, sembra però che a livello globale si stia diffondendo un pensiero nemmeno troppo velato verso le nuove tecnologie. Nella corsa verso il progresso, qualcosa dovremo sacrificare nell’ambito innovativo. L’Europa, nella sua valutazione di valori infatti, quali la privacy e i diritti umani come fondamentali, forse ha già deciso di sacrificare parte del ritorno economico che avrebbe recato l’arrivare a determinate tecnologie per primi, a favore proprio di questi stessi valori. Abbiamo visto che altri Paesi stanno effettuando valutazioni diametralmente opposte e probabilmente sarà solo il tempo a dirci chi avrà avuto ragione.

Federico Di Leonardo

Bibliografia

-Istituzioni di diritto pubblico; Bin, Pitruzzella

-Storia dello stato moderno; Wolfgand Reinhard Sitografia:

-Commissioner: safeguarding human rights in the era of artificial intelligence, consultato il 15 luglio 2020.

-Impactscool: intelligenza artificiale e diritti umani a rischio, consultato il 15 luglio 2020.

-Compas risk scales: demonstrating accuracy equity and predective parity, consultato il 15 luglio 2020.

-Bollettino adapt: il rischio della automatizzazione nel mercato del lavoro, consultato il 17 luglio 2020.

-Agendadigitale: la scuola alla svolta dell’intelligenza artificiale, consultato il 20 luglio 2020.

-Il manifesto: scuola a distanza piegata a logiche di mercato, consultato il 20 luglio 2020.

Sharing is caring!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *