Please enable JavaScript.
Coggle requires JavaScript to display documents.
7 La mappatura dell’etica degli algoritmi - Coggle Diagram
7 La mappatura dell’etica degli algoritmi
7.1 INTRODUZIONE: UNA DEFINIIONE OPERATIVA DI ALGORITMO
costrutto matematico, con "una struttura di controllo finita, astratta, efficace, composta, data in modo imperativo, che realizza un dato scopo sotto de terminate condizioni"
La capacità potenziale degli algoritmi di migliorare il benessere individuale e sociale si accompagna a notevoli rischi etici
E risaputo che gli algoritmi non sono eticamente neutri.
i risultati degli algoritmi di traduzione e dei motori di ricerca
Anche la presenza di pregiudizi è stata ampiamente segnalata, per esempio nella pubblicità algoritmica, con opportunità di lavori più remunerativi e di impieghi nel campo della scienza e della tecnologia pubblicizzati più spesso per gli uomini che per le donne.
7.2 LA MAPPA DELL'ETICA DEGLI ALGORITMI
7.3 PROVE INCONCLUDENTI CHE PORTANO AD AZIONI INGIUSTIFICATE
La ricerca incentrata su prove inconcludenti si riferisce al modo in cui gli algoritmi non deterministici di ML producono output espressi in termini probabilistici.
Questi tipi di algoritmi generalmente identificano l'associazione e la correlazione tra le variabili nei dai sotostanti, ma non le connessioni causali.
poiché gli schemi ricorrenti (patterns) identificati dagli algoritmi possono essere il risultato di proprietà intrinseche del sistema modellato dai dati, degli insiemi di dati o di un'abile manipolazione degli insiemi di dati
approccio ingenuo e induttivista e presumere che le prove inconcludenti possano essere evitate se gli algoritmi sono alimentati con dati sufficienti,
Tuttavia, la ricerca recente rifiuta questa visione.
In particolare, la letteratura incentrata sui rischi etici della profilazione razziale mediante sistemi algoritmici ha dimostrato i limiti di tale approccio, evidenziando tra l'altro che le disuguaglianze strutturali di vecchia data sono spesso profondamente radicate negli insiemi di dati degli algoritm
7.4 PROVE IMPERSCRUTABILI CHE PORTANO
ALL'OPACITÀ
riguardano i problemi legati alla mancanza di trasparenza che spesso caratterizzano gli algoritmi
intrinsecamente dovuta ai limiti della tecnologia, derivanti da decisioni di design e dall'offusca-mento dei dati sottostanti oppure dovuta a vincoli giuridici in termini di proprietà intellettuale
si traduce spesso in una mancanza di controllo e/o di responsabilità e conduce a una mancanza di "affidabilità".
la trasparenza non è un principio etico in sé, ma una condizione pro-etica per consentire o frenare altre pratiche o principi etici. In altri termini, la trasparenza non è un valore intrinsecamente etico, ma uno strumento prezioso per fini etici.
Esistono diversi modi per affrontare i problemi legati alla mancanza di trasparenza.
proposte relative al fatto che ogni componente dell'algoritmo(analogamente ai pezzi industriali), non importa quanto semplice o complesso, deve essere accompagnato da unascheda tecnica che lo descrive
Ciò ha spinto gli studiosi a suggerire che, per affrontare il problema della complessità tecnica, è necessario investire maggiormente nell'istruzione pubblica per migliorare l'alfa-betizzazione computazionale e relativa ai dati (
contributo a lungo termine adeguato a risolvere i problemi introdotti a più livelli dalla diffusione degli algoritmi
7.5 PROVE FUORVIANTI CHE PORTANO A PREGIUDIZI (BIAS) NON VOLUTI
pensiero dominante nel campo dello sviluppo di algoritmi nei termini di "formalismo algoritmico", caratterizzato dall'adesione a regole e forme prescritte.
questo approccio tende a ignorare la complessità sociale del mondo reale
questo approccio porta a interventi algoritmici che si sforzano di essere "neutri" ma, in tal modo, rischia di consolidare le condizioni sociali già esistenti .
I dati utilizzati per addestrare un algoritmo sono una delle principali fonti da cui emerge il pregiudizio (Shah, 2018), attraverso dati campionati in modo preferenziale o da dati che riflettono pregiudizi sociali già esistenti.
Un possibile approccio per mitigare questo problema consiste nell'escludere intenzionalmente alcune specifiche variabili di dati dalla formazione del processo decisionale algoritmico.
fare affidamento su estimatori statisticamente distorti nell'elaborazione algoritmica, poiché possono essere utilizzati per mitigare la distorsione dei dati di addestramento. In questo modo, un tipo di pregiudizio algoritmico problematico è controbilanciato da un altro tipo di pregiudizio algoritmico, ovvero dall'introduzione di un pregiudizio compensatorio nell'interpretazione degli output algoritmici
7.6 RISULTATI INGIUSTI CHE PORTANO ALLA DISCRIMINAZIONE
Esiste un ampio consenso sulla necessità di equità algoritmica, in particolare per mitigare i rischi di discriminazione diretta e indiretta dovuti a decisioni algoritmiche.
le caratteristiche protette, come razza, genere e religione, non possono essere semplicemente rimosse dai dati di addestramento per prevenire la discriminazione, come osservato sopra
Inoltre, ci sono casi rilevanti in cui è opportuno considerare le caratteristiche protette per prendere decisioni eque.
7.7 EFFETTI TRASFORMATIVI CHE SOLLEVANO
SFIDE PER L'AUTONOMIA E LA PRIVACY INFORMATIVA
I rischi che i sistemi algoritmici possano ostacolare l'autonomia umana plasmando le scelte degli utenti sono stati ampiamente documentati in letteratura e hanno assunto un ruolo centrale nella maggior parte dei principi etici di alto livello per l'iA,
può anche essere limitata dall'incapacità di un individuo di comprendere alcune informazioni o di prendere le decisioni appropriate.
gli algoritmi "non sono conformati in termini tali da consentire agli utenti di comprenderli o di percepire quale sia il modo migliore per urilizzarli
la crescente interazione degli individui con i sistemi algoritmici ha effettivamente ridotto la loro capacità di controllare chi ha accesso alle informazioni che li riguardano e che cosa viene fatto con tali informazioni
La profilazione algoritmica avviene nel corso di un periodo di tempo indefinito, in cui gli individui sono categorizzati secondo la logica interna di un siste-ma, e i loro profili vengono aggiornati man mano che si acquisiscono nuove informazioni su di loro.
l'assenza di controllo sulle proprie informazioni si traduce in una perdita di autono-mia.
7.8 TRACCIABILITÀ COME PRESUPPOSTO DELLA RESPONSABILITA MORALE
la mancanza di trasparenza o di spiegabilità, minano la possibilità di sottoporli a esame ed evidenziano la necessità di nuovi approcci per tracciare la responsabilità morale
è in molti casi impossibile
"ricondurre un determinato dato alla sua fonte originale" una volta che sia stato introdotto.
"riciclaggio dell'agire": un errore morale che consiste nel prendere le distanze da azioni moralmente sospette, indipendentemente dal fatto che tali azioni siano o no intenzionali, dando la colpa all'algoritmo.
"riciclaggio dell'agire": un errore morale che consiste nel prendere le distanze da azioni moralmente sospette, indipendentemente dal fatto che tali azioni siano o no intenzionali, dando la colpa all'algoritmo.
attribuire la piena responsabilità morale "per impostazione predefinita e in modo reversibile" a tutti gli agenti morali (per esempio, umani o costituiti da esseri umani, come le aziende) nella rete che sono causalmente rilevanti per una data azione della rete