Diletta Von Huyskes

Cosa significa studiare etica digitale?

Scritto da Andrea Pagano il 25 maggio 2020

Cosa significa studiare etica digitale e perché è importante che anche le professionalità di estrazione “umanistica” abbiano un ruolo di peso nell’informatizzazione dei processi e nella progettazione degli algoritmi? Ce ne parla dall’Olanda la filosofa italiana Diletta Huyskes, affrontando problemi che hanno ormai veramente poco di fantascientifico.


Alla MDW parlerai principalmente di Automazione del Lavoro e “lavoro aumentato”: si sente spesso nominare la buzzword “full automation” come una condizione al tempo stesso utopica e realizzabile. In quella che per molti sembra una Mecca socioeconomica si aprono però delle riflessioni sulla compatibilità dei sistemi preesistenti: quali sono le principali criticità che hai rilevato nei tuoi studi?

La piena automazione è qualcosa di cui si discute già ampiamente da anni in ambito accademico, soprattutto per quanto riguarda il futuro del lavoro e il ripensamento del reddito dato dal lavoro salariato. L’avvento di robot super intelligenti, in grado di prendere il nostro posto nell’economia, è visto come una possibile soluzione ai danni del capitalismo. L’argomento, però, rimane totalmente assente nel dibattito pubblico. In un momento storico di enorme insicurezza, di lavori sempre più precari e disuguaglianze sempre più accentuate, soprattutto in un paese che non sembra assolutamente pronto a tutto questo, è importante rendersi conto che la tecnologia potrebbe essere nostra alleata ma anche nemica. Dobbiamo cercare di scongiurare il rischio di far passare l’uso della tecnologia come qualcosa di “neutrale”: da sola non può risolvere nulla, tutto dipende dalle politiche in cui viene adottata. Di solito, le persone più positive nei confronti dei robot e della tecnologia sono quelle il cui lavoro verrebbe impattato meno. Per altri tipi di lavoratori, invece, senza un ragionamento adeguato, un posto di lavoro automatizzato potrebbe portare ancora minori tutele, garanzie e protezioni. Nel nostro Paese mancano totalmente una serie di sicurezze che sarebbero indispensabili per poter pensare a un futuro senza lavoro. Se non esiste nemmeno un dibattito sul salario minimo, come possiamo pensare a un reddito di base? Senza delle politiche di welfare accessibili e consapevoli, un futuro tecnologico da molti auspicato sarebbe solo un fallimento sociale. Riflettere sulla possibilità dell’automazione potrebbe aiutarci ad analizzare il mondo del lavoro – retribuzioni adeguate, lavori non salariati e le condizioni di molti lavoratori – per ripensare l’organizzazione e la redistribuzione della ricchezza. L’infrastruttura tecnologica del ventunesimo secolo sta producendo le risorse con cui si potrebbe realizzare un sistema politico ed economico molto diverso (se solo ce ne fosse la volontà).

L’automazione del lavoro si porta dietro svariate implicazioni progettuali, prima su tutte l’automazione dei processi decisionali, che alcuni - forse approssimativamente - definiscono Intelligenza Artificiale, ma in generale si può parlare di algoritmica e sensoristica. Ho visto di recente un’interessantissima mostra in Osservatorio Prada (Training Humans) dove si esponevano i “bias” delle intelligenze artificiali nel categorizzare in senso pregiudiziale persone esclusivamente sulla base del loro “riconoscimento facciale”. Ragionando in ottica di automazione decisionale estesa, quali implicazioni potrebbe avere un fenomeno così diffuso e inquietante? Quali si prevedono essere le categorie più colpite?

Come giustamente sottolinei, in questo momento si tende a raggruppare tutto come Intelligenza Artificiale, che però descrive un territorio limitato. Chiamando le cose con il proprio nome e riferirsi al “processo decisionale automatizzato” come tale, è più facile trasmettere l’entità del cambiamento in atto e la transizione a cui si va incontro. Parliamo proprio di processi in cui la responsabilità di prendere una decisione è spostata da un essere umano a una macchina, spesso attraverso procedimenti difficili da analizzare. L’obiettivo di Training Humans era proprio quello di mostrare come i processi algoritmici, se in possesso di informazioni scarse, mancanti o limitate, molto probabilmente arriveranno a prendere decisioni discriminanti. L’ideatrice della mostra, Kate Crawford, lavora in un centro interdisciplinare a New York dove studiano questi problemi di continuo. Il modo in cui i computer “etichettano” le immagini è strettamente collegato al titolo dell’esposizione: se le macchina discriminano, è perché gli esseri umani che le “educano” sono pieni di pregiudizi. Uno dei casi emblematici è il sistema algoritmico di Amazon per reclutare nuovi dipendenti, che avendo ricevuto negli anni statisticamente molte più candidature maschili, eliminava in partenza quelle ricevute da donne. Il riconoscimento facciale funziona in modo molto simile: la macchina si basa su quantità enormi di dati ricevuti, ma se questi dati possiedono percentuali diverse, la decisione finale favorirà i dati più ricorrenti. In questo caso, donne e stranieri sono le più colpite. I pregiudizi più comuni sono maschilisti, razzisti, omofobi e classisti. Spesso, queste decisioni non vengono messe in discussione nonostante siano in grado di decidere per la vita di molte persone. Ovviamente, lasciare che questo funzionamento diventi sempre più diffuso senza ripensare questi programmi è inaccettabile. Se questi processi rimpiazzeranno i nostri sistemi sociali, è necessario essere pronti ad accoglierli.