L’Intelligenza Artificiale: surrogato della mente umana o sistema che saccheggia risorse e compromette l’uguaglianza?

«Alexa, accendi luci bagno».

Quante volte lo diciamo o lo sentiamo dire, ogni giorno? Pensiamo che Alexa, come tutte le altre forme di intelligenza artificiale − nota anche con la sigla IA – siano raffinate entità immateriali, indipendenti dalle forze culturali, sociali e politiche, mentre, in realtà, sono sistemi programmati per “catturare” il pianeta in una forma leggibile dal punto di vista computazionale.

 

Come viene “costruita” l’intelligenza e in quali trappole si può cadere nel processo?

Kate Crawford ce la rende tangibile nel suo libro Né intelligente né artificiale – il lato oscuro dell’IA, nel quale sostiene, appunto, che l’IA non è artificiale né intelligente: non è né autonoma né razionale, ma composta da risorse naturali e lavoro umano, i cui sistemi riflettono e riproducono le relazioni sociali e le comprensioni del mondo con le quali sono stati programmati, senza la capacità di discernere alcunché.

La materialità che la costituisce implica lo sfruttamento di gigantesche strutture produttive, come siti minerari, fabbriche, centri logistici e data center, e di capitale umano, quale sono i crowdworkers: microlavoratori che svolgono i compiti digitali ripetitivi alla base dei sistemi di intelligenza artificiale, come l’etichettatura dei dati e la revisione dei contenuti. Gode del mito di essere una tecnologia pulita, perché le caratteristiche inquinanti sono meno visibili dei fumi delle ciminiere, ma l’impatto ecologico è altrettanto presente e pericoloso. Per quanto riguarda il lavoro umano, un numero considerevole di persone che lavora nel ‘dietro le quinte’ della IA realizza guadagni inferiori al salario minimo locale, nonostante sia un lavoro che può causare profondi danni psicologici e senza il quale i sistemi non potrebbero funzionare.

Uno dei limiti principali della IA è la quantità di pregiudizi che contiene. I progettisti decidono quali sono le variabili e come le persone debbano venire categorizzate, come ad esempio nei sistemi di riconoscimento facciale e negli strumenti per il riconoscimento delle emozioni. Ma qualcosa di così complesso, come le emozioni, può veramente essere ridotto a un certo numero di categorie distinte e universali? La pratica della classificazione opera, di fatto, una centralizzazione del potere: il potere di decidere quali diversità fanno la differenza. Le classificazioni solo lo specchio di scelte politiche, culturali e sociali e i crowdworkers incaricati di fare le valutazioni devono attenersi a un modello restrittivo di genere binario, che lascia poco spazio alle vere diversità di cui il mondo reale è composto. Esiste un profondo limite nel voler incasellare la complessità del mondo in un unico schema di classificazione, con lo scopo di semplificare ciò che è complesso, in modo che possa essere facilmente calcolato e confezionato per il mercato.

L’intelligenza artificiale influenza la vita di miliardi di persone, spesso al di fuori di una regolamentazione e di un controllo democratico. Cosa si deve fare dunque? In che modo i sistemi dovrebbero elaborare le rappresentazioni del sociale, in modo che non siano discriminatorie? La sua fattibilità e sostenibilità dipendono dai limiti che sapremo porre al suo potere.

 

Tratto dal testo: Kate Crawford, Né intelligente né artificiale – il lato oscuro dell’IA

A cura di: Andrea Bennardo

Subscribe to the newsletter now!

FOLLOW US TO STAY UPDATED ON UPCOMING EVENTS AND NEWS

My Agile Privacy
This website uses technical and profiling cookies. Clicking on "Accept" authorises all profiling cookies. Clicking on "Refuse" or the X will refuse all profiling cookies. By clicking on "Customise" you can select which profiling cookies to activate.