Sinders e Buolamwini. Tra algoritmi, arte e inclusività.

Sinders e Buolamwini. Tra algoritmi, arte e inclusività.

Arte e tec­no­lo­gia, due poli solo appa­ren­te­men­te oppo­sti: l’uno può ampli­fi­ca­re infat­ti le poten­zia­li­tà dell’altro, dal loro incon­tro il mon­do può bene­fi­cia­re. In que­sto arti­co­lo è l’arte – ed in par­ti­co­la­re le due arti­ste Sin­ders e Buo­lam­wi­ni – che si fa por­ta­vo­ce di una neces­sa­ria inclu­si­vi­tà all’interno del domi­nio del­la Data Scien­ce, per garan­ti­re una tec­no­lo­gia più demo­cra­ti­ca, giu­sta e di con­se­guen­za un futu­ro più equo ed etico. 

Che ogni arte­fat­to ripro­du­ces­se e rin­for­zas­se spe­ci­fi­ci pre­giu­di­zi socia­li era già un dato di fat­to pri­ma dell’avvento del Machi­ne Lear­ning. Se gli air­bag del­le mac­chi­ne furo­no ini­zial­men­te pen­sa­ti e testa­ti per esse­re com­pa­ti­bi­li con il cor­po maschi­le finen­do per cau­sa­re tra­gi­ci inci­den­ti a don­ne incin­ta, le tec­no­lo­gie dome­sti­che del­lo scor­so seco­lo furo­no pro­get­ta­te pri­ma­ria­men­te per le casa­lin­ghe. Sono da sem­pre le nor­me socia­li a desi­gna­re una tec­no­lo­gia ad un gene­re spe­ci­fi­co e ad una pro­ve­nien­za pre­ci­sa: oggi la prio­ri­tà vie­ne evi­den­te­men­te asse­gna­ta all’uomo occi­den­ta­le.

Crol­la il mito dell’oggettività degli algo­rit­mi per via dei sem­pre più fre­quen­ti, vari ed ormai noti even­ti discri­mi­na­to­ri veri­fi­ca­ti­si negli ulti­mi anni e dipen­den­ti pro­prio dagli algo­rit­mi di Machi­ne Lear­ning: ad esem­pio, nel 2015 i risul­ta­ti del­la ricer­ca su Goo­gle Ima­ge di “CEO” ritrae­va­no prin­ci­pal­men­te uomi­ni bian­chi ed il rico­no­sci­men­to fac­cia­le di Flic­kr eti­chet­ta­va per­so­ne di colo­re con nomi di cer­ti animali. 

Risulta dunque chiaro come le nuove tecnologie contribuiscano a rafforzare le attuali strutture di potere e determinino il protrarsi di quei pregiudizi razzisti e sessisti tipici dell’Occidente nei confronti di donne e minoranze.

L’ori­gi­ne dei bias che carat­te­riz­za­no pro­ble­ma­ti­ca­men­te gli algo­rit­mi di Machi­ne Lear­ning è riscon­tra­ta nel­le pri­mis­si­me fasi del­la loro crea­zio­ne: spe­ci­fi­ca­men­te nell’immis­sio­ne di dati che ali­men­ta­no gli algo­rit­mi. È dun­que l’uomo stes­so a tra­sfe­ri­re i pre­giu­di­zi socia­li esi­sten­ti, i pro­pri valo­ri e vedu­te – sia volon­ta­ria­men­te che non – a tale tec­no­lo­gia, in fase di col­le­zio­ne, sele­zio­ne e cate­go­riz­za­zio­ne dei dati. 

Que­sta cir­co­stan­za dipen­de prin­ci­pal­men­te dal­la pre­pon­de­ran­te pre­sen­za di uomi­ni occi­den­ta­li bian­chi a disca­pi­to del­la com­po­nen­te fem­mi­ni­le nei team di desi­gn degli algo­rit­mi. La caren­za di una pro­spet­ti­va dif­fe­ren­te in fase di pro­gram­ma­zio­ne com­por­ta una con­se­guen­te man­can­za di diver­si­tà nei data sets che pro­du­ce un’amplificazione del­le siste­ma­ti­che discri­mi­na­zio­ni socia­li esistenti.

L’arti­sta, già defi­ni­to da McLu­han nel 1967 come “l’uomo dal­la cono­scen­za inte­gra­le”, rap­pre­sen­ta tut­ta­via una figu­ra che attra­ver­so un’attitudine più aper­ta e crea­ti­va e una voca­zio­ne soli­ta­men­te inclu­si­va potreb­be entra­re nel cam­po del­la Data Scien­ce e fron­teg­gia­re que­ste attua­li deli­ca­te con­di­zio­ni. Infat­ti, vari arti­sti han­no già avan­za­to bril­lan­ti pro­po­ste riso­lu­ti­ve, due fra tut­ti: Sin­ders e Boulamwini.

Caro­li­ne Sin­ders, arti­sta ed esper­ta di Machi­ne Lear­ning desi­gn, pro­po­ne l’integrazione del­la pro­spet­ti­va del fem­mi­ni­smo inter­se­zio­na­le nel­la costru­zio­ne dei data­set che alle­na­no gli algo­rit­mi di Machi­ne Lear­ning attra­ver­so il suo pro­get­to The Femi­ni­st Data Set

Questo approccio alla Data Science, teorizzato da D’Igniazio e Klein, prevede la considerazione di tutti quei tasselli che contribuiscono alla formazione dell’identità di ciascuno: non fermandosi perciò soltanto al genere, ma tenendo presente al contempo fattori come la classe e la provenienza. 

Lo sco­po dell’artista è quel­lo di por­ta­re avan­ti un pro­get­to plu­rien­na­le (dal 2017 a data da defi­nir­si poi­ché tut­ta­via in cor­so), in cui in ogni step del­la costru­zio­ne di algo­rit­mi di Machi­ne Lear­ning pre­ve­da l’adozione del fem­mi­ni­smo inter­se­zio­na­le per rimuo­ve­re ogni bias e per giun­ge­re infi­ne alla con­cre­ta rea­liz­za­zio­ne di un’AI fem­mi­ni­sta.

Que­sto pro­ces­so dal­la crea­zio­ne all’archiviazione dei dati rap­pre­sen­ta un atto di pro­te­sta sia arti­sti­co che poli­ti­co con­tro l’attuale ampli­fi­ca­zio­ne da par­te degli stru­men­ti tec­no­lo­gi­ci del­la supre­ma­zia occi­den­ta­le maschi­le. Sin­ders defi­ni­sce il suo pro­get­to pro­prio come una rispo­sta ai “casi docu­men­ta­ti dei pro­ble­mi nel­la tec­no­lo­gia e dei bias nel Machi­ne Lear­ning” e un pun­to di par­ten­za ver­so un futu­ro com­ples­si­va­men­te più equo ed eti­co.

L’intento, sep­pur per­se­gui­to in manie­ra dif­fe­ren­te, cor­ri­spon­de a quel­lo espli­ci­ta­to dal­la poe­tes­sa ed acca­de­mi­ca Joy Buo­lam­wi­ni in AI, Ain’t I A Woman. Nel­la sua per­for­man­ce poe­ti­ca, l’artista denun­cia l’incapacità degli algo­rit­mi di Machi­ne Lear­ning di rico­no­sce­re le don­ne di colo­re, per­si­no fal­len­do con le più famo­se come Sere­na Wil­liams o Oprah Win­frey. Buo­lam­wi­ni attra­ver­so l’arte, spe­ci­fi­ca­men­te The poe­try of code, si pro­po­ne di esplo­ra­re le impli­ca­zio­ni socia­li degli algo­rit­mi di Machi­ne Lear­ning e risol­ve­re i risvol­ti ingiu­sti ed iniqui. 

L’artista ha inol­tre fon­da­to a tal sco­po un’organizzazione per la “giu­sti­zia algo­rit­mi­ca” dove colo­ro che han­no espe­ri­to discri­mi­na­zio­ni lega­te all’intelligenza arti­fi­cia­le si ritro­va­no e con­tri­bui­sco­no alla crea­zio­ne di data sets più inclusivi. 

Buolamwini sostiene che, per creare un ambiente in cui la tecnologia sia destinata e funzioni per tutti, il fattore cruciale sia l’inclusione di individui diversi per background e identità nei team di programmazione, così che ognuno possa rimediare ai potenziali bias dell’altro.

La capa­ci­tà degli arti­sti di abbrac­cia­re la diver­si­tà li ren­de atto­ri impre­scin­di­bi­li per la lot­ta con­tro le ingiu­sti­zie per­pe­tua­te dagli stru­men­ti che incor­po­ra­no la tec­no­lo­gia di Machi­ne Lear­ning: dal­le pre­ce­den­te­men­te cita­te ai soft­ware di asso­cia­zio­ni di paro­le, dal­le pub­bli­ci­tà onli­ne a cer­te app di Pho­to Shop­ping come FaceApp. 

Il vor­ti­ce crea­ti­vo pare muo­ver­si pro­po­si­ti­va­men­te ver­so una dire­zio­ne sia cri­ti­ca che riso­lu­ti­va. Infat­ti, oltre a Sin­ders e Buo­lam­wi­ni, sva­ria­ti altri arti­sti han­no appor­ta­to il loro con­tri­bu­to e pre­so par­te ad un’organizzazione inter­na­zio­na­le di arti­sti che esplo­ra­no l’Intelligenza Arti­fi­cia­le chia­ma­ta AIAr­tists.

Il ruo­lo dell’artista sto­ri­ca­men­te è quel­lo dell’esplo­ra­zio­ne, del­lo spo­sta­men­to dei limi­ti o del­la loro stes­sa can­cel­la­zio­ne, l’immaginazione e la crea­zio­ne anche con­cre­ta di uni­ver­si ine­di­ti e nel­lo spe­ci­fi­co incon­tro con la tec­no­lo­gia soli­ta­men­te sono gli atto­ri che con­du­co­no alla sua demo­cra­tiz­za­zio­ne. Difat­ti, sin dal­la sua ripro­du­ci­bi­li­tà tec­ni­ca, gli arti­sti sono sta­ti in gra­do di allar­ga­re la par­te­ci­pa­zio­ne al pro­ces­so tec­no-scien­ti­fi­co, dif­fon­den­do e con­se­guen­te­men­te demo­cra­tiz­zan­do la cono­scen­za degli stru­men­ti tecnologici. 

Rela­ti­va­men­te al pre­ci­so caso degli algo­rit­mi di Machi­ne Lear­ning, gli arti­sti potreb­be­ro con­tri­bui­re al con­ce­pi­men­to di data­set più inclu­si­vi da cui suc­ces­si­va­men­te l’algoritmo apprende. 

Marie Ben­ney, la fon­da­tri­ce dell’associazione AIAr­tists sostie­ne infat­ti che vi sia la neces­si­tà di inca­na­la­re la crea­ti­vi­tà di arti­sti, poe­ti, musi­ci­sti e filo­so­fi da tut­to il mon­do nell’investigazione del­le nuo­ve tec­no­lo­gie al fine di ren­de­re le loro per­for­man­ce eti­che, eque e giuste.

Sinders e Buolamwini stanno già combattendo contro i bias e le discriminazioni algoritmiche predisponendo le loro azioni artistiche come proteste, come atti volti a intaccare l’attuale supremazia maschile ed occidentale, con approcci innovativi basati primariamente sull’inclusione delle diversità. 

Per ovvia­re all’incorporazione di pre­giu­di­zi negli algo­rit­mi di Machi­ne Lear­ning occor­re per­ciò che i team di pro­gram­ma­zio­ne sia­no rap­pre­sen­ta­ti­vi di un ampio spet­tro di pro­spet­ti­ve, gene­ri, pro­ve­nien­ze, back­ground e valo­ri cosic­ché sia garan­ti­ta la rap­pre­sen­ta­ti­vi­tà all’interno dei data­set che ali­men­ta­no gli algo­rit­mi. Ogni arti­sta che si fa por­ta­vo­ce dell’inclusione di ogni for­ma di diver­si­tà in nome di una mag­gio­re giu­sti­zia tec­no­lo­gi­ca e socia­le rap­pre­sen­ta un sog­get­to chia­ve che il domi­nio del­la Data Scien­ce dovreb­be considerare. 

L’arte è in gra­do di rivo­lu­zio­na­re la tec­no­lo­gia e al con­tem­po lasciar­si influen­za­re da essa, come il Mar Bal­ti­co e quel­lo del Nord si incon­tra­no sep­pur sen­za mischiar­si, e dal loro com­ba­cia­re può sca­tu­ri­re mera­vi­glia che bene­fi­cia la socie­tà ed ogni suo membro. 

Con­di­vi­di:
Gaia Martinelli
Gaia di nome e di fat­to – ma non sem­pre. 22 anni di tra­mon­ti, viag­gi e poe­sie. A trat­ti stu­dio anche cor­po­ra­te com­mu­ni­ca­tion pres­so la Sta­ta­le di Mila­no. Scri­vo di cose bel­le per­ché amo l’i­dea di dif­fon­de­re bellezza.

Commenta per primo

Lascia un commento

L'indirizzo email non sarà pubblicato.