Condividi
Photo Di Shutterstock

di A. Rosanna – Stiamo diventando più razzisti. Lo facciamo pian piano, anche (ma non solo) grazie a come sono fatti gli algoritmi dei motori di ricerca. Secondo Safiya Umoja Noble, professoressa di comunicazione all’Università della California del Sud, la risposta è quasi certamente sì.

Il suo nuovo libro, Algorithms of Oppression: come i motori di ricerca rafforzano il razzismo, mette in discussione l’idea che i motori di ricerca offrano parità di condizioni per tutte le idee, i valori e le identità. Dice che sono intrinsecamente discriminatori e favoriscono i gruppi che li hanno progettati, così come le società che li finanziano.

Questo non è un argomento banale, specialmente in un mondo in cui le persone ottengono più informazioni dai motori di ricerca che da insegnanti o dai libri.

Per Noble, Google non sta solo mostrando alle persone quello che vogliono sapere, ma anche determinando ciò che vale la pena conoscere e cosa no.

Ma quali sarebbero questi fattori invisibili alla base di questi algoritmi? La maggior parte delle persone pensa a Google e ai motori di ricerca come a delle biblioteche pubbliche, come luogo affidabile in cui possono ottenere informazioni accurate sul mondo. Ma non è così. Noble ha iniziato diversi anni fa delle ricerche su parole chiave relative a identità di comunità diverse. Ha effettuato ricerche su “ragazze nere”, “ragazze asiatiche” e “ragazze latine” e ha scoperto che la pornografia era il modo principale in cui erano rappresentate nella prima pagina dei risultati di ricerca. “Ciò non sembra essere una rappresentazione molto giusta o credibile delle donne di colore. Li riduce a oggetti sessuali”, dice Noble.

I motori di ricerca del resto funzionano attraverso parole chiave. Ma se digitiamo “ragazze bianche” o “donne bianche”, non succede la stessa cosa, anzi. Per molto tempo la ricerca di immagini sulla parola “bello”, ha dato come risultati quasi solo immagini di donne bianche in bikini o lingerie.

Il fatto è questo: le donne bianche non si identificano tipicamente come bianche; pensano a se stesse come ragazze o donne o individui. Questa è la differenza. Questi algoritmi di ricerca non si limitano a selezionare le informazioni a cui siamo esposti, stanno anche dando valore a quali informazioni valga la pena conoscere prima di altre.

Sappiamo tutti come funziona un motore di ricerca. Se vuoi nascondere un cadavere, fallo nella seconda pagina di Google. Nessuno lo troverà. Ma andiamo al punto. Esiste un punto di vista dominante maschile, occidentale-centrico, che viene codificato nell’organizzazione delle informazioni.

Ma dobbiamo anche ricordare che un algoritmo è solo un albero decisionale automatico. E queste decisioni sono sempre correlate al rapporto degli inserzionisti con la piattaforma. Google ha un enorme impero chiamato AdWords e le persone fanno offerte all’asta in tempo reale per ottimizzare i loro contenuti.

Questo modello di informazioni che vanno al miglior offerente, privilegerà sempre le persone che hanno più risorse. Ciò significa che le persone che non hanno molte risorse, come i bambini, non saranno mai in grado di controllare completamente i modi in cui sono rappresentati.

Cosa voglio dire? Che dobbiamo iniziare a pensare a queste cose. Non sono banali. Pensate se la stessa cosa succedesse per i cartelloni stradali? Immaginate che ad ogni riferimento sulla spazzatura ci fosse una donna di colore, o un asiatico? Alla fine accostereste le due immagini.

I motori di ricerca ci fanno vedere ciò che la maggior parte delle persone cerca e vede. Così le prospettive di maggioranza saranno costantemente privilegiate rispetto ad altre. Le persone che sono una minoranza numerica nella società non saranno mai in grado di imporsi.

E sarebbe da pazzi pensare che tutto questo non ci influenzi.