A Google akaratlanul is a rasszizmust népszerűsíti

A Google akaratlanul is a rasszizmust népszerűsíti

Nem a Facebook az egyetlen olyan platform, amit elsődleges információforrásként használ rengeteg felhasználó szerte a világot. A látszólag demokratikusan működő profitorientált oldalak társadalmi felelőssége folyamatos vita tárgya, és nincs ez másképp az internet elsőszámú keresőoldala esetében sem. A Google algoritmusaira jellemző rasszizmusról írt könyvet Safiya Umoja Noble, Algorithms of Oppression (Az elnyomás algoritmusai) címen, és ennek kapcsán készített vele interjút a Vox, amiből kiderül, hogyan lehet egy ideológiailag független keresőoldal befolyással a felhasználói radikalizálódására.

Noble szerint a Google találati listájában korántsem egyenlő esélyekkel jelennek meg a különböző értékek és identitások, ez pedig elég komoly problémákat okozhat – tekintve, hogy a keresőoldal a világ elsőszámú információszerző helye. Nem arról van szó, hogy ne jelenne meg a Google találati listájában ezerféle eltérő típusú vélemény, igazából semmi nem akadályozza meg a felhasználót abban, hogy megtalálja a saját értékrendjével megegyező, hitelesnek vélt forrásokat. Azonban nem mindenki tudatos információkereső, ilyenkor pedig döntővé válik a találati lista felépítése.

„Ha valamit úgy el akarsz rejteni, hogy soha senki ne találja meg, tedd a Google találati listájának második oldalára.” – így szól a régi, de még mindig aktuális vicc, ami pontosan rámutat arra, mennyit számít, hogy egy kulcsszóhoz milyen sorrendben jelennek meg a találatok. Hajlamosak vagyunk az első oldal találatait tekinteni hiteles forrásnak, pedig valójában azt, hogy melyik weboldal hányadik helyen szerepel a listán, leginkább két tényező befolyásolja: ki fizetett érte többet, és ki tudja hatékonyan manipulálni az algoritmust.

A Google algoritmusa nem éppen társadalmilag érzékeny

„A legtöbb ember úgy gondol a Google-re, mint egy nyilvános könyvtárra, egy olyan megbízható helyre, ahonnan hiteles információkat szerezhet a világról.” – a téves megítélése miatt tartja kifejezetten problémásnak Noble a Google algoritmusát. Sokan elfelejtik, hogy a Google egy profitorientált cég, ezért a találatokat jelentősen befolyásolják a cégek hirdetésre költött pénzei.

A Google hirdetési rendszerének, az AdWordsnek köszönhetően mindig azok az oldalak foglalnak el előkelő helyet a találati listán, akik a legtöbb anyagi erőforrással rendelkeznek. Így a marginalizálódott csoportoknak eleve nincs esélyük felvenni a harcot a nagykutyákkal, mert a Google a profitszerzés és a többségi vélemény alapján dönti el, hogy mely hangokat erősíti fel és melyeket halkítja le. A felerősített hangok pedig sokszor rasszisták vagy szexisták.

Noble kutatásának kiindulópontja az volt, hogy amikor rákeresett a „fekete nők”, „ázsiai nők” és „latino nők” kifejezésekre, az elsődleges találatok minden esetben pornóoldalakhoz vezettek. A színesbőrű nők ilyen jellegű tárgyiasítása nem segíti a hiteles reprezentációt, és úgy tűnik erre némi noszogatás után a Google-nél is rájöttek, mert elkezdték visszaszorítani a pornográf tartalmat.

A Google algoritmusának egyéb aspektusai is problémásak, például a beírt szövegek automatikus kiegészítése, amely többnyire az alapján jön létre, hogy mire kerestek rá a legtöbben. 2016-ban bejelentette a Google, hogy megoldotta az automatikus kiegészítés egyik problémáját: ha valaki beírta a keresőbe, hogy „a zsidók”, akkor a Google rögtön feldobta ajánlatnak „a zsidók gonoszak” keresési lehetőséget. Ez az eset viszont korántsem a kivétel volt, hanem éppen a szabály.

Két év telt el a „zsidók gonoszak” probléma megoldása óta, azonban lényegi változás nem történt – legalábbis erre mutat rá a Wired februári cikke. A hírportál újságírója inkognitó módban megnyitott böngészőben keresett rá pár megosztó kifejezésre, és az automatikus kiegészítés által kínált megoldások között szinte mindig szerepelt valami rasszista, fasiszta, szexista vagy éppen áltudományos megoldás.

Ilyen példák a „feketék…nincsenek elnyomva”, a „Hitler…a hősöm”, a „feministák…szexisták”, „a fehér felsőbbrendűség…jó” vagy a „globális felmelegedés…kamu” kiegészítések. A Google automatikus kiegészítései komoly hatással lehetnek a felhasználókra, mert „olyan gondolatokat tesznek a fejekbe, amik egyébként sose jutottak volna az eszükbe” – erre a veszélyre figyelmeztet Suresh Venkatasubramanian, aki adatfelhasználással kapcsolatos etikát tanít a Utah-i egyetemen.

Így lesz a hétköznapi rasszistából tömeggyilkos

Felmerül a kérdés, hogy milyen kézzel fogható hatásai lehetnek a rasszizmust elősegítő Google algoritmusnak. Értelemszerűen csak azért, mert az automatikus kiegészítés szerint nincs globális felmelegedés, ezt nem fogja az adott felhasználó készpénznek venni. Persze kellemetlen érzés olvasni a rasszista és szexista szavakat, mégse feltételez konkrét veszélyt. Itt jönnek képbe az álinformációs és gyűlölködő oldalak.

Fotó: Pixabay

Noble a könyvében több konkrét példát is említ arra vonatkozóan, hogy a gyűlöletoldalak hogyan használják fel saját előnyükre a Google algoritmusát. A megfelelő kulcsszavakkal egy weboldal előkelő helyet foglalhat el a találati listán, még akkor is, hagyűlöletkeltő propagandával van tele. Ez pedig súlyos következményekkel is járhat, főleg, ha egy olyan ember botlik bele ezekbe az oldalakba, aki amúgy is nyitott az általuk képviselt ideológiára.

Dylann Roof esetét hozza fel példaként Noble arra vonatkozólag, hogy a Google, közvetetten ugyan, de szerepet játszott egy férfi radikalizálódásában. 2015-ben, az akkor 21 éves Roof egy előre eltervezett templomi lövöldözés során kilenc afroamerikai embert ölt meg. Indítéka egyértelműen a fajgyűlölet volt, és saját állítása szerint minden akkor kezdődött, amikor a Trayvon Martin-gyilkosság hatására rákeresett a „black-on-white crime” (fekete emberek fehér emberek ellen elkövetett bűntettei) kifejezésre.

A keresőpanelbe írt szavak miatt értelemszerűen a legfasisztább weboldalak jelentek meg az első oldalon, amiknek többsége úgy van kialakítva, hogy fenntartsa a hitelesség látszatát. Roof a tényleges tájékozódás helyett elmerült az álinformációk pöcegödrében, míg végül olyannyira eluralkodott rajta a gyűlölet, hogy az lövöldözésbe torkollott. Egy liberális és szociálisan érzékeny embert nem fog nácivá változtatni néhány álhíroldal (és fordítva), de azt nem tudhatjuk, hány olyan rasszista ember van, akik az ilyen oldalak hatására radikalizálódnak.

Kell-e cselekednie a Google-nek?

A Google bizonyos szinten visszatükrözi a valóságot, hiszen az automatikus kiegészítésekben és a találati listákban a többség véleménye jelenik meg. De ahogy a Facebook esetében, itt sem egyértelmű, hogy a keresőoldal mennyire felelős a rasszista álhírek terjedéséért. Mivel a Google profitorientált, nem kötelessége foglalkozni a társadalmi hatásaival, de ez nem jelenti azt, hogy ne lenne rá lehetősége.

Letudhatják annyival, hogy az oldalon megjelenő rasszizmus nem a platform hibája, hanem az embereké. A probléma azonban ennél összetettebb, hiszen egyrészt a platformot is emberek csinálják, és ha az adott platform hibásan működik, akkor nekik lehetőségük van kijavítani ezeket a hibákat. Ilyen szempontból a cselekvés hiánya is állásfoglalás az ügyben. Noble szerint „[á]lnok dolog azt állítani, hogy a platform önálló életet él, és csak a felhasználói tudják befolyásolni, amikor valójában az elsődleges felelősség az alkotókat terheli.”

Borítókép: Pixabay