Ennakkoluulot ja virheet
Kun tekoäly on ennakkoluuloinen
Viime vuosikymmeninä olemme alkaneet viettämään ison osan elämästämme digimaailmassa – maailmassa, jota hallitsee enenevissä määrin kourallinen yrityksiä. Näitä yrityksiä eivät useimmat voi välttää, ja ne päättävät siitä, mitä pystymme näkemään ja sanomaan, sekä työkaluista, joita käytämme.
Kirjoittanut Jillian C. York
Yrityksillä on monta tapaa vaikuttaa meihin. Ensinnäkin ne päättävät, mitä me näemme. Yritykset – ja valtiot – rajoittavat eri sisältöjä alastomasta ihmisruumiista henkilötietoihin. Esimerkkeinä toimivat Instagramin kielto seksuaalista sisältöä kohtaan tai Twitterin tuore sääntö, ettei yksityistä videota voi jakaa. Nämä rajoitukset ovat perusteltavissa, mutta voivat vaikuttaa negatiivisesti alustojen käyttäjiin, joilla voi olla pätevä syy jakaa kyseistä sisältöä.
Toiseksi Snapchatin, Instagramin ja TikTokin kaltaiset suositut alustat tarjoavat filttereitä, joilla voimme muokata kuviamme – ja usein minäkuvaamme. Nämä filtterit, joita ovat kritisoineet rankasti kehonkuvaa muokkaavina niin päättäjät, psykologit kuin muutkin tahot, tarjoavat meille usein homogeenisen näkemyksen siitä, miltä meidän pitäisi näyttää. Tällaisen näkemyksen yleistyessä voi se istuttaa meihin olettamuksia siitä, miltä ihmisten pitäisi näyttää, ja potentiaalisesti ruokkia syrjintää ja ennakkoluuloja niitä kohtaan, jotka eivät osallistu.
Kolmas ja kenties huolestuttavin vallankäyttötapa on se, miten yritykset käyttävät algoritmeja valitessaan sisältöä, joka päätyy hakuihimme tai syötteisiimme. Tämä vaikuttaa kuvien luokitteluun ja esittämiseen erityisen salakavalalla tavalla: algoritmit luokittelevat systemaattisesti kuvia tavoilla, jotka ovat syrjiviä, ennakkoluuloisia tai tyystin väärin, millä voi olla laajoja vaikutuksia alustojen käyttäjiin.
Algoritmit luokittelevat systemaattisesti kuvia tavoilla, jotka ovat syrjiviä, ennakkoluuloisia tai tyystin väärin.
Esimerkiksi vuonna 2015 Googlen kuvantunnistusteknologia luokitteli virheellisesti mustia ihmisiä gorilloiksi. Virhe oli näennäisesti vahinko, mutta on silti loistava esimerkki siitä, miten algoritmeja voi opettaa datalla, joka tuottaa ongelmallisia tuloksia. Algoritmit ovat puhtaan matemaattisia, mutta data, jolla niitä opetetaan, on ihmisten luomaa – ihmisten, joilla on omat ennakkoluulonsa ja puutteensa. Lisäksi koneoppinut tekoäly toimii yleensä mustan laatikon periaatteella: niistä ei käy ilmi, miten ne päätyvät johonkin ratkaisuun. Näin käyttäjä ei saa tietää, johtuuko jokin virhe koodiin ohjelmoidusta tarkoituksellisesta rasismista vai vain huonosta datasta. Ja koska yritykset harvoin avaavat teknologiaansa ja dataansa, kolmannet osapuolet eivät voi ehkäistä tällaisia virheitä.
Tämänkaltaiset tapaukset voidaan helposti paljastaa, mutta on vaikeampaa tunnistaa, mitä vaikutuksia on ihmisten tuottaman sisällön moderoimisella tekoälyjen avulla. Me kun emme pääse näkemään valtaosaa näistä virheistä, saati sitten niitä aiheuttaneita syötteitä.
Kuten entinen sisältömoderaattori Andrew Strait on kirjoittanut vastikään ilmestyneessä teoksessa Fake AI: ”Nämä järjestelmät ovat järkyttävän huonoja tunnistamaan nettikeskustelun nyansseja ja kontekstia ja epäonnistuvat systemaattisesti erottamaan tekijänoikeusloukkauksen laillisesta parodiasta tai sen, onko rasistista haukkumasanaa käyttänyt viharikoksen uhri vai tätä loukannut.”
Tekoälyn sokea silmä
Eräs hyvin dokumentoitu esimerkki on se vahinko, joka syntyy, kun tekoälyjä käytetään tunnistamaan ja poistamaan ääriajattelu- ja terroristisisältöä, erityisesti kuvamateriaalia. Viime vuosina valtiot ovat tukeneet ympäri maailmaa ääriajattelu- ja terroristisisällön hävittämistä, jonka tunnistamiseen ja poistamiseen alustat käyttävät enenevissä määrin koneoppineita algoritmeja. Mutta käytetyt luokittelut ovat usein binäärisiä eivätkä siksi ota kontekstia huomioon: jos kuvassa on tunnetun terroristijärjestön tunnusmerkkejä, se luokitellaan terroristisisällöksi, vaikka tunnuksen käyttö olisi taiteellinen valinta tai protesti. Samoin historiallinen, arkisto- ja ihmisoikeussisältö leimataan ja todennäköisesti poistetaan. Teknologian käyttö tällaisessa monimuotoisessa tehtävässä johtaa kömpelöihin tuloksiin eikä jätä tilaa ilmaisulle.
Käytetään tekoälyä sitten hauissa tai automaattisessa sisällön moderoinnissa, on se vain niin hyödyllinen – pitäisikö sanoa älykäs – kuin sen käyttämä data. Data kärsii herkästi ihmisten virheistä ja ennakkoluuloista. Siksi datan aiheuttaman syrjimisen estämiseksi meidän on voitava kurkistaa mustaan laatikkoon, jotta voimme ymmärtää – ja torjua – ne olettamukset ja
ennakkoluulot, jotka tätä dataa muokkaavat. Tämä data kuitenkin kasvavissa määrin päättää, mitä me näemme ja miten sen näemme.
Mutta vaikka läpinäkyvyys auttaa meitä ymmärtämään ongelman ja estämään yksittäiset virheet, meidän täytyy yhteiskuntana alkaa esittää isompia kysymyksiä siitä, minkä roolin haluamme antaa näille teknologioille maailmankuvamme muokkaamisessa. Jotta tämä onnistuisi, täytyy meidän lakata näkemästä tekoäly neutraalina ja ymmärtää sen aina aatteellinen luonne.
Käytetään tekoälyä sitten hauissa tai automaattisessa sisällön moderoinnissa, on se vain niin hyödyllinen – pitäisikö sanoa älykäs – kuin sen käyttämä data. Data kärsii herkästi ihmisten virheistä ja ennakkoluuloista.
Tekoälyn käyttäminen ääriajattelun torjumisessa on silmiinpistävä esimerkki. Tässä kontekstissa tekoälyn käyttämistä ohjaavat linjaukset ovat selvästi aatteellisia. Ne ovat suoraan sanottuna eritteleviä: siinä väkivalta erotetaan hyväksyttäväksi (valtion) väkivallaksi ja tuomittavaksi (joidenkin ei-valtiollisten toimijoiden) väkivallaksi. Vaikka väkivaltaisen sisällön poistaminen näkyvistä on perusteltua, ei näissä linjauksissa ole kyse vain väkivaltaisesta kuvastosta, vaan kaikesta, joka liitetään ryhmään, jonka yritys tai valtio määrittelee ääriryhmäksi. Lopputulos ei ole haittojen lievittäminen vaan sisällön täydellinen hävittäminen.
Verkkoturvallisuudesta täydelliseen hävittämiseen
On paljon muitakin esimerkkejä: seksuaalisen ilmaisun hävittäminen ”verkkoturvallisuuden” varjolla sekä väärän tiedon ja harhatiedon luokittelu ovat molemmat pitkälti tekoälyjen tehtäviä. Nämä tekoälyt on opetettu datalla, joka perustuu aatteellisiin linjauksiin. Vaikka näissä tapauksissa linjaukset ovat tiedossa, virhemarginaali ei yleensä ole. Toisin sanoen vaikka voimme tarkastella linjauksia ja pyrkiä muuttamaan niitä, on mahdotonta nähdä ja näin ollen vaikea ymmärtää kuinka paljon laillista, rajoitusten ulkopuolelle jäävää ilmaisua tekoäly poistaa ilman sen tarkempaa valvontaa.
Mitä siis voimme tehdä, paitsi tiedostaa kysymyksen aatteellisen luonteen ja vaatia läpinäkyvyyttä tekoälyiltä? Pitääkö meidän vain hyväksyä tämä uutena normaalina, vai onko keinoja, joilla voimme muuttaa tätä ”edistystä”?
Kuten kirjoitan tuoreessa kirjassani Silicon Values: The Future of Free Speech Under Surveillance Capitalism, tulevaisuus on meidän kirjoitettavissamme. Emme voi vain hyväksyä nykyasennetta, vaan meidän pitää vaatia, että ”päätökset siitä, mitä meidän annetaan ilmaista, pitäisi antaa ihmisten tehtäviksi, ei jättää arvaamattomien toimijoiden ja algoritmien armoille.”
Tämä tarkoittaa viime kädessä, että ei riitä, että pyrimme ehkäisemään näiden teknologisten järjestelmien aiheuttamaa haittaa, vaan meidän pitää myös muokata niitä. Ehkä jopa purkaa niitä.