Mbrojtja e të dhënave
Një shoqëri ështe më shumë se shuma e individëve të saj
Qoftë në Facebook, Siri apo Alexa, kur bëhet fjalë për teknologjinë e inteligjencës artificiale, publiku shpesh ankohet për mungesën e mbrojtjes së privatësisë. Por sistemet inteligjente janë më pak të interesuara për të dhënat individuale sesa për përgjithësimin dhe standardizimin e konteksteve të jetës që ato automatizojnë.
Zoom dhe Skype, mediat sociale, orët inteligjente, por edhe telefonat inteligjentë, bankat dhe kompanitë e sigurimeve përdorin sisteme komplekse algoritmike, të cilat ne i quajmë zakonisht sisteme me “inteligjencë artificiale”. Në mënyrë që ata të funksionojnë mirë, disa prej tyre mbledhin shumë të dhëna. Kjo vlen, për shembull, për ofruesit si Spotify, makina e kërkimit Google, Instagram, Siri ose Alexa.
Nga këto të dhëna mund të nxirren përfundime të caktuara, të cilat herë pas here shkojnë përtej shijes në muzikë apo zakoneve të kërkimit të përdoruesve. Për shembull, nëse një person dëgjon muzikë që është e njohur në komunitetin LGTBQI+, vallë sugjeron kjo diçka për orientimin e tij seksual? Sa i sigurt është ky supozim? Po në lidhje me sfondin kulturor të personit që dëgjon Black Music, R&B ose muzikë në një gjuhë të caktuar?
Pjesa më e madhe e të dhënave të mbledhura, të cilat në pamje të parë duken të parëndësishme, mund të bëhen të ndjeshme në një kontekst të caktuar, prandaj shtypi dhe publiku i gjerë tashmë po ankohen lidhur me fundin e privatësisë. Por shpesh harrohet se këto infrastruktura zakonisht nuk janë të interesuara për personat specifikë, privatë që qëndrojnë pas të dhënave. Edhe nëse mbledhin dhe përdorin të dhëna personale - për shembull kur Spotify ofron një përzgjedhje muzike të përshtatur për individin, të dhënat specifike personale janë të parëndësishme për sistemin në tërësi.
Qulli matematikor i të dhënave
Termi “Inteligjencë Artificiale” do të thotë sisteme socio-teknike në të cilat është e vështirë të ndash njeriun nga makina. Këto sisteme bazohen në supozimet për botën dhe njeriun, qëllimet dhe synimet e tij, të cilat bazohen në vendimet njerëzore. E njëjta gjë vlen edhe për përpunimin e nevojshëm në formë të të dhënave. Ashtu si me enigmat, të dhënat për njerëzit përkthehen në pjesë të enigmës së të dhënave. Formulat matematikore që përpunojnë të dhënat grumbullojnë gjithçka në një qull. Nga individët krijojnë përqindje dhe profile statistikore: grimca të imta, por individë “gjenerikë” në sirtarë.
Për ta bërë të qartë me një foto: fokusi nuk është te pema e caktuar në pyll (individi), por te vetë pylli (shoqëria). Ambivalenca dhe paqartësia e jetës njerëzore, nga ana tjetër, nuk mund të përkthehet plotësisht në të dhëna dhe algoritme. Këto infrastruktura nuk janë fare të orientuara drejt kësaj. Ato kanë për qëllim formimin e jetës së njerëzve, siç vë në dukje studiuesi britanik i drejtësisë Michael Veale. Këto sisteme përdoren për të automatizuar procese të caktuara. Kjo do të thotë se standardet janë vendosur për proceset në të cilat ka pasur mundësi të ndryshme manuale dhe metoda që nuk e lejojnë më këtë fleksibilitet. Duke filluar me vendimin për atë se çfarë duhet të ruhet si e dhënë e çfarë jo: çfarë llogaritet si datë dhe në cilin format është një vendim për atë që ekziston në sistem dhe çfarë nuk ekziston në sistem sepse nuk është ruajtur si e dhënë. Standardet, formatet e të dhënave, vendimet për përpunimin e të dhënave, etj. të sistemeve kështu diktojnë mënyrën se si brenda një shërbimi vendosen qasja, pjesëmarrja dhe ndërveprimet.
Pikërisht këtu del në pah problemi bazë i rregullimit të këtyre sistemeve: të drejtat themelore dhe mbrojtja e të dhënave janë të drejta individuale; i gjithë sistemi i të drejtave themelore dhe e drejta e thjeshtë konkrete burojnë nga individi. Me fjalë të tjera: sistemi i drejtësisë gjermane njeh vetëm pemët, jo pyjet, kur bëhet fjalë për të drejtat themelore. Me instrumentet aktuale të drejtësisë, teknologjitë rregullohen në atë mënyrë që pylli të mund të kontrollohej nga rregulloret individuale të pemëve.
Detektimi i krimit në turmë
Një shembull i mirë i kësaj mospërputhjeje midis sistemit ligjor dhe sistemeve operative të IA janë sistemet parashikues të policisë, të njohura gjithashtu si “Vorhersagende Arbeit” në gjermanisht. Këto identifikojnë modelet e sjelljes për kategori të ndryshme krimi në mënyrë që të përdorin këtë informacion për të parandaluar krime të ngjashme. Meqenëse këto teknologji korrespondojnë me një infrastrukturë, ndërsa mbrojtja e të dhënave rregullon vetëm të drejtat individuale, disa nga programet e përdorura në Gjermani i shpëtojnë rregullimit aktual ligjor. Në disa pjesë të Gjermanisë, për shembull, policia e shtetit përdor softuerin Precobs, i cili me anë të një modusi, Operandi, parashikon vjedhje brenda një afati të caktuar kohor dhe brenda parametrave gjeografikë duke përdorur të dhëna anonime për llojin e krimit, kohën dhe të dhënat gjeografike. Autoritetet përkatëse shtetërore për mbrojtjen e të dhënave kanë lejuar përdorimin e softuerit - pasi nuk përpunohen të dhëna personale dhe për këtë arsye nuk bie në përgjegjësi të tyre. Gjatë kësaj sistemi ngrit një sërë pyetjesh: a ndihen banorët më të sigurte, nëse në një pjesë të caktuar të qytetit papritur vërehet një prani e madhe e policisë? Apo ndoshta kjo do të nxiste largimin e banorëve që mund t’ia lejojnë vetes një banesë në një pjesë tjetër të qytetit? Këto çështje nuk janë të pasqyruara sa i përket drejtësisë.
Çështja e efektit social të programeve si Precobs nuk u mor parasysh as politikisht, as që ishte paraparë ligjërisht. Nga pikëpamja e drejtësisë, fokusi ishte ekskluzivisht nëse të drejtat individuale (mbrojtja e të dhënave) ishin shkelur nga softueri apo jo. Kjo tregon se stabiliteti social i një qyteti të tërë nuk mund të hartohet me mjete parashikuese policore nga njëra anë dhe rregullore individuale nga ana tjetër. Prandaj rregullisht shpërfillet.
Merrja në konsideratë e vlerave shoqërore
Sistemet socio-teknike, të tilla si policia parashikuese tregojnë se si komuniteti në tërësi nuk shihet në një shoqëri individualiste. Një shoqëri është më shumë se shuma e individëve të saj dhe jo vetëm që ka nevojë për të drejta individuale, por duhet t'i balancojë ato me vlerat shoqërore. Kjo duhet të merret gjithmonë parasysh kur merren parasysh sistemet algoritmike. Demokracitë e kanë lënë pas dore këtë të fundit. Këto janë detyrat tona të shtëpisë për të ardhmen.