Umělá inteligence
Algoritmy jsou jako kuchařské recepty
Má-li jídlo chutnat, měly by být přísady pečlivě vybírány. Sebastian Schelter, expert na algoritmy, se v rozhovoru zmiňuje o umělé inteligenci, o tom, jak z nás umělá inteligence snímá břemeno rozhodování a jak ovlivňuje náš život.
Od: Johannes Zeller
Umělá inteligence a počítače, které se samostatně učí – to zní stále ještě trochu jako sci-fi, ale přesto už to dávno proniklo do našeho běžného života. Algoritmy určují nejen to, co uslyšíme nebo uvidíme při využití streamovacích služeb, ale mnohde například rozhodují o tom, kdo dostane úvěr, nebo předpovídají, s jakou pravděpodobností se pachatel trestného činu dopustí recidivy. Ale co je to vlastně algoritmus a jak ovlivňuje umělá inteligence náš život?
Základní recept – algoritmus
„Algoritmus je sled určitých kroků. Můžeme si to představit jako kuchařský recept. Jednak máme přísady, což lze vnímat jako zadání počítačového programu. A pak je tu recept, který krok za krokem říká, co se musí stát, aby bylo jídlo správně připraveno,“ vysvětluje expert na algoritmy Sebastian Schelter, který se na Amsterdamské univerzitě zabývá výzkumem správy dat a strojového učení.
Z tohoto pohledu nejsou algoritmy ničím novým, na tomto principu funguje každý počítačový program. To, co nás zaměstnává, když dnes mluvíme o rostoucím vlivu algoritmů, je strojové učení: „U běžného počítačového programu určuje člověk všechny kroky, kterými se řeší určitý problém. Existují však problémy, u kterých je pro nás obtížné počítači přesně napsat, jak je má řešit,“ říká expert. U strojového učení se proto používá jiná metoda.
Sebastian Schelter promoval na Technické univerzitě v Berlíně a pak pracoval jako výzkumník na New York University a u Amazon Research. Jako profesor na Amsterdamské univerzitě se zabývá problémy na pomezí datového managementu a strojového učení.
| Foto: © Sebastian Schelter
Vaření pro pokročilé: Učící se algoritmus
„Jednoduchým příkladem je spamový filtr, který má za úkol rozlišovat reklamní maily a osobní zprávy. Pro člověka, který takový počítačový program píše, to není vůbec snadné. Lze stanovit různá kritéria a pravidla, podle kterých se teoreticky dají rozpoznat reklamní maily – ať už jde o konkrétní čas, ve který jsou rozesílány, nebo určitá slova, která se vyskytují v textu zprávy. V určitý okamžik však při tom narazíme na limity lidské kapacity,“ vysvětluje Sebastian Schelter problém.
U strojového učení už proto programátor neprovádí explicitní programování počítače, ale ukazuje mu příklady. Nejlepší způsob řešení už najde počítač sám. Místo celého kuchařského receptu zadá programátor už jen požadovaný výsledek, který má být programem dodán.
„V tomto případě by zadáním mohlo být 1.000 e-mailů, které chce člověk přijmout, a celá řada negativních příkladů reklamních mailů, které člověk přijmout nechce,“ vysvětluje dále Sebastian Schelter. „Algoritmus pak na základě těchto příkladů odhadne pravděpodobnost, zda se u nové zprávy jedná nebo nejedná o reklamu. Velkým rozdílem je, že při běžném programování člověk zcela přesně stanoví jednotlivé kroky, zatímco učící se algoritmy vytvářejí na základě příkladů a statistických pravděpodobností svá vlastní kritéria výběru.“
Vyřazení umělou inteligencí
Učící se algoritmy jsou schopny určité problémy vyřešit nejen rychleji, ale také lépe než lidé. Když se v roce 2019 proti profesionálním hráčům pokeru prosadil program Pluribus, podala umělá inteligence názorný důkaz, že se dokáže naučit dokonce i lépe blafovat než člověk. Společně se schopnostmi roste i vliv umělé inteligence. Například ve zdravotnictví, ve světě financí a v justici.
Také v Německu je většina lidí dennodenně konfrontována s rozhodnutími chytrých algoritmů. „Z vědeckého hlediska jsou to abstraktní matematické postupy, které se dají aplikovat na mnoho oblastí. Lze je tedy například využít ke zjištění, jak je pravděpodobné, že určitá osoba bude schopna splácet úvěr,“ dodává Sebastian Schelter.
V zemích, jako jsou USA a Austrálie, bývají algoritmy podezřívány z toho, že při svém rozhodování diskriminují určitá etnika. „To je zčásti způsobeno tím, že diskriminace spočívá už v příkladových datech, která byla algoritmu ukázána. Když se potom prostě nechá algoritmus běžet naslepo, pak reprodukuje diskriminaci,“ vysvětluje expert kořeny problému.
Algoritmus nadaný taktností?
Především je nutné zdůraznit, že otázka, kde by měly být limity algoritmů a umělé inteligence, není technická, ale etická. Nebo snad lze naučit algoritmus „taktnosti“?
„Tato otázka je v současné době zatím nevyřešeným problémem. Můj osobní názor je ten, že existují oblasti, kde špatné rozhodnutí algoritmu nemá nijak závažné účinky – tedy například když mi streamovací služba přehraje nesprávnou písničku. Pak existují jiné oblasti, kde lze algoritmus beze všeho použít pro doporučení určité věci, ale to poslední rozhodnutí by měl udělat člověk. A pak existují ještě jiné oblasti, které by se prostě měly přenechat lidskému úsudku,“ vyjadřuje svůj pohled na věc Sebastian Schelter.
„Ve Spojených státech amerických se používají algoritmy, které odhadnou, jaká je pravděpodobnost, že vězeň po propuštění znovu spáchá trestný čin. Soudům a grémiím jsou tato data zpřístupňována při rozhodování o předčasném propuštění.“ V této souvislosti se však naskýtá otázka, zda je to správné.
„Téma spravedlnosti téměř nelze matematicky postihnout, protože se točí především kolem filosofických, politických a právnických otázek. Každý má jinou představu o tom, co je spravedlivé a co ne, a matematicky není možné splnit všechny definice současně.“
Také studie, ve kterých se zkoumá spravedlivost rozhodnutí prostřednictvím algoritmů, naznačují, že ve věci taktnosti je ještě co dohánět. V mnoha oblastech je nutné se nejprve eticky, politicky a právně shodnout na tom, jak by určité případy měly být „správně“ rozhodovány. Teprve potom lze úkol svěřit také algoritmu. „Dokonce i potom zůstane filosofickou a politickou otázkou, zda něco takového chceme vůbec dělat,“ říká Sebastian Schelter.
Komentáře
Komentovat