Inspirace

Vývojář umělé inteligence: I člověk jede podle programu. Vymyslela ho evoluce

10. březen 2018 četba na 13 minut
Marek Rosa

Marek Rosa

Foto: Daniel Vrabec

“Každá umělá inteligence bude mít hodnoty, které jí dáme, takže bude odrazem nás samých,” prohlašuje Marek Rosa, slovenský programátor, vývojář počítačových her a podnikatel. 

Proslul jako zakladatel a šéf společnosti Keen Software House, která vyvinula veleúspěšné hry Space Engineers a Medieval Engineers.

Aktuálně se Marek Rosa ve své GoodAI zabývá výzkumem a vývojem univerzální umělé inteligence. Jako speaker se na začátku tohoto týdne zúčastnil Singularity University Czech Summit na pražském Žofíně, kde měl přednášku o zásadním tématu: etické otázky spojené s umělou inteligencí. 

Představme si problém, který může v brzké době nastat. Samořiditelný automobil se dostane do situace, kdy bude muset zvolit, zda ohrozí posádku, nebo chodce před sebou. Jak se zachová?

Předně si uvědomte, že to není otázka jen pro vývojáře umělé inteligence. Jde o tak komplexní etickou problematiku, že se k ní budou muset vyjádřit právníci, regulátoři, zákonodárci a mnoho dalších. Na řešení se bude muset shodnout celé lidstvo. Zastávám názor, že jsou to jen naše hodnoty, kterými se bude ta budoucí umělá inteligence řídit a které bude dál prosazovat.

Jaké řešení byste automobilu vy sám doporučil?

Nechal bych to na náhodě. Obě řešení jsou špatná, takže to klidně může vyřešit hod mincí. Ale je tam více faktorů. Představte si, že výrobky jedné automobilky budou podobný problém častěji řešit ohrožením posádky. Co se stane? Lidé si nebudou chtít tato auta kupovat. Další otázka je, zda vůbec bude v dohledné době umělá inteligence aut natolik vyspělá, že pozná podobnou situaci. Nyní jsme od toho totiž velmi daleko. A vůbec nechci zacházet tak daleko, že by nějaká umělá inteligence například “vybírala oběti” podle věku nebo třeba rasy.

Ve světě se to již ale řeší…

Ano, myslím, že v Německu došlo k rozhodnutí, že v podobných situacích nemá auto nic řešit, ale prostě zastavit. Zda to bude znamenat zdravotní újmu kohokoli, již umělá inteligence řešit nemá. Uvědomte si, že i kdybychom tuto morální otázku nevyřešili, i tak v důsledku zavádění samořiditelných aut dojde k výraznému snížení úmrtnosti na cestách.

V průběhu celého summitu byla často zmíněna inovační křivka, která ukazuje, že při velkých změnách to vždy dlouho vypadá, jako když se nic neděje, a pak se najednou vše děje tak rychle, až to nikdo nestihne zachytit. Neblíží se již ten kriticky okamžik, kdy se zmíněná křivka začne lámat a my bychom již měli mít alespoň částečná řešení nejen etických problémů spojených s umělou inteligencí?

Na začátek musím předeslat, že nejsem velký příznivec regulací ze strany států. Ale máte pravdu, že podobná regulace bude potřebná a měla by přijít před tím bodem zlomu, protože pak už na ni nebude čas. Můžeme připomenout podobné regulace v historii, které se týkaly například jaderných či chemických zbraní. Snaha o jejich omezení vždy přišla až po jejich “úspěšném” využití a často v době, kdy státy věděly, že je nebudou moci nebo chtít použít. Proč bychom neregulovali něco, co stejně nemůžeme použít.

Znovu připomínám, že jsem spíš proti regulacím. Ale bude jich třeba. Hrozí, že někdo při vývoji umělé inteligence dojde k nějaké chybě, může získat zlý hodnotový systém a my už to nikdy nezastavíme.

Začátkem musí jistě být nějaká debata odborníků s vrcholnými představiteli států a byznysu. Dochází k ní?

V podstatě ano. Právě automobilový průmysl je toho zářným případem a vlastně mě šíře i hloubka té diskuze o zodpovědnosti u samořiditelných vozů pozitivně překvapila. Druhou významnou linií těchto diskuzí jsou snahy zastavit takzvané “zabijácké roboty”. To jsem i sám podepsal. Ale bohužel si nemyslím, že by došlo k nějaké obecné shodě. Za těmito snahami totiž stojí většinou vývojáři a instituce, vlády či armády to neberou nijak vážně. Ale chyba by byla na tyto snahy rezignovat, protože tím, že se dostávají na pořad dne, můžeme alespoň částečně ovlivnit ten konečný výsledek. Například podle mého je důležité, aby se celý výzkum v oblasti umělé inteligence rétoricky nedostal do roviny nové studené války - USA proti Číně nebo Rusku. To by mohlo vést ke třetí světové válce, ačkoli by na počátku nebyly vůbec žádné reálné důvody krom ukazování svalů nebo ze strachu, že ten druhý přijde s něčím ještě šílenějším než ten první.

Umělí vojáci nebo i stále sofistikovanější bezpilotní útočná letadla jsou asi jedním důležitých motivů vývoje v této oblasti. Není to odosobnění zabíjení již reálné a velmi problematické?

Autonomní zbraně lidstvo používá již od druhé světové války. Usnadnění a odosobnění zabíjení samozřejmě je zásadní problém, na druhou stranu když na světě jsou atomové zbraně a stačí zmáčknout knoflík, tak to samo o sobě je průšvih. Znovu musím připomenout, že jde o hodnoty, které umělé inteligenci dáme. I když někdo na světě vyvíjí špinavé zbraně, my na to nemusíme reagovat stejně špinavým vývojem. Když mafie používá mafiánské metody, stát na to musí reagovat legálními prostředky.

V souvislosti s tím nelze nevzpomenout zákony robotiky Isaaca Asimova, které umělým bytostem brání například napadnout člověka. Přemýšlíte při svém vlastním vývoji o vytvoření nějakého tlačítka nebo uměle nastavené hranice, kterou daná umělá inteligence nebude moci překročit, a když na ni narazí, zničí se?

Možná vás to překvapí, ale právě tato problematika představuje zhruba polovinu našeho bádání. Ona je jedna věc vytvořit ten správný algoritmus, který bude schopen se učit. A druhá věc je právě hledání správných hodnot, které v něm budeme posilovat. A samozřejmě nejdůležitější pak bude otestovat, zda se jimi bude řídit. Pro představu v mé herní firmě také hodně testujeme naše hry. Ale tam nejde o život, proto testování umělé inteligence bude tak milionkrát náročnější a důslednější.

Jak lze ten algoritmus naučit hodnotám?

Tréninkem. Budeme ho vystavovat určitým podnětům a pak jej odměňovat za správné reakce a naopak trestat jeho špatné reakce. Bude velmi složité již identifikovat ty hodnoty, které chceme, aby měl, a ty, u nichž za každou cenu chceme, aby neměl. Největší výzva pak bude zkoumat reakce při podnětech, kterým ten algoritmus nikdy nebyl vystaven a nijak s nimi nepočítal ani programátor.

A co rozhodování? Člověk se přeci může rozhodnout jednat špatně, ačkoli ví, že to je špatné rozhodnutí.

Představte si jednoduchý organismus, který reaguje čistě na podněty, třeba na světlo. Když je světlo, reaguje určitým způsobem, když světlo není, koná jinak. To není rozhodování, ale reakce, takový organismus se nemusí nic učit, koná tak od začátku do konce. Vyšší živočichové pracují se zpětnou vazbou, díky které se adaptují na nové podněty. Ale i takový živočich už se rodí se souborem určitých tendencí, “prográmků”, které se při tom spouštějí. Právě tady funguje systém odměn a trestů, díky nimž se posilují správné reakce a potlačují špatné. U živočichů se to zapisuje do DNA a evolučně se to přenáší. My jako lidé jsme se například už dávno naučili, že nemáme strkat ruku do ohně nebo že při velké zimě máme vyhledat přístřeší. Když tedy strčíte ruku do ohně, budete se rozhodovat, zda vás to bude nebo nebude pálit? Prostě mozek to vyhodnotí podle “programu”, který v něm dávno je.

Představíme-li si, že lidská inteligence je 100 procent, na kolika procentech se nyní nachází ta nejlepší umělá inteligence na světě?

Jak v čem a jak to chceme hodnotit. Například pokud bychom hodnotili, kdo je lepší hráč starověké hry go, tak v ní je umělá inteligence lepší. Totéž v šachu. Ale další oblasti, kde ještě budou umělé algoritmy lepší než člověk, mě nenapadají.

Tedy, kde lze spočítat 100 procent variant a využívat je všechny, tam je lepší algoritmus?

Ano a pak tam, kde byl algoritmus vytvořen přímo pro řešení nějaké úlohy. Ale jsou to jen takto úzce zaměřené věci. Ale pokud se algoritmus musí adaptovat na měnící se okolí, tam bude zatím vždy lepší člověk. Jde o samotný rozdíl mezi takzvanou speciální umělou inteligencí a obecnou umělou inteligencí. U té speciální hodnotíme rychlost a chybovost s jakými daný algoritmus řeší dané úlohy. Nic jiného. U té obecné, na které se zatím teprve pracuje, nás bude zajímat, jak se dokáže adaptovat na nové úlohy. V tomto jsou současné algoritmy na bodě nula, možná na bodě 0,1. Lidská inteligence je v tomto velmi dobrá, ne úplně univerzální, ale dost univerzální.

Vaše předřečnice Divya Chanderová na sumitu přišla s tezí, že v budoucnu by technicky neměl být problém propojit lidský mozek s internetem, čímž by vznikla neuvěřitelně široká informační síť schopná využívat téměř veškerou kapacitu mozku. Není to chvíle, kdy má smysl přestat vyvíjet umělou inteligenci a raději se soustředit na práci na této superinteligenci?

My o tom moc nemluvíme, ale i naše snahy s tímto vlastně souvisí. Chceme vytvořit tuto obecnou umělou inteligenci a s pomocí její infrastruktury a se znalostmi, kreativitou a technologiemi, které při tom získáme, poté pracovat na řešení problému jak propojit mozek s umelou inteligencí. Potom by se oba systémy propojily, přestali bychom se soustředit na to, co je naše biologická inteligence a co umělá, a vylepšoval by se ten celek. Člověk, který má plombu nebo umělý zub také neřeší, zda kouše zrovna svým či umělým zubem. Ani mně nepřijde zajímavé nebo produktivní vytvářet nějaké superalgoritmy, kdyby se zároveň nezkvalitňovala naše lidská inteligence.

Proč se tedy soustředíte na algoritmy a nikoli na neurovědecké experimenty?

Je to podle nás jednodušší, prakticky, ale i eticky. Třeba si moc neumím představit, jak chtějí testovat tyto inovace. Zdravý člověk se sebou asi nebude chtít nechat nějak experimentovat. Chyby na umělé inteligenci nejsou tak fatální, jako možné chyby při práci se skutečným lidským vědomím. Možná bychom mohli přijít i s nějakou super umělou inteligencí, která nám pak sama nabídne řešení toho propojení.

Super umělá inteligence je termín, který na konferenci také párkrát zazněl. Jde o třetí evoluční stupeň vývoje umělé inteligence po speciální a obecné. Přirovnáváte-li tu obecnou k člověku, nezbývá mi, než takový superalgotimus označit za boha.

Tak ono nepůjde o všemocnou a vševědoucí entitu, určitě bude omezena přinejmenším fyzikálními zákony. Pořád to bude náš výtvor, který bude mít naše hodnoty, bude se to dál s námi rozvíjet. Srovnání s bohem bych se chtěl vyhnout, protože to svádí k jiným představám, než na kterých pracujeme.

Ale přesto, nezahráváme si příliš s institucí stvoření? Přeci jen život člověk nedává, dává jej bůh.

A opravdu jej člověk nedává? A neovlivňuje potom ten život? Práce na umělé inteligenci je tomu podobná. Zrovna nedávno jsem četl něco, čím to možná lépe přiblížím. Autor tam psal, že člověk je v současnosti jediný stroj schopný vytvářet obecné inteligence, tedy další lidi. A zvládají to i velmi nekvalifikovaní lidé. To je výsledek evoluce, která nám to takto naprogramovala. Vesmír lze vnímat jako prostor, v němž se pomocí změn hledají ještě lepší struktury, než jaké byly doposud známé. Pravděpodobnost, že by hned po velkém třesku vzniklo něco tak složitého jako lidský mozek, byla minimální. Ale postupným vývojem pomocí změn, tedy evolučně, lidský mozek vznikl. I ten je ale jen další strukturou, kterou vesmír našel a možná jeho pomocí vznikne nějaká další. Nevidím na tom nic nelidského ani nepřirozeného. Je to proces, který zkrátka běží a zrychluje se.

Umělá inteligence a budoucnost

Singularity University Czech Summit přivezl do Prahy řadu odborníků, kteří se věnují problematice umělé inteligence a jejího vlivu na společnost. Umělá inteligence a nejmodernější technologie již nyní ovlivňuje medicínu, maloobchod, energetiku či finančnictví. Konference se vedle celosvětově uznávaných speakerů, kteří pracovali pro největší technologické firmy světa, zúčastnili také přední osobnosti českého byznysu a vědy.