Jan Hořeňovský: „Umělá inteligence je pořád ohromně neprobádané pole.”
Jan Hořeňovský: „Umělá inteligence je pořád ohromně neprobádané pole.”
Dr. Jan Hořeňovský, doktorand katedry politologie a sociologie a vědecký pracovník na katedře občanského práva, se dlouhodobě zabývá vztahem umělé inteligence a práva. Svůj výzkum uplatňuje ve své dizertační práci a také v článku „Negative Human Rights as a Basis for Long-term AI Safety and Regulation”, který s Ondřejem Bajgarem v dubnu letošního roku publikovali v mezinárodně uznávaném americkém časopise Journal of Artificial Intelligence Research (JAIR).
Pane doktore, ve Vaší publikaci se věnujete propojení práva a umělé inteligence, hojně se také zabýváte dlouhodobou bezpečností a regulací AI. Mohl byste Vaši práci popsat blíže?
Článek, o kterém mluvíte, se týká poměrně aktuálního tématu, kterým je zajištění bezpečnosti umělé inteligence. Když se přitom obvykle řeší „právo a AI“ většinou jde o regulaci výrobců, otázku odpovědnosti atd. Náš text jde v tomto smyslu o krok dál a pokouší se vymyslet způsob, jak zajistit dodržování negativních lidských práv na úrovni jednotlivých pokročilých AI systémů. Nejde tedy primárně o regulaci chování lidí nebo právnických osob, ale především samotné umělé inteligence, což je pořád ohromně neprobádané pole.
O jakou regulaci AI by se konkrétně mělo jednat z hlediska práva? Co navrhujete?
Většina současných návrhů o regulaci AI jsou poměrně rozsáhlé kodexy regulující užívání AI systémů. Náš návrh jde mimo tyto návrhy, neboť naopak staví na poměrně úzké podmnožině velmi abstraktních principů – v našem případě jde z mnoha dobrých důvodů o negativní lidská práva. Ve zkratce lze říct, že navrhujeme, aby se v pokročilých AI systémech rozdělila pozitivní funkce toho, co má systém dělat, od bezpečnostního mechanismu, který by měl být postaven na poměrně abstraktních principech.
Abych to uvedl na případě, mnoho současných algoritmů na sociálních sítí má jako svou primární funkci udržet uživatele online co nejvíce to jde. A toho lze docílit mnoha způsoby: některé jsou bezproblémové (např. ukazování zajímavého obsahu), jiné jsou silně problematické. Mezi jeden problematický způsob patří ukazování linků na konspirační videa a posléze prohlubování uživatelovy paranoi. A právě zde by náš mechanismus byl užitečný, protože by z množiny strategií, jak splnit svou primární funkci (udržet lidi online), vyloučil ty strategie, které by byly v rozporu s negativními lidskými právy, v tomto případě se svobodou myšlení.
V úvodu článku píšete o výzvách, které navrhují, aby se pokročilé AI učily lidským hodnotám. Jaké hodnoty to mají být? Přeci jen lidé i společnosti mají odlišné hodnoty. Lze se opírat o mezinárodní úmluvy, dohody?
Přesně toto je důvod, proč se náš návrh termínu „lidské hodnoty“ vyhýbá. Myslíme si, že tento termín má jednoduše příliš mnoho významů, proto je pro regulaci chování AI systémů nevhodný. Stejné platí pro etické teorie, které se také velmi výrazně liší. Naopak koncept negativních lidských práv je vhodnější, neboť je lépe definovaný a je navázaný na poměrně dobré učící zdroje: například na již existující judikaturu, na odbornou literaturu atd. My jej však ještě více zpřesňujeme, neboť jej v našem podání vážeme – po vzoru právního realismu – na rozhodnutí konkrétního rozhodovacího orgánu. Zda je něco v souladu či ne se proto v našem návrhu odvozuje od vyhodnocení, zda by to tak rozhodl určitý konkrétní orgán. Toto do rozhodování také vnáší binaritu legální/nelegální, která je vhodná pro paradigma strojového učení.
Dochází ve světe již k zavádění regulací? Pokud ano, jak postupovat v případě, že jednotlivé státy, společnosti přistoupí k různým formám regulí?
Existují první návrhy, jako například Akt o umělé inteligenci. Je však důležité si uvědomit, že i bez komplexní regulace není AI neregulovaná. Dopadá na ní již existující regulace v mnoha oblastech (např. právo ochrany spotřebitele, ochrana osobních údajů atd.). Navíc se nové návrhy se starými regulacemi mnohdy zcela zbytečně duplikují. Vemte si například zákaz obsažený v návrhu Aktu o umělé inteligenci užívat AI k masivnímu sledování obyvatel veřejnou mocí. Myslíte si, že jde o něco, co by nešlo řešit přes již existující právní úpravu obsaženou například v Listině základních práv a svobod?
Rozumím, děkuji za trefný příklad. Zabýváte se v práci ještě jinými aspekty, problematikou? Kupříkladu technickou realizací?
Ano, náš článek je napůl právní a napůl technický, takže otázka technické implementace je velmi podstatná. Myslím, že to je směr, ke kterému vědecké bádání v této oblasti směřuje. Je však třeba si také uvědomit úskalí mezioborového výzkumu – aby byl výstup pochopitelný pro všechny cílové skupiny, občas je v něm třeba hodně zjednodušovat, což ne každý recenzent vidí s radostí.
Váš článek se publikoval v dubnu v zahraničním periodiku. O jaký časopis se jedná?
Článek se nám podařilo publikovat v Journal of Artificial Intelligence Research (JAIR), což je americký časopis, který se věnuje všemu souvisejícímu s umělou inteligencí. Když jsem se naposledy díval, byl myslím osmým nejlepším open access vědeckým časopisem o umělé inteligenci na světě. Vydává jej přitom nezisková organizace AI Access Foundation, jejímž cílem je usnadnit šíření vědeckých výsledků v oblasti umělé inteligence. Jde v podstatě o vzdor velkým publikačním domům jako Elsevier, jejíchž chování je často za hranou etiky (například vysokými poplatky za otevřený přístup). A protože je komunita věnující se AI v tomto poměrně progresivní, založila si vlastní časopisy, a toto je jeden z nich.
Umělá inteligence hýbe současným světem. Věřím, že nejeden student nebo akademik se tohoto tématu chopí a napíše o AI z hlediska práva práci. Vy se, pane doktore, tímto fenoménem zabýváte dlouhodobě?
Ano, jde o jedno z témat mé disertační práce, která by měla být v dohledné době dokončena. Ta se však věnuje vztahu práva, společnosti a nových technologií více ze široka. Práce na tomto konkrétním článku nám přitom zabrala zhruba tři roky, což je poměrně dost. Je také zajímavé sledovat, jak se relevance tohoto tématu s postupem času zvyšuje. Před třemi roky šlo v podstatě o teoretické téma, dnes jde o něco, co se skoro každý den řeší v médiích.
Literární aparát k tomuto tématu musí být velmi obsáhlý. Zabýváte v článku již existujícími publikacemi, články? Pokud ano, co jste v nich shledal přínosného nebo důležitého, a naopak v čem vidíte nedostatky?
Ano, máme tam docela podrobné shrnutí již existující literatury. Myslím, že současná literatura je velmi dobrá v identifikaci potenciálních rizik. V čem je už slabší je nacházení funkčních řešení, která musí fungovat nejen z právního, ale také z technického pohledu.
Pane doktore, děkuji Vám za rozhovor a přiblížení Vaší práce.
Také děkuji.
Autor rozhovoru:
BcA. Pavel Nesit, redaktor oddělení komunikace a vnějších vztahů