03. 02. 2018
Martin Štípa, vítěz Essay Competition 2016/2017

Umělá inteligence a odpovědnost za škodu

 

 

Umělá inteligence a odpovědnost za škodu

 

aneb

 

redefinování zákonů robotiky[1]

 

Martin Štípa

 

 

 

 

Obsah 

Úvod

1.      Pojetí odpovědnosti v souvislosti s umělou inteligencí

 1.1.       Inspirace vybranými případy současné objektivní odpovědnosti

 (a)          Škoda způsobená zvěří

 (b)          Škoda způsobená tím, kdo nemůže posoudit následky svého jednání

 (c)           Škoda způsobená věcí

 (d)          Škoda způsobená provozem zvlášť nebezpečným

 1.2.       Odpovědnost umělé inteligence v kontextu zásady respondeat superior

 1.3.       Právnická osoba jako inspirace pro vytvoření nového subjektu práva

 2.      Právní úprava odpovědnosti umělé inteligence v zahraničí

 2.1.       RoboLaw jako začátek inovativního přístupu Evropské unie

 2.2.       Common law systémy – USA a Spojené království

 2.3.       Japonsko

3.      Právní úprava odpovědnosti umělé inteligence v českém právu

4.      Problematika odpovědnosti v aktuálních příkladech využívání umělé inteligence

 4.1.       Autonomní motorová vozidla

 4.2.       Internetoví boti a chatboti

 4.3.       Umělá inteligence ve zdravotnictví

 Závěr

Zdroje

 

Úvod

Zájem o vytváření umělých a samostatně myslících bytostí provází lidstvo již od starověku. Od antických legend o Pygmalionovi a bájných výtvorech boha Héfaista se tak přes novodobější pověst o Golemovi dostáváme až k umělou inteligencí nabité tvorbě science-fiction. 

Teprve nyní se však s příchodem čtvrté průmyslové revoluce[2] ocitáme v době, ve které není vytváření autonomně rozhodujících strojů předmětem bájí, nýbrž zcela reálným předmětem potřeby nové právní regulace. Pro účely takové regulace je pak nutné umělou inteligenci vnímat v několika rovinách – od předmětů každodenní potřeby až po rozsáhlé průmyslové a celospolečenské kyberneticko-fyzické systémy[3]. Za umělou inteligenci bývají v současnosti obecně označovány ty automatizované rozhodovací procesy, jimž lze v rozhodování přiřknout dostatečnou míru autonomnosti spočívající v určitém stupni nezávislosti na lidském jednání. Umělá inteligence by se od běžných počítačových algoritmů měla lišit také schopností učit se na základě vlastních zkušeností. Co se však stane, když takto samostatně jednající robot způsobí škodu? Počítají současné právní řády se speciální úpravou odpovědnosti za jednání robotů? 

Pro zodpovězení těchto otázek nejprve začneme obecným přehledem vhodných režimů odpovědnosti, jež jsou většině zemí společné. Poté bude stručně představen nejnovější vývoj předmětné právní úpravy jak v České republice, tak ve světových velmocích, které se pro nutnost nové právní úpravy vyslovily nejhlasitěji[4].

Současný stav umělé inteligence sice zatím nenaplňuje technologické vize filmů, jako je 2001: Vesmírná odysea, Terminátor či seriálu Westworld, kde stroje a systémy disponují skutečným vědomím, v části věnované Evropské unii se však dotkneme i možnosti vytvoření zcela nového subjektu práv.

Nakonec se na odpovědnost za škodu způsobenou umělou inteligencí podíváme optikou konkrétních případů autonomně rozhodovacích procesů.

1.                 Pojetí odpovědnosti v souvislosti s umělou inteligencí 

Odpovědnost je obecně chápána jako sekundární povinnost právního vztahu vznikající porušením primární (původní) povinnosti.[5] Pojetí základní občanskoprávní odpovědnosti, odpovědnosti za škodu, je pak od účinnosti zákona č. 89/2012 Sb., občanský zákoník, (dále jen ObčZ) částečně odlišné. Zákonodárce se zde totiž inspiroval zásadami deliktního práva Evropské unie a opustil jednotné pojetí smluvní a mimosmluvní odpovědnosti za škodu. Smluvní odpovědnost za škodu tak nadále není vnímána jako odpovědnost sekundární (sankční), nýbrž jako odpovědnost za náležité plnění již povinnosti primární.[6] Na rozdíl od mimosmluvní odpovědnosti za škodu[7] se tedy vždy bude jednat o odpovědnost bez zavinění, tj. odpovědnost objektivní.[8]

Zachycení odpovědnosti v celé šíři její doktrinální komplexnosti si však za cíl tato práce neklade. Na následujících řádcích budou představeny jednotlivé výchozí koncepty objektivní odpovědnosti za škodu, které mohou v souvislosti s umělou inteligencí přicházet v úvahu. Pro tyto účely tak bude postavení umělé inteligence porovnáno mimo jiné s: 

Ÿ   postavením zvířat,

Ÿ   postavením dětí,

Ÿ   postavením výrobků,

Ÿ   provozem zvlášť nebezpečným,

Ÿ   postavením otroků,

Ÿ   fikcí právnické osoby.

1.1.            Inspirace vybranými případy současné objektivní odpovědnosti

Část současných systémů umělé inteligence ke svému provozu stále vyžaduje určitou míru lidského dohledu. Zaměříme se tedy na situace, které jsou v tomto ohledu současným právem již upraveny a ve kterých je možné nalézt jistou korelaci s autonomním rozhodováním umělé inteligence. V těchto situacích je škodu povinen nahradit právě ten, kdo dohled vykonával[9], nebo nutný výkon dohledu zanedbal[10]. V posledním bodě bude také představen institut současného práva, ve kterém je objektivní odpovědnost za škodu založena i bez nutnosti dohledu.

(a)     Škoda způsobená zvěří

Ačkoliv je zvíře entitou, jež je stejně jako umělá inteligence schopna autonomního rozhodování, jejich srovnání není zcela na místě. Umělá inteligence je totiž vytvářena tak, aby se co nejvíce přiblížila lidskému racionálnímu myšlení. Podobnost se zvířecími smysly a instinkty je tudíž nutno vnímat pouze velmi okrajově.[11] Lze tedy usuzovat, že tento typ objektivní odpovědnosti ve vztahu k umělé inteligenci nelze aplikovat.

(b)     Škoda způsobená tím, kdo nemůže posoudit následky svého jednání

Příkladem tohoto typu objektivní odpovědnosti je odpovědnost za jednání dítěte. Oprostíme-li se od faktického porovnání dítěte s autonomně rozhodujícím elektronickým systémem, můžeme se v tomto případě odpovědnosti inspirovat pro možnost soustavně se vyvíjející umělé inteligence – podobně jako přestává být rodič odpovědný za své dospělé dítě, mohou být diferenciovány určité fáze objektivní odpovědnosti za ty typy umělé inteligence, u kterých se počítá s průběžným vývojem.[12]

(c)     Škoda způsobená věcí

Obecně platí, že odpovědnost nese ten, kdo měl nad věcí vykonávat dohled.[13] Tento princip, jenž je v praxi vhodným například v oblasti škody způsobené domácími spotřebiči, se však pro oblast umělé inteligence, s výjimkou zcela primitivních systémů, stává nespravedlivým.[14] Důvodem je zejména možnost plně autonomního jednání umělé inteligence a s ním spojená vyšší míra nepředvídatelnosti[15] než u standardních výrobků. „Očekává se, že odpovědnost uživatele či vlastníka bude v éře autonomně jednajících předmětů nahrazena odpovědností výrobce, postavené na obdobných principech jako současná odpovědnost za vady výrobku,“ uvádí Jana Pattynová.[16]

(d)     Škoda způsobená provozem zvlášť nebezpečným

V českém právním řádu je základ této problematiky upraven v § 2925 odst. 1 ObčZ následovně: „Kdo provozuje závod nebo jiné zařízení zvláště nebezpečné, nahradí škodu způsobenou zdrojem zvýšeného nebezpečí; provoz je zvlášť nebezpečný, nelze-li předem rozumně vyloučit možnost vzniku závažné škody ani při vynaložení řádné péče.“ Zatímco český výklad připouští, že provozem zvlášť nebezpečným může být takřka cokoliv[17], některé zahraniční zdroje jej již přímo v souvislosti s umělou inteligencí uvádějí. Ugo Pagallo tak situaci přirovnává k 30. létům 20. století, kdy bylo za zvlášť nebezpečný provoz považováno i civilní letectví.[18] George S. Cole vhodnost tohoto principu uvádí na případech, kdy může být autonomním rozhodováním umělé inteligence ohroženo lidské zdraví.[19]

Pro účely odpovědnosti za škodu způsobenou umělou inteligencí je využití tohoto principu vhodné zejména v kontextu teorie „deep pocket“ [20]. Dle ní je provozovatel (v případě umělé inteligence výrobce či programátor, nikoliv koncový uživatel) zvlášť nebezpečného provozu povinen ze svého zisku kompenzovat veškeré vzniklé škody. V důsledku by se pak tato povinnost promítla především v povinném pojištění pro případný vznik odpovědnosti za škodu, což by bezpochyby mělo za následek i zvýšení cen pro koncového uživatele.

David C. Vladeck zmiňuje i možnost společné odpovědnosti navzájem provázaných subjektů v procesu tvorby systému umělé inteligence – subjektů z oblasti designu, programování, samotné výroby apod.[21]

V předchozích odstavcích byly shrnuty základní typy občanskoprávní objektivní odpovědnosti, které si lze v případě umělé inteligence představit. Nejedná se však o taxativní výčet. Byla-li by například škoda způsobená umělou inteligencí prokazatelně zapříčiněna vadou mající původ ve výrobním procesu, užitým typem odpovědnosti by bezpochyby byla standardní odpovědnost za vady výrobku[22], a odpovědným by se tak stal výrobce, dodavatel či další povinný subjekt.

Specifický typ odpovědnosti se týká provozu autonomních dopravních prostředků, kterému bude věnována také samostatná část práce.

1.2.           Odpovědnost umělé inteligence v kontextu zásady respondeat superior[23]

Zásada respondeat superior je vlastní zejména anglosaským právním systémům, a ačkoliv se vyskytuje i v českém právu, nebývá v tuzemských pramenech artikulována v takové míře, jako v zahraničí. Četnost jejího zastoupení v právních řádech Evropské unie zmiňuje ve svém stanovisku k věci C‑396/12 i generální advokátka Juliane Kokott: “Pokud osoba ke splnění smluvního závazku využije pomoc třetí osoby, je třeba ve zcela převažujícím počtu členských států vycházet z toho, že ve svých právních řádech dojdou k řešením, podle kterých je ve výsledku za pochybení svého pomocníka odpovědný vůči smluvnímu partnerovi dlužník. Je tedy odpovědný jak za zavinění pro něj činné třetí osoby, tak za své vlastní.“[24]

Českým právem bývá nazývána také jako zástupná či zprostředkovaná odpovědnost (angl. vicarious liability) a je upravena v § 1935 a § 2914 ObčZ:

§ 1935: „Plní-li dlužník pomocí jiné osoby, odpovídá tak, jako by plnil sám.“

§ 2914: „Kdo při své činnosti použije zmocněnce, zaměstnance nebo jiného pomocníka, nahradí škodu jím způsobenou stejně, jako by ji způsobil sám.“

Inspiraci pro tato ustanovení lze nalézt v ustanoveních § 1313a a § 1315 rakouského ABGB a ustanoveních § 278 a § 831 německého BGB. Na rozdíl od české právní literatury jsou v zahraničí dávána do přímého kontextu se zásadou respondeat superior.[25] V praxi se zásada projevuje zejména v pracovněprávních vztazích, konkrétně v odpovědnosti zaměstnavatele za škodu způsobenou zaměstnancem třetí osobě.

Abychom se ale dostali k samotné použitelnosti na umělou inteligenci, je zapotřebí si připomenout i původ zásady respondeat superior, který nalezneme v římském právu. Původně se totiž vztahovala k odpovědnosti pána za jednání otroků. Otrok byl zjednodušeně chápán jako pouhý nástroj, jehož pán byl odpovědný za veškerou způsobenou škodu. 

Stejně jako se poté zásada vyvinula, aby vyhovovala účelům současného pracovněprávního vztahu, bude se pro případ umělé inteligence vhodné vrátit zpět k jejím kořenům. Zaměstnanci, kteří otroky nahradili, budou totiž v mnoha případech opět postupně nahrazováni mechanizovanými „otroky“[26] v podobě umělé inteligence.

Byl-li tak zaměstnavatel doposud odpovědný například za škodu způsobenou zaměstnancem řídícím dodávku, v budoucnosti by měl být stejným způsobem odpovědný za škodu způsobenou nehodou vozidla pohybujícího se zcela autonomně.

Stejnou paralelu by bylo možné vztáhnout i na vlastníky jednotlivých zařízení disponujících umělou inteligencí, či podobně jako v případě odpovědnosti za „provoz zvlášť nebezpečný“ i na výrobce. Tito by pak byli povinni za způsobenou škodu poskytnout příslušnou kompenzaci.

1.3.           Právnická osoba jako inspirace pro vytvoření nového subjektu práva 

Již v úvodu práce byla naznačena rostoucí tendence ve zdokonalování umělé inteligence. Lze tak s jistotou tvrdit, že je pouze otázkou času, kdy bude umělou inteligenci třeba začít vnímat jako specifický subjekt práva. Tato problematika bude v rámci nových legislativních návrhů rozebrána také v části věnující se Evropské unii.

Přirovnání k právnické osobě pak v literatuře nebývá používáno jako vzor či vhodný postup pro konstrukci právního subjektu umělé inteligence, ale spíše jako ukázka vytvoření zcela nového (umělého) právního subjektu, který v právu již existuje.[27]

I přesto však může právnická osoba skrývat pro oblast odpovědnosti za škodu umělé inteligence určitý potenciál. Článek Shawna Bayerna, Thomase Burriho a dalších[28] se v této souvislosti zabývá možností inkorporace umělé inteligence do existující právnické osoby. Jejich cílem bylo vytvořit právnickou osobu, jež je tvořena pouze samotným autonomním systémem umělé inteligence a na níž nebudou mít fyzické osoby žádný podíl. Z testovaných právních řádů (USA, Spojené království, Německo, Švýcarsko) se nakonec nejlépe osvědčila americká Limited Liability Company („LLC“). Zjednodušený postup nastíněné koncepce je následující:

1)      Založení jednočlenné LLC

2)      Společenská smlouva stanoví řízení skrze umělou inteligenci

3)      LLC nabude umělou inteligenci do vlastnictví

4)      Odstoupení jediného společníka

Na rozdíl od ostatních právních řádů je americká LLC dostatečně flexibilní pro samostatnou existenci bez závislosti na případných společnících. Ačkoliv tak mohou být v tomto směru ostatní země rigidnější, stále existuje možnost otevření pobočky americké LLC v zahraničí. Zůstává však stále otázkou, jak by bylo k výhradně umělou inteligencí tvořenou právnickou osobou přistupováno v praxi. 

2.    Právní úprava odpovědnosti umělé inteligence v zahraničí  2.1.           RoboLaw jako začátek inovativního přístupu Evropské unie 

Dne 12. 1. 2017 byl Výborem pro právní záležitosti Evropského parlamentu schválen návrh[29] upravující doporučení občanskoprávních pravidel pro robotiku.[30] Tato zpráva byla následně schválena i Plénem Evropského parlamentu, čímž se stala důrazným doporučením Evropské komisi pro přípravu vlastního legislativního návrhu ohledně robotů a umělé inteligence.[31]

Inspirací pro návrh byl dle Mady Delvaux, jeho autorky a poslankyně Evropského parlamentu, projekt RoboLaw z roku 2014.[32] RoboLaw byla 27 měsíců trvající studie financovaná Evropskou komisí zaměřená na průnik etických, právních a technických norem v dané oblasti.[33]

Současný návrh se snaží zachytit veškeré myslitelné aspekty umělé inteligence. Naší ambicí však bude zaměřit se na ty, jež se věnují odpovědnosti za škodu. Jak již bylo řečeno výše, z dlouhodobého hlediska se návrh v bodě 59 f) vyjadřuje i k možnosti vytvoření zcela nového subjektu práva:  

„v dlouhodobém výhledu bude vytvořen zvláštní právní status robota, aby alespoň ti nejsložitější autonomní roboti měli status elektronické osoby odpovědné za náhradu způsobené škody, přičemž elektronická osoba by mohla být používána i v případech, kdy roboti činí autonomní rozhodnutí nebo jiným způsobem samostatně interagují s třetími stranami;“

Pro účely aktuálnější problematiky odpovědnosti za škodu se v návrhu uvádí například možnost absolutní odpovědnosti[34] nebo způsobu založeném na řízení rizik[35]

Bod 56 návrhu nám poté připomíná problematiku, jež byla nastíněna výše v souvislosti s použitelností rodičovské odpovědnosti:

„[…] jakmile by byly zjištěny strany, které nesou konečnou odpovědnost, měla by být odpovědnost těchto stran úměrná skutečnému rozsahu příkazů daných robotovi a míře jeho autonomie, takže by platilo, že čím má robot větší schopnost učení nebo vyšší autonomii a čím delší je doba jeho učení, tím větší by měla být odpovědnost jeho „učitele“; upozorňuje zejména na to, že při určování osoby, která je odpovědná za škodlivé jednání robota, by neměly být dovednosti, které robot získá formou „výcviku“, zaměňovány s dovednostmi nabytými výhradně prostřednictvím jeho schopnosti samostatného učení;“

V následujících bodech 57 a 58 se můžeme opět setkat s návrhy, které již byly zmíněny výše pro odpovědnost z provozu zvlášť nebezpečného:  

„[…] odpovědnost za škodu způsobenou roboty s vyšší mírou autonomie by bylo možné vyřešit vytvořením povinného systému pojištění, jako je tomu již dnes v případě motorových vozidel; konstatuje však, že na rozdíl od systému pojištění používaného v silničním provozu, kde se toto pojištění vztahuje na jednání a chyby lidského činitele, by pojištění v oblasti robotiky mělo zohledňovat veškerou potenciální odpovědnost v rámci celého řetězce;“

„[…] jako je tomu v případě pojištění motorových vozidel, mohl by být tento systém pojištění doplněn fondem, který by zajistil, aby bylo možné kompenzovat škodu i v případech, kdy pojistné krytí neexistuje;“ 

Pro sledování dalšího vývoje evropské legislativy tak bude zásadním, jak moc si Evropská komise vezme jednotlivá doporučení k srdci. Díky současnému návrhu Evropského parlamentu a dřívějšímu vypracování studie RoboLaw jsou sílící tendence pro unijní úpravu umělé inteligence zcela zřetelné.

Do doby účinnosti daných předpisů se členské státy budou muset spokojit s již existující právní úpravou poskytující ochranu skrze výše vyjmenované instituty objektivní odpovědnosti.

2.2.          Common law systémy – USA a Spojené království 

Angloamerický právní systém je na rozdíl od toho kontinentálního založen na soudcovském právu. Ve zkratce jej lze vymezit tím, že případy před soudem se ve většině řeší podle již jednou rozsouzených sporů namísto podle aplikace zákonů a jiných normativních aktů přijatých zákonodárcem či výkonnou mocí.

V americké i anglické právní literatuře se tak objevují hlasy, že nová právní úprava pro oblast odpovědnosti za škodu způsobenou autonomními rozhodovacími systémy není vůbec zapotřebí. Příkladem může být výrok Adama Thierera z George Mason University, USA:

Just leave it to the tort system.”[36] (volně přeloženo jako: „Nechejte to na soudcích“)

Jak vyplývá ze zprávy z 12. října 2016[37], stejná diskuze probíhá i na půdě Dolní sněmovny Spojeného království. Pro účely této diskuze zformulovala britská instituce The Law Society of England and Wales[38] určitá úskalí plynoucí z přenechání volného průběhu soudcovskému právu:

„jednou z nevýhod přenechání této problematiky soudům […] je fakt, že common law se může vyvinout teprve při aplikaci právních principů poté, co se stane nová, nečekaná událost. To však může dotčené osoby stát velmi draho.“[39]

Jedním z možných precedentů, kterými se inspirovat, je případ Rylands v. Fletcher[40] z roku 1868 stanovující pravidlo objektivní odpovědnosti za škodu, jež je založena zanedbáním potřebného dohledu a péče. Později byl tento princip vztáhnut i na případy týkající se automobilů[41] a zacházení s elektřinou[42]. Je tudíž nutné počítat s možností, že v budoucnu bude na jeho základě odpovědný za škodu způsobenou autonomně jednající umělou inteligencí také uživatel, jenž nad ní zanedbal náležitý dohled.

Konkrétnější obrysy možné právní regulace se však v obou zemích týkají především jednoho specifického úseku autonomně rozhodujících systémů, kterým jsou autonomní motorová vozidla.

Centrum pro autonomní motorová vozidla při Ministerstvu dopravy Spojeného království vydalo v lednu 2017 zprávu zabývající se náhradou škody způsobenou právě těmito vozidly.[43] Ve zprávě je především zdůrazněna nutnost vytvoření nového systému pojištění, který předpokládá jak škodu způsobenou vozidly zcela autonomními, tak těmi, jež ke svému provozu zásahy člověka částečně vyžadují. Zmíněna je také možnost následného vymáhání škody pojišťovnou po výrobcích automobilů v případě absence liberačních důvodů (např. vynaložení veškeré péče při výrobě a postup v souladu s nejnovějším vědeckým poznáním).

Problematiku autonomních automobilů ve Spojených státech podrobně analyzuje zpráva americké Asociace pro spravedlnost z února 2017.[44] Zpráva se mimo jiné snaží vyvrátit argumenty zastánců omezené odpovědnosti výrobců založené na možnosti rychlejšího vývoje inovací, přičemž klade důraz především na bezpečnost a ochranu lidského zdraví. Jako nejvhodnější princip pro náhradu případné škody je zde z dlouhodobého hlediska uvedena objektivní odpovědnost výrobce. Jako vhodný postup pro krátkodobý časový horizont však Asociace pro spravedlnost preferuje přenechání problematiky na přirozeném vývoji judikatury.  

2.3.          Japonsko 

O důležitosti robotiky v Japonsku nemůže mít nikdo nejmenších pochyb. Právo upravující umělou inteligenci a související odpovědnost za škodu se však i zde nachází stále v plenkách. Příslušná existující právní úprava pak především opět míří na autonomní motorová vozidla.

Současná autonomní vozidla (stále počítající s případnou nutností manuálního ovládání) jsou zde prodávána s vědomím, že řidič je za škodu odpovědný i v případě, kdy se vozidlo nachází ve zcela autonomním režimu.[45] Přístup k odpovědnosti za škodu způsobenou autonomními vozidly vyšší kategorie, která ke svému provozu nevyžadují lidských zásahů a která by se na silnicích měla standardně objevovat do roku 2021[46], stále není vymezen.[47]

Jeden ze směrů, kterým by se právní vývoj odpovědnosti za škodu v širším pojetí umělé inteligence mohl v dalších letech také ubírat, byl představen koncem roku 2016. Úprava míří především na prevenci škody prostřednictvím vytvoření příslušných bezpečnostních certifikací.[48] Větší stroje disponující umělou inteligencí tak nebudou smět mít výkon větší, než je nutný k naplnění jejich účelu, systémy umělé inteligence budou muset být pod neustálým lidským dohledem a v neposlední řadě je důraz kladen na kybernetickou bezpečnost osobních údajů.

U škody způsobené systémem umělé inteligence schopným učení má být zohledněna i míra přičinění lidského učitele.

3.    Právní úprava odpovědnosti umělé inteligence v českém právu

Téma umělé inteligence zaznamenalo v České republice za poslední rok velký ohlas. Můžeme se tak například dočíst, že: „Umělá inteligence pomalu vstupuje do lidského života. České právo ale není na nástup robotů připravené.“[49] Zatímco z jiného zdroje se dozvíme, že tvořit pro roboty zvláštní zákony není aktuální, přičemž si lze zcela vystačit se současnými ustanoveními občanského zákoníku.[50] 

Pravdou tak je, že české právo, stejně jako zahraniční právní řády, skutečně zvláštní právní úpravu ohledně odpovědnosti za škodu způsobenou umělou inteligencí doposud nemá. Ani soudní praxe nezaznamenala větších případů.[51] Jedním z mála výraznějších je rozhodnutí Nejvyššího soudu týkající se programu na vytváření faktur.[52] Za vygenerování chybné faktury zde nebyl odpovědný výrobce softwaru, ale uživatel, který měl v rámci principu prevence povinnost k odvrácení hrozící škody[53] tím, že fakturu před odesláním sám překontroluje.

S povinnostmi plynoucími z principu prevence si pro některé aspekty umělé inteligence vystačíme i nadále.[54] Dokud budou autonomní systémy dostatečně předvídatelné, bude možné aplikovat také výše zmíněná ustanovení odpovědnosti za škodu způsobenou věcí[55]. Dokud budou manuály „autonomních“ automobilů vyžadovat lidskou kontrolu a dozor, budeme moci využít odpovědnosti za škodu z provozu dopravních prostředků[56]. Jakmile se však umělá inteligence stane dostatečně autonomní, bude vhodné objektivní odpovědnost za škody přenést v rámci internalizace externalit na jejího výrobce. Pro jednotlivé výrobce by zároveň měli vzniknout určité standardy bezpečnosti (podobné, jako plánují v Japonsku), jejichž pečlivým splněním by mohl být dán liberační důvod například pro odpovědnost za škodu způsobenou jako důsledek kybernetického (hackerského) útoku.[57]

4.    Problematika odpovědnosti v aktuálních příkladech využívání umělé inteligence 4.1.           Autonomní motorová vozidla 

Dle oznámení nejvýznamnějších světových automobilek bude do roku 2021 setkání s plně autonomním vozidlem na silnici zcela běžné.[58] Otázka inteligentních automobilů však již byla také nastíněna v téměř 70 let starém rozsudku Arnold v. Reuther.[59] Odvolací soud v Louisianě dal tehdy za pravdu panu Reutherovi, který si ze svého auta nemohl přecházející paní Arnoldové všimnout, neboť je dle slov soudu pouhým člověkem, a ne robotem vybaveným radarovým systémem. Seděl-li by tak pan Reuther za volantem současného plně autonomního vozidla, mělo by nehodě zabránit samotné vozidlo.

Autonomní motorová vozidla tedy bezpochyby poskytují zvýšenou bezpečnost na silnicích. Vznik případné škody však stále vyloučit nelze a je třeba se na takové případy připravit. Jak vyplývá z poznatků zmíněných výše, za ideální řešení odpovědnosti za škodu je v českém i zahraničním právním prostředí považována objektivní odpovědnost výrobce. Sami výrobci přitom s tímto přístupem souhlasí.[60] Důležitým aspektem je také doplnění tohoto odpovědnostního systému vznikem příslušných pojišťovacích instrumentů.

4.2.           Internetoví boti a chatboti 

Internetoví boti (či roboti) mohou mít různé podoby. Může se jednat o algoritmické nástroje na finančních trzích, programy vyhledávající potřeby zákazníků, programy čistě škodlivé a mnoho dalších.

V případě algoritmů vytvořených s cílem způsobit jinému škodu (či sobě neoprávněný prospěch) je pak odpovědnost poměrně jasná. Na tomto základě byl v roce 2015 obviněn Navinder Singh Sarao za bleskový propad burzy, známý jako Flash Crash, z roku 2010. Ten byl způsoben pomocí virtuálních robotů schopných vytvoření tisíců fiktivních nabídek, zahlcujících tak burzu smyšlenými daty.[61]

Ani pro ostatní internetové boty by však pravidla nemusela být příliš nejasná. Situaci si můžeme uvést na existujících případech, kdy internetový robot zjistí těhotenství dříve než nastávající maminka.[62] Při troše fantazie si lze takovýto (či analogický) zásah do soukromí představit jako důvod pro žádost nemajetkové újmy. Odpovědnost za způsobenou újmu by poté nesl ten subjekt, který se dopustil porušení příslušných norem na ochranu osobních údajů (vlastník vyhledávajícího programu, či správce nedostatečně zajištěné internetové stránky). Opět je tak nutné zajistit vytvoření určitých standardů bezpečnosti. Některé z těchto aspektů se snaží zachytit i Evropská unie ve svém nařízení GDPR.[63] 

Kromě dodržování stanovených standardů bude u zcela autonomních programů vhodné využít již zmíněný princip prevence a dostatečné péče. V případě způsobené škody pak bude odpovědným uživatel, který tuto péči zanedbal

U chatbotů, tedy chatovacích zařízení napodobujících člověka, pak bude nutné dodržet specifický minimální etický kodex při jejich vytváření. Díky tomuto nezbytnému kroku se v budoucnu bude možné vyhnout situaci, kdy se Microsoftem představený chatovací robot stane „rasistickým“ během pouhých pár hodin po kontaktu s uživateli Twitteru.[64] 

4.3.           Umělá inteligence ve zdravotnictví

Ačkoliv užívání umělé inteligence ve zdravotnictví přináší zcela nové možnosti diagnózy a léčby, způsobení škody nelze a priori vyloučit. Jan Mach se k neočekávaným škodám ve zdravotnictví vyjadřuje následovně: „Pokud poskytovatel zdravotní služby použil věc – přístroj, nástroj nebo lék –, který nebyl vadný, správně a lege artis, aniž nad jeho uskladněním a ošetřováním zanedbal potřebný dohled, a přesto vznikla povahou této věci škoda na zdraví pacienta (např. nepředvídaná alergická reakce na léčivý přípravek), pak […] poskytovatel zdravotní služby za tuto škodu neodpovídá.“[65]

I zde tak podobně jako u autonomních vozidel připadá v úvahu objektivní odpovědnost výrobce. Vzhledem k vyšší citlivosti tématu a pravděpodobně několikanásobně menší velikosti příslušných výrobců v porovnání s velkými automobilkami je však v této oblasti třeba klást důraz především na vytvoření pojistného systému, díky kterému by se výrobci nemuseli obávat zániku existence. Obdobné názory týkající se pojistného systému zaznívají i v zahraničí.[66] 

Závěr 

Skrze teoretické koncepty odpovědnosti za škodu jsme se v průběhu práce dostali až k reálným a praktickým dopadům v jednotlivých státech a také v jednotlivých případech nejčastějšího využívání umělé inteligence. Z výsledků vyplývá, že univerzální druh odpovědnosti na všechny myslitelné způsoby využití umělé inteligence aplikovat nelze.

Nejčastěji zmiňovaným typem odpovědnosti za škodu je bezpochyby objektivní odpovědnost výrobce. Tento princip zohledňuje nejen nepředvídatelnost jednání autonomně rozhodujících systémů, ale i větší důraz na výrobce s ohledem na kvalitu produktů.

Odpovědnost výrobce také nemusí nutně znamenat výrazný pokles inovací v daném sektoru. Má-li být umělá inteligence prostředkem k vyšší bezpečnosti tam, kde by člověk obyčejně selhal, bylo by chybou automaticky předpokládat vysoký příval žalob z odpovědnosti za škodu. Při podpoře vyšších standardů bezpečnosti lze naopak očekávat vyšší zájem o umělou inteligenci a s ním spojené ekonomické a finanční výhody.

Do finálních cen umělé inteligence výrobci určitě promítnou i náklady na povinné pojištění a ti opatrnější mohou po uživatelích vyžadovat povinnost neustálého dohledu.

Odpovědnost za škodu však není jedinou výzvou, která je před zákonodárce v souvislosti s umělou inteligencí postavena. Nové problémy mohou souviset také s ochranou dat proudících skrze internet věcí, etickými otázkami vytvoření nových subjektů práv a v neposlední řadě s problematikou autonomních zbraňových systémů.

V budoucnosti si tak pro účely umělé inteligence se zákony robotiky Isaaca Asimova bohužel nevystačíme. Zákony robotiky by se však pro vývojáře mohli stát jakýmsi minimálním etickým standardem. I kdyby se poté měli roboti držet pouze prvního zákona, „Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo,“ mohla by být i nutná právní úprava o poznání jednoduší. 

Zdroje

 Advent of self-driving autos spurs debate on accident liability in Japan, The Japan Times, Oct 27, 2016 <http://www.japantimes.co.jp/news/2016/10/27/business/corporate-business/advent-self-driving-autos-spurs-debate-accident-liability-japan/#.WKB5H3-B531>

ASARO, P.M. The Liability Problem for Autonomous Artificial Agents Ethical and Moral Considerations in Non-Human Agents, 2016 AAAI Spring Symposium Series <http://www.peterasaro.org/writing/Asaro,%20Ethics%20Auto%20Agents,%20AAAI.pdf>

ASIMOV, Isaac. Runaround. In CAMPBELL, John W., Jr. Astounding Science Fiction. New York : Street & Smith, 1942. s. 94-104.

BAYERN, S., BURRI, T., GRANT, T. D., HÄUSERMANN, D. M., MÖSLEIN, F., WILLIAMS, R. Company Law and Autonomous Systems: A Blueprint for Lawyers, Entrepreneurs, and Regulators, 10 October 2016

BEN-SHAHAR, O. Should Carmakers Be Liable When a Self-Driving Car Crashes? Forbes, September 22, 2016 <http://www.forbes.com/sites/omribenshahar/2016/09/22/should-carmakers-be-liable-when-a-self-driving-car-crashes/#c48b6a81f409

CALABRESI, G. The Cost of Accidents: A Legal and Economic Analysis, Yale University Press, 1970, s. 40-41

COLE, G.S.: Tort Liability for Artificial Intelligence and Expert Systems, 10 Computer L.J. 127, 1990

CONDLIFFE, J. 2021 May Be the Year of the Fully Autonomous Car, MIT Technology Review, August 17, 2016 <https://www.technologyreview.com/s/602196/2021-may-be-the-year-of-the-fully-autonomous-car/>

ČERKA, P., GRIGIENÈ, J., SIRBIKYTÈ, G. Liability for damages caused by artificial intelligence. Computer Law & Security Review 31, 2015, s. 386

Driven to Safety: Robot Cars and the Future of Liability, American Association for Justice, February 2017

DVOŘÁK, J., ŠVESTKA, J., ZUKLÍNOVÁ, M. a kol. Občanské právo hmotné. Svazek 1. Díl první: Obecná část. Praha: Wolters Kluwer ČR, 2013, s. 367-368

FIALA, Josef et al. Občanské právo hmotné. 2. vyd. Brno: Nakladatelství Doplněk. 1998. s. 381

Guidelines on Regulating Robotics D6.2 RoboLaw [online], 22/09/2014 <http://www.robolaw.eu/RoboLaw_files/documents/robolaw_d6.2_guidelinesregulatingrobotics_20140922.pdf>

HILL, K. How Target Figured Out A Teen Girl Was Pregnant Before Her Father Did, Forbes, Feb 16, 2012 <http://www.forbes.com/sites/kashmirhill/2012/02/16/how-target-figured-out-a-teen-girl-was-pregnant-before-her-father-did/#4409fe7034c6>

 HULMÁK, M. a kol.: Občanský zákoník VI. Závazkové právo. Zvláštní část (§ 2055–3014). Komentář. 1. vydání. Praha: C. H. Beck, 2014, s. 1498

CHU, B. Wall Street 'Flash crash' explained: How 'the Hound of Hounslow' could have caused one of the scariest days in stock market history, Independent, 23 April 2015 <http://www.independent.co.uk/news/business/news/flash-crash-explainer-how-the-hound-of-houndslow-could-have-caused-one-of-the-scariest-days-in-stock-10198805.html>

 JANUŠ, J. Kdo ponese odpovědnost za jednání robotů? 26.8. 2016 <http://ceskapozice.lidovky.cz/kdo-ponese-odpovednost-za-jednani-robotu-fpb-/>

 Japan eyes safety certification for AI tech, Nikkei Asian Review, December 31, 2016 <http://asia.nikkei.com/Politics-Economy/Policy-Politics/Japan-eyes-safety-certification-for-AI-tech?page=1>

 KEMP R. Legal Aspects of Artificial Intelligence, Kempitlaw.com, November 2016, s. 24 <http://www.kempitlaw.com/wp-content/uploads/2016/11/Legal-Aspects-of-AI-Kemp-IT-Law-v1.0-Nov-2016-2.pdf>

KEMP, R. Legal Aspects of Artificial Intelligence, Kempitlaw.com, November 2016 <http://www.kempitlaw.com/wp-content/uploads/2016/11/Legal-Aspects-of-AI-Kemp-IT-Law-v1.0-Nov-2016-2.pdf>

KOCH, B.A. Medical Liability in Europe: A Comparison of Selected Jurisdictions, Tort and Insurance Law Vol 29, 2011, s. 247

KOCH, B.A. Medical Malpractice in Austria, Chicago-Kent Law Review [Vol. 86:3], 2011, s. 1038 odkazující také na KOZIOL, H., OSTERREICHISCHES HAFTPFLICHTRECHT [AUSTRIAN TORT LAW] (2d ed. 1984)

MACH, J. Odpovědnost za škodu, Tempus Medicorum, duben 2015, s. 24

Nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016

PAGALLO, U. Even Angels Need the Rules: AI, Roboethics, and the Law, ECAI 2016 22nd European Conference on Artificial Intelligence – ECAI 2016 29 August – 2 September 2016

Pathway to driverless cars: Consultation on proposals to support Advanced Driver Assistance Systems and Automated Vehicles Government Response, Department for Transport, January 2017

PATTYNOVÁ, J., BOSÁK, J., Právní aspekty autonomních zařízení, PIERSTONE, EPRAVO.CZ Magazine, 4/2016, s. 158

Případ Musgrove v Pandelis [1919]

Případ National Telephone Co. v Baker [1893]

Roboti v Evropském parlamentu, Evropský parlament Zpravodajství, 09-02-2017 <http://www.europarl.europa.eu/news/cs/news-room/20170206STO61356/roboti-v-evropskem-parlamentu>

 Robotics and artificial intelligence, House of Commons, Science and Technology Committee, 12 October 2016 <https://www.publications.parliament.uk/pa/cm201617/cmselect/cmsctech/145/145.pdf>

 Robots: Legal Affairs Committee calls for EU-wide rules, European Parliament News, 12-01-2017 <http://www.europarl.europa.eu/news/en/news-room/robots-legal-affairs-committee-calls-for-eu-wide-rules>

 Rozhovor s Karin Pomaizlovou, partnerkou mezinárodní advokátní kanceláře Taylor Wessing <https://www.hrtv.cz/videa/setkani-s-profesionaly-id-2114336/karin-pomaizlova-v-hr-tv-o-pravnich-aspektech-automatizace-a-id-2864847>

 Rozsudek NSS z 29. 11. 2006, č. j. 32 Odo 862/2005

 Self-driving vehicles to be tested near Haneda Airport, The Japan News, January 30, 2017 <http://the-japan-news.com/news/article/0003479265>

 SHAILIN, T. Artificial Intelligence and Medical Liability (Part II), Bill of Health, Harvard Law, February 10, 2017 <http://blogs.harvard.edu/billofhealth/2017/02/10/artificial-intelligence-and-medical-liability-part-ii/>

 SCHERER, M. Digital Analogues Jun 8, 2016 <https://medium.com/imaginary-papers/digital-analogues-11ec61c2d88f#.7xna62vqc>

 SCHERER, M. Tay the Racist Chatbot: Who is responsible when a machine learns to be evil?,, Future of Life, March 27, 2016 <https://futureoflife.org/2016/03/27/tay-the-racist-chatbot-who-is-responsible-when-a-machine-learns-to-be-evil/>

 Stanovisko generální advokátky Juliane Kokott ve věci C‑396/12 A. M. van der Ham, A. H. van der Ham-Reijersen van Buuren ze dne 24. října 2013

 THIERER, A. When the Trial Lawyers Come for the Robot Cars, Slate, June 10, 2016 <http://www.slate.com/articles/technology/future_tense/2016/06/if_a_driverless_car_crashes_who_is_liable.html>

VLADECK, D.C. Machines without Principles: Liability Rules and Artificial Intelligence, Washington Law Review [Vol. 89:117], 2014, s. 149  

WEIN, L.E. The Responsibility of Intelligent Artifacts: Toward an Automation Jurisprudence, Harvard Journal of Law & Technology, vol. 6, Fall 1992, s. 111 

WENG, Y-H. A European perspective on robot law: Interview with Mady Delvaux-Stehres <http://robohub.org/a-european-perspective-on-robot-law-interview-with-mady-delvaux-stehres/>

Written evidence submitted by The Law Society (ROB0037), April 2016 <http://data.parliament.uk/writtenevidence/committeeevidence.svc/evidencedocument/science-and-technology-committee/robotics-and-artificial-intelligence/written/32616.html

ZPRÁVA obsahující doporučení Komisi o občanskoprávních pravidlech pro robotiku (2015/2013(INL)) ze dne 27. 1. 2017 <http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//CS>

 

 

[1] Isaac Asimov formuloval ve své povídce Runaround jedny z prvních pravidel pro úpravu autonomních systémů a robotů, takzvané Tři zákony robotiky:

1) „Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby mu bylo ublíženo.“

2) „Robot musí poslechnout člověka, kromě případů, kdy je to v rozporu s prvním zákonem.“

3) „Robot se musí chránit před poškozením, kromě případů, kdy je to v rozporu s prvním nebo druhým zákonem.“

ASIMOV, Isaac. Runaround. In CAMPBELL, John W., Jr. Astounding Science Fiction. New York : Street & Smith, 1942. s. 94-104.

[2] První vize o vývoji průmyslu byla představena v roce 2011 na Hannoverském veletrhu, oficiálně pak byla německá národní platforma „Industrie 4.0“ spuštěna v roce 2013

[3] Například Smart Cities, Smart Factory, Smart Grid a další

[4] Evropská unie, USA, Spojené království a Japonsko

KEMP R. Legal Aspects of Artificial Intelligence, Kempitlaw.com, November 2016, s. 24

<http://www.kempitlaw.com/wp-content/uploads/2016/11/Legal-Aspects-of-AI-Kemp-IT-Law-v1.0-Nov-2016-2.pdf>

[5] FIALA, Josef et al. Občanské právo hmotné. 2. vyd. Brno: Nakladatelství Doplněk. 1998. s. 381

[6] HULMÁK, M. a kol.: Občanský zákoník VI. Závazkové právo. Zvláštní část (§ 2055–3014). Komentář. 1. vydání. Praha: C. H. Beck, 2014, s. 1498

[7] V případě mimosmluvní odpovědnosti je možné předpokládat jak subjektivní, tak objektivní odpovědnost za škodu

[8] DVOŘÁK, J., ŠVESTKA, J., ZUKLÍNOVÁ, M. a kol. Občanské právo hmotné. Svazek 1. Díl první: Obecná část. Praha: Wolters Kluwer ČR, 2013, s. 367-368

[9] Např. § 2933 ObčZ

[10] Např. § 2921 ObčZ

[11] ČERKA, P., GRIGIENÈ, J., SIRBIKYTÈ, G. Liability for damages caused by artificial intelligence. Computer Law & Security Review 31, 2015, s. 386

[12] SCHERER, M. Digital Analogues Jun 8, 2016

<https://medium.com/imaginary-papers/digital-analogues-11ec61c2d88f#.7xna62vqc>

[13] V českém právu § 2937 ObčZ

[14] JANUŠ, J. Kdo ponese odpovědnost za jednání robotů? 26.8. 2016

<http://ceskapozice.lidovky.cz/kdo-ponese-odpovednost-za-jednani-robotu-fpb-/>

[15] ASARO P.M. The Liability Problem for Autonomous Artificial Agents Ethical and Moral Considerations in Non-Human Agents, 2016 AAAI Spring Symposium Series

<http://www.peterasaro.org/writing/Asaro,%20Ethics%20Auto%20Agents,%20AAAI.pdf>

[16] JANUŠ, J., op. cit.

[17] HULMÁK, M. a kol., op. cit., s. 1606 - 1609

[18] PAGALLO, U. Even Angels Need the Rules: AI, Roboethics, and the Law, 22nd European Conference on Artificial Intelligence, ECAI 2016

[19] COLE, G.S.: Tort Liability for Artificial Intelligence and Expert Systems, 10 Computer L.J. 127, 1990

[20] CALABRESI, G. The Cost of Accidents: A Legal and Economic Analysis, Yale University Press, 1970, s. 40-41

[21] VLADECK, D.C. Machines without Principles: Liability Rules and Artificial Intelligence, Washington Law Review [Vol. 89:117], 2014, s. 149

[22] V českém právu § 2939 a násl.

[23] Lze přeložit jako “odpovědnost pána” (angl. také jako Master-Servant Rule)

[24] Stanovisko generální advokátky Juliane Kokott ve věci C‑396/12 A. M. van der Ham, A. H. van der Ham-Reijersen van Buuren ze dne 24. října 2013

[25] Pro ustanovení rakouského ABGB například:

KOCH, B.A. Medical Malpractice in Austria, Chicago-Kent Law Review [Vol. 86:3], 2011, s. 1038 odkazující také na KOZIOL, H., OSTERREICHISCHES HAFTPFLICHTRECHT (2d ed. 1984)

Pro ustanovení neměckého BGB například:

KOCH, B.A. Medical Liability in Europe: A Comparison of Selected Jurisdictions, Tort and Insurance Law Vol 29, 2011, s. 247

[26] WEIN, L.E. The Responsibility of Intelligent Artifacts: Toward an Automation Jurisprudence, Harvard Journal of Law & Technology, vol. 6, Fall 1992, s. 111

[27] Např. WEIN, L.E., op. cit., s. 107

[28] BAYERN, S., BURRI, T., GRANT, T. D., HÄUSERMANN, D. M., MÖSLEIN, F., WILLIAMS, R. Company Law and Autonomous Systems: A Blueprint for Lawyers, Entrepreneurs, and Regulators, 10 October 2016

[29] ZPRÁVA obsahující doporučení Komisi o občanskoprávních pravidlech pro robotiku (2015/2013(INL)) ze dne 27. 1. 2017 <http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//CS>

[30] Robots: Legal Affairs Committee calls for EU-wide rules, European Parliament News, 12-01-2017

<http://www.europarl.europa.eu/news/en/news-room/robots-legal-affairs-committee-calls-for-eu-wide-rules>

[31] Roboti v Evropském parlamentu, Evropský parlament Zpravodajství, 09-02-2017

<http://www.europarl.europa.eu/news/cs/news-room/20170206STO61356/roboti-v-evropskem-parlamentu>

[32] WENG, Y-H. A European perspective on robot law: Interview with Mady Delvaux-Stehres <http://robohub.org/a-european-perspective-on-robot-law-interview-with-mady-delvaux-stehres/>

[33] Guidelines on Regulating Robotics D6.2 RoboLaw, 22/09/2014

<http://www.robolaw.eu/RoboLaw_files/documents/robolaw_d6.2_guidelinesregulatingrobotics_20140922.pdf>

[34] Bod 54 ZPRÁVY

[35] Bod 55 ZPRÁVY

[36] THIERER, A. When the Trial Lawyers Come for the Robot Cars, Slate, June 10, 2016

<http://www.slate.com/articles/technology/future_tense/2016/06/if_a_driverless_car_crashes_who_is_liable.html>

[37] Robotics and artificial intelligence, House of Commons, Science and Technology Committee, 12 October 2016

<https://www.publications.parliament.uk/pa/cm201617/cmselect/cmsctech/145/145.pdf>

[38] Profesní sdružení pro solicitors – britské právníky poskytující komplexní právní služby včetně zastupování před soudem

[39] “one of the disadvantages of leaving it to the courts [...] is that the common law only develops by applying legal principles after the event when something untoward has already happened. This can be very expensive and stressful for all those affected”

Written evidence submitted by The Law Society (ROB0037), April 2016

<http://data.parliament.uk/writtenevidence/committeeevidence.svc/evidencedocument/science-and-technology-committee/robotics-and-artificial-intelligence/written/32616.html>

[40] KEMP, R. Legal Aspects of Artificial Intelligence, Kempitlaw.com, November 2016

<http://www.kempitlaw.com/wp-content/uploads/2016/11/Legal-Aspects-of-AI-Kemp-IT-Law-v1.0-Nov-2016-2.pdf>

[41] Případ Musgrove v Pandelis [1919]

[42] Případ National Telephone Co. v Baker [1893]

[43] Pathway to driverless cars: Consultation on proposals to support Advanced Driver Assistance Systems and Automated Vehicles Government Response, Department for Transport, January 2017

[44] Driven to Safety: Robot Cars and the Future of Liability, American Association for Justice, February 2017

[45] Advent of self-driving autos spurs debate on accident liability in Japan, The Japan Times, Oct 27, 2016

<http://www.japantimes.co.jp/news/2016/10/27/business/corporate-business/advent-self-driving-autos-spurs-debate-accident-liability-japan/#.WKB5H3-B531>

[46] Blíže v části 4.1. věnující se autonomním motorovým vozidlům

[47] Self-driving vehicles to be tested near Haneda Airport, The Japan News, January 30, 2017

<http://the-japan-news.com/news/article/0003479265>

[48] Japan eyes safety certification for AI tech, Nikkei Asian Review, December 31, 2016

<http://asia.nikkei.com/Politics-Economy/Policy-Politics/Japan-eyes-safety-certification-for-AI-tech?page=1>

[49] JANUŠ J., op. cit.

[50] Rozhovor s Karin Pomaizlovou, partnerkou mezinárodní advokátní kanceláře Taylor Wessing

<https://www.hrtv.cz/videa/setkani-s-profesionaly-id-2114336/karin-pomaizlova-v-hr-tv-o-pravnich-aspektech-automatizace-a-id-2864847>

[51] JANUŠ, J., op. cit.

[52] Rozsudek NSS z 29. 11. 2006, č. j. 32 Odo 862/2005

[53] Tehdy platná úprava: § 384 odst. 1 zákona č. 513/1991, ObchZ; Nová úprava: § 2903 odst. 1 ObčZ

[54] Viz část 4.2. Internetoví boti a chatboti

[55] § 2936 a násl. ObčZ

[56] § 2927 a násl. ObčZ

[57] Stejné řešení ve svém článku nalézají i Mgr. Jana Pattynová, LLM. a Jiří Bosák

PATTYNOVÁ, J., BOSÁK, J., Právní aspekty autonomních zařízení, PIERSTONE, EPRAVO.CZ Magazine, 4/2016, s. 158

[58] CONDLIFFE, J. 2021 May Be the Year of the Fully Autonomous Car, MIT Technology Review, August 17, 2016

<https://www.technologyreview.com/s/602196/2021-may-be-the-year-of-the-fully-autonomous-car/>

[59] VLADECK, D.C., op. cit.

[60] BEN-SHAHAR, O. Should Carmakers Be Liable When a Self-Driving Car Crashes? Forbes, September 22, 2016 <http://www.forbes.com/sites/omribenshahar/2016/09/22/should-carmakers-be-liable-when-a-self-driving-car-crashes/#c48b6a81f409

[61] CHU, B. Wall Street 'Flash crash' explained: How 'the Hound of Hounslow' could have caused one of the scariest days in stock market history, Independent, 23 April 2015

<http://www.independent.co.uk/news/business/news/flash-crash-explainer-how-the-hound-of-houndslow-could-have-caused-one-of-the-scariest-days-in-stock-10198805.html>

[62] HILL, K. How Target Figured Out A Teen Girl Was Pregnant Before Her Father Did, Forbes, Feb 16, 2012

<http://www.forbes.com/sites/kashmirhill/2012/02/16/how-target-figured-out-a-teen-girl-was-pregnant-before-her-father-did/#4409fe7034c6>

[63] Nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016

[64] SCHERER, M. Tay the Racist Chatbot: Who is responsible when a machine learns to be evil?,, Future of Life, March 27, 2016

<https://futureoflife.org/2016/03/27/tay-the-racist-chatbot-who-is-responsible-when-a-machine-learns-to-be-evil/>

[65] MACH, J. Odpovědnost za škodu, Tempus Medicorum, duben 2015, s. 24

[66] SHAILIN, T. Artificial Intelligence and Medical Liability (Part II), Bill of Health, Harvard Law, February 10, 2017

<http://blogs.harvard.edu/billofhealth/2017/02/10/artificial-intelligence-and-medical-liability-part-ii/>

 

Aby bylo legislativě EU učiněno zadost, sdělujeme, že tento web využívá cookies. Pro jistotu taky prohlašujeme, že neobsahuje žádné alergeny. Více informací