Zahájení nové éry: Rakouský pohled na nasazení a regulaci umělé inteligence v mezinárodní arbitráži
Publikace: března 19, 2025
Úvod
Umělá inteligence (dále jen "AI") v alternativním řešení sporů a zejména v mezinárodní arbitráži již není pohádkou vzdálené budoucnosti, ale objektivní realitou, která dostala legislativní podobu loni v létě na úrovni práva Evropské unie.
Přijetí přelomového a vskutku očekávaného aktu Evropské unie o umělé inteligenci, nařízení (EU) 2024/1689 (dále jen akt EU o umělé inteligenci), nenechalo téměř nikoho lhostejným. Zákon EU o umělé inteligenci se dotýká mnoha oblastí života společnosti a výjimkou není ani alternativní řešení sporů, jehož podstatnou součástí je mezinárodní rozhodčí řízení[1].
S ohledem na širokou škálu různorodých přístupů a pomineme-li odborné diskuse k definičnímu pojmu UI, tento článek se přiklání k definici UI vyjádřené v čl. 3 odst. 1 Aktu EU o UI.
Tento článek se bude zabývat dopadem UI a jejím nasazením v mezinárodní arbitráži, jakož i možnými problémy a kontroverzemi vyplývajícími z používání UI v mezinárodní arbitráži optikou rakouské právní úpravy.
Nasazení a využití UI v mezinárodní arbitráži
Výrazný skok v popularitě umělé inteligence vedl k nasazení těchto technologií v mezinárodní arbitráži a ke snaze kategorizovat a pochopit limity, přínosy a potenciální rizika této symbiózy.
Za pozornost stojí následující klasifikace využití umělé inteligence v mezinárodní arbitráži:
předvídání případů nebo rozhodnutí;
vypracování rozhodčí doložky nebo rozhodčí smlouvy;
výběr rozhodce (rozhodců);
vypracování právních dokumentů a rozhodčích nálezů;
přezkum dokumentů a analýza dat[2].
Tento výčet rozhodně není vyčerpávající vzhledem ke značné míře autonomie stran v mezinárodním rozhodčím řízení a jedinečnosti umělé inteligence, která je schopna řešit (byť ne bezchybně) zcela odlišné úkoly. AI může například také překládat rozsáhlou škálu dokumentů do různých jazyků, a to s ohledem na mezinárodnost sporů v rozhodčím řízení[3], nebo může být AI využívána rozhodčími institucemi pro účely řízení případů[4].
Jiný přístup ke klasifikaci využití AI v mezinárodní arbitráži se odráží v pokynech Silicon Valley Arbitration and Mediation Center (dále jen SVAMC), které jsou rozděleny do tří částí v závislosti na subjektech využívajících AI:
Pokyny pro všechny účastníky rozhodčího řízení;
Pokyny pro strany a zástupce stran;
Pokyny pro rozhodce[5].
Tyto Pokyny mají zvláštní význam, protože představují první pokus na úrovni doplňkových mezinárodních norem o zavedení a regulaci používání UI v mezinárodním rozhodčím řízení s přihlédnutím k základním pojmům mezinárodního rozhodčího řízení, jako jsou: důvěrnost, kogentní právní normy, řádný proces, nedelegace rozhodovacích pravomocí rozhodců atd.
Výše zmíněnou popularitu využívání UI v mezinárodním rozhodčím řízení navíc dokládá několik nedávných průzkumů:
Podle výročního průzkumu BCLP o využití umělé inteligence v mezinárodní arbitráži v roce 2023 si 90 % respondentů uvědomuje, že existují nástroje umělé inteligence, které mohou plnit řadu úkolů v mezinárodní arbitráži;[6].
Jak uvádí Průzkum rozhodčích institucí pro panel kongresu ICCA o umělé inteligenci, z 11 institucí, které odpověděly, 4 uvedly, že umělou inteligenci v nějaké formě zavedly, a všechny instituce, které odpověděly, uvedly, že si uvědomují potenciál umělé inteligence a zvažují, zda a jak ji v budoucnu zavést[7].
Z toho vyplývá, že každý fenomén, který si získá takovou popularitu a zároveň představuje zjevná rizika (těm se budeme věnovat dále v článku) a je pro společnost a její uživatele velmi přínosný, bude nevyhnutelně regulován příslušnými orgány.
Regulace umělé inteligence v rozhodčím řízení v EU a Rakousku
Zákon EU o umělé inteligenci
Zákon EU o umělé inteligenci, významný nejen svým rozsahem a velikostí, ale i dopadem na budoucí osud umělé inteligence, nevynechal ani otázku nasazení umělé inteligence v alternativním řešení sporů. Základním kamenem zákona EU o UI je "přístup založený na riziku", podle něhož je používání systémů UI rozděleno do kategorií odpovídajících míře rizika, které může systém UI způsobit pro veřejné zdraví, bezpečnost, veřejnou bezpečnost, základní práva nebo společnost jako celek.
Podle 61. bodu odůvodnění aktu EU o UI je v zájmu řešení rizik možných předpojatostí, chyb a nepřehlednosti vhodné kvalifikovat jako vysoce rizikové systémy UI, které mají být používány justičním orgánem nebo jeho jménem na pomoc justičním orgánům při zkoumání a výkladu skutečností a práva a při aplikaci práva na konkrétní soubor skutečností. Systémy UI určené k použití orgány alternativního řešení sporů pro tyto účely by měly být rovněž považovány za vysoce rizikové, pokud výsledky řízení alternativního řešení sporů vyvolávají právní účinky pro strany. Použití nástrojů umělé inteligence může podpořit rozhodovací pravomoc soudců nebo nezávislost soudů, ale nemělo by ji nahradit: konečné rozhodování musí zůstat činností řízenou člověkem. Klasifikace systémů UI jako vysoce rizikových by se však neměla vztahovat na systémy UI určené pro čistě pomocné administrativní činnosti, které nemají vliv na skutečný výkon spravedlnosti v jednotlivých případech, jako je anonymizace nebo pseudonymizace soudních rozhodnutí, dokumentů nebo údajů, komunikace mezi zaměstnanci, administrativní úkoly.
Znění 61. bodu odůvodnění, jako například "orgány pro alternativní řešení sporů", se pravděpodobně vztahuje na rozhodce v mezinárodním rozhodčím řízení. Podobný postoj vyjadřuje i mezinárodní rozhodčí komunita[8].
Použití UI rozhodci při zkoumání a výkladu skutečností a práva a při aplikaci práva na konkrétní skutkový stav, kdy výsledky řízení o alternativním řešení sporů mají pro strany právní účinky, by tedy mohlo být považováno za použití vysoce rizikového systému podle čl. 6 odst. 2 aktu EU o UI vzhledem k odkazu na postup alternativního řešení sporů v 61. bodě odůvodnění a v příloze III bodu 8 písm. a).
Proto by používání UI v rozhodčím řízení rozhodci mohlo znamenat určité povinnosti podle článku 26 zákona o UI EU a v případě jejich nedodržení dokonce sankce podle článku 99 zákona o UI EU pro subjekty nasazující vysoce rizikové činnosti.
Je však nutné označit, že praxe uplatňování Aktu EU o UI se ještě zdaleka nevytvořila vzhledem k různým přechodným obdobím uvedeným v článku 113 Aktu EU o UI a tyto úvahy jsou v této fázi pouze teoretické.
Rakouské vnitrostátní právní předpisy a vývoj VIAC
Při poslední aktualizaci rakouského zákona o rozhodčím řízení, který je obsažen v § 577 až 618 rakouského občanského soudního řádu (dále jen "OSŘ"), v roce 2013 nehrály systémy AI zdaleka tak významnou roli jako v současnosti. To nicméně není překážkou pro posouzení stávajících ustanovení rakouského zákona o rozhodčím řízení z hlediska jejich možné korelace se systémy UI.
Podle § 586 odst. 1 ACCP se strany mohou svobodně dohodnout na počtu rozhodců. Pokud se však strany dohodly na sudém počtu rozhodců, pak tito jmenují další osobu (zvýraznění doplněno) jako předsedu. Dále podle § 588 odst. 1 ACCP platí, že pokud osoba (zvýraznění doplněno) hodlá převzít funkci rozhodce, musí ( zvýraznění doplněno) oznámit všechny okolnosti, které by mohly vyvolat pochybnosti o její nestrannosti nebo nezávislosti nebo které jsou v rozporu s dohodou stran.
Výše uvedené znění důvodně naznačuje, že jmenování systému UI rozhodcem by bylo pravděpodobně považováno za porušení rakouského zákona o rozhodčím řízení, neboť v případě takového jmenování by nebylo splněno kritérium "osobnosti".
Stejně tak Pravidla rozhodčího řízení Vídeňského mezinárodního rozhodčího centra (dále jen "VIAC") (dále jen "Vídeňská pravidla") implicitně vylučují jmenování systémů umělé inteligence rozhodci. Podle čl. 6 odst. 2 Vídeňských pravidel platí, že pokud se pojmy použité ve Vídeňských pravidlech vztahují na fyzické osoby (zvýraznění doplněno), platí zvolená forma pro všechna pohlaví. Článek 16 odst. 1 Vídeňských pravidel podobně odkazuje na "osoby", pokud jde o právo stran jmenovat rozhodce.
Proto bez ohledu na možné úvahy o široké autonomii stran v mezinárodním rozhodčím řízení by jmenování systému UI rozhodcem bylo v rozporu s ACCP a nepřípustné podle Vídeňských pravidel. Tyto úvahy dokládá 61. bod odůvodnění Aktu EU o UI, který uvádí, že: "použití nástrojů umělé inteligence může podpořit rozhodovací pravomoc soudců nebo nezávislost soudců, ale nemělo by ji nahradit: konečné rozhodování musí zůstat činností řízenou člověkem".
Mezitím je třeba poznamenat, že elektronické technologie jako podpůrný nástroj jsou aktivně využívány VIAC a jsou zohledněny ve Vídeňských pravidlech:
Podle článku 12 Vídeňských pravidel se žaloba a důkazy předkládají elektronicky a sekretariát přijímá veškerou písemnou komunikaci mezi rozhodčím soudem a stranami v elektronické podobě;
podle čl. 30 odst. 1 Vídeňských pravidel může rozhodčí soud s ohledem na stanoviska stran a konkrétní okolnosti případu rozhodnout o konání ústního jednání osobně nebo jiným způsobem;
podle čl. 36 odst. 5 Vídeňských pravidel může sekretariát zaslat kopii rozhodčího nálezu v elektronické podobě.
Kromě toho VIAC v roce 2021 spustil portál VIAC - online platformu pro správu případů, jejímž cílem je komunikace a výměna dokumentů mezi VIAC, stranami a rozhodci nebo jinými neutrálními třetími stranami během všech typů řízení VIAC[9]. 9] Více k věci, v roce 2022 VIAC představil novou iniciativu nazvanou "Legal Tech Think Tank", jejímž cílem bylo shromáždit odborné znalosti a poznatky o dopadu právních technologií, kryptoměn, blockchainu a umělé inteligence na oblast alternativního řešení sporů[10].
Kromě toho rakouský Nejvyšší soud (Oberster Gerichtshof, dále jen OGH) vydal rozhodnutí (věc č. 4Ob77/23m) o otázce, zda je vhodné využívat systémy AI k propojení podniků (většinou malých a středních podniků, které nemají vlastní právní oddělení) s odpovídajícím právníkem, kterého potřebují, v závislosti na problematice případů a oblastech praxe[11]. Tento systém AI byl také schopen poskytnout právní rešerši a možná řešení pro odpovídající právníky, ale právníci nebyli tímto poradenstvím AI vázáni. Naopak právník nalezený AI po provedení služby vystavil klientovi účet, z něhož systém zadržel 25 %. Rakouská advokátní komora podala žalobu na zákaz používání tohoto systému z několika důvodů, jako je důvěrnost, nekalá soutěž a obecný zákaz poskytování právních služeb neadvokáty. Rakouský nejvyšší soud se stanoviskem rakouské advokátní komory nesouhlasil a používání systému umělé inteligence s popsanou funkčností nezakázal. Prohlásil však, že uložení takového poplatku systému UI je nepřípustné.
I když se případ netýkal přímo mezinárodní arbitráže, rozhodnutí rakouského Nejvyššího soudu ukazuje, jak rozsáhle se umělá inteligence začlenila do právního odvětví. Současně by se takový model mohl realizovat při vyhledávání a výběru rozhodců stranami pro jejich spory.
Tento vývoj, iniciativy a judikatura naznačují, že trend využívání umělé inteligence v rozhodčím řízení jako pomocného nástroje nezůstal v Rakousku bez povšimnutí a je aktivně zaváděn a zkoumán, a to i na úrovni VIAC.
Rizika a obavy
Při analýze zkušeností s využíváním umělé inteligence v mezinárodním rozhodčím řízení je třeba zmínit rizika spojená s jejím používáním.
Prvním rizikem je takzvaná "halucinace" systémů umělé inteligence. 12] Vzhledem k tomu, že systémy umělé inteligence jsou nastaveny tak, aby odpovídaly, když ne na všechny, tak na mnoho dotazů uživatelů v poměrně omezeném čase, dochází někdy v případě nedostatku informací (například pokud jsou důvěrné) k případům, kdy umělá inteligence vygeneruje hladce znějící odpověď, která je zcela nebo zčásti fiktivní. Tento problém je velmi reálný, neboť v některých případech již vnitrostátní soudy řešily situace, kdy se strany odvolávaly na neexistující judikaturu vygenerovanou umělou inteligencí[13]. tento případ ilustruje potřebu právníků nebo rozhodců překontrolovat výsledky systémů umělé inteligence, neboť ty ještě zdaleka nejsou dokonalé.
Druhým rizikem je neúmyslná zaujatost umělé inteligence, která se může reprodukovat v souvislosti s pokusem umělé inteligence analyzovat informace o existujících trendech v rozhodčím řízení nebo právu. Tento problém se týká zejména mezinárodní arbitráže, neboť důvěrnost je základním kamenem mezinárodní arbitráže a informace, které umělá inteligence potřebuje k dosažení správného závěru, nemusí být z důvodu jejich důvěrnosti jednoduše k dispozici. Kromě toho se problémem podjatosti umělé inteligence zabývají pokyny SVAMC v souvislosti s vyhledáváním a jmenováním osob jako rozhodců, znalců, poradců nebo jakýchkoli jiných rolí v souvislosti s rozhodčími řízeními[14].
Třetí problém se týká jakýchkoli typů důkazů v mezinárodních rozhodčích řízeních, neboť systémy UI se staly pokročilými ve vytváření padělků dokumentů, zvukového, fotografického a video obsahu. Rozdíly mezi původními důkazy a padělky vytvořenými umělou inteligencí je někdy obtížné rozlišit. V tomto ohledu je třeba podpořit iniciativu uvedenou v pokynech SVAMC o právu rozhodčího soudu sankcionovat stranu jakýmkoli opatřením, které je k dispozici podle rozhodného práva a platných rozhodčích pravidel nebo lex arbitri (jako je například vyškrtnutí důkazu ze spisu nebo jeho považování za nepřípustný)[15].
Čtvrté riziko porušení důvěrnosti bude vždy provázet používání systémů umělé inteligence, a to i v mezinárodním rozhodčím řízení, kde je otázka ochrany soukromí obzvláště palčivá. Za předpokladu, že jakýkoli systém umělé inteligence může kdykoli dojít k chybě a úniku soukromých informací, měli by být rozhodci, zástupci stran a rozhodčí instituce obzvláště obezřetní při předávání důvěrných informací ke zpracování umělou inteligencí.
Na důležitost důvěrnosti v mezinárodním rozhodčím řízení z hlediska využití nástrojů AI upozorňují také Zásady podporující využití AI v alternativním řešení sporů vypracované Americkou rozhodčí asociací - Mezinárodním centrem pro řešení sporů (dále jen AAA-ICDR): "Ochrana citlivých údajů je v ADR, stejně jako v podnikání a právu, zásadní. Integrace umělé inteligence by neměla tuto zásadu ohrozit. Zásadní je zabránit neoprávněnému přístupu k důvěrným údajům, jejich úniku nebo zneužití. Zvláštní péče je nutná u velkých souborů dat, neprůhledných modelů strojového učení a nejistých datových protokolů"[16].
Je zřejmé, že při střetu dvou rozsáhlých fenoménů, jako je umělá inteligence a mezinárodní arbitráž, není výše uvedený výčet rizik a výzev jejich symbiózy vyčerpávající a může se v průběhu času měnit, ale nastíněné problémy jsou již nyní pro mezinárodní arbitrážní komunitu zásadní.
Závěr
Stručně řečeno, využití umělé inteligence v mezinárodní arbitráži bude exponenciálně růst. Nasazení systémů UI rozhodci, zástupci stran a rozhodčími institucemi přináší mnoho regulačních a etických otázek, na které musí mezinárodní rozhodčí komunita, mezinárodní organizace a příslušné vnitrostátní orgány teprve najít odpovědi. V této fázi jsou systémy umělé inteligence v mezinárodní arbitráži vnímány pouze jako rychlé a často účinné, ale stále ještě pomocné nástroje, které nemohou nahradit nebo vytlačit rozhodce, zástupce stran nebo rozhodčí instituce.
Na příkladu Rakouska lze konstatovat, že VIAC věnuje problematice umělé inteligence náležitou pozornost. Ba co víc, vzhledem k tomu, že rakouský Nejvyšší soud (OGH) se již k umělé inteligenci vyjádřil (i když ne v souvislosti s rozhodčím řízením), bude problematika využití umělé inteligence v rozhodčím řízení dále rozvíjena nejen na úrovni práva EU nebo rakouského vnitrostátního práva, ale také v rakouské judikatuře.
Zdroje
- Nařízení (EU) 2024/1689 ze dne 13. června 2024, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci a kterým se mění nařízení (ES) č. 300/2008, (EU) č. 167/2013, (EU) č. 168/2013, (EU) 2018/858, (EU) 2018/1139 a (EU) 2019/2144 a směrnice 2014/90/EU, (EU) 2016/797 a (EU) 2020/1828 (Artificial Intelligence Act) - Text s významem pro EHP. Viz zde: https://eur-lex.europa.eu/eli/reg/2024/1689/oj.
- Podrobnější posouzení možných aplikací umělé inteligence v rozhodčím řízení viz Shih, Sean a Chang, Chin-Ru, The Application of AI in Arbitration: How Far Away are we from AI Arbitrators? (31. května 2024). Contemporary Asia Arbitration Journal, roč. 17, č. 1, s. 69-90, dostupné na SSRN: https://ssrn.com/abstract=4849614.
- Viz odst. 5.2. zprávy Komise ICC pro rozhodčí řízení a ADR o využití technologií pro spravedlivé, účinné a efektivní mezinárodní rozhodčí řízení Dostupné na: https: //iccwbo.org/news-publications/arbitration-adr-rules-and-tools/icc-arbitration-and-adr-commission-report-on-leveraging-technology-for-fair-effective-and-efficient-international-arbitration-proceedings/.
- Podrobnější posouzení možného využití umělé inteligence při vedení případů v rozhodčím řízení viz Ahmet Cemil Yıldırım, The use of technology in case management in international investment arbitration: a realistic approach, Arbitration International, Volume 40, Issue 2, June 2024, str. 233-250, Dostupné na: https: //doi.org/10.1093/arbint/aiae010.
- Viz Pokyny SVAMC k používání umělé inteligence v rozhodčím řízení, 1. vydání 2024, dostupné na: https: //svamc.org/svamc-publishes-guidelines-on-the-use-of-artificial-intelligence-in-arbitration/.
- Viz BCLP Arbitration Survey 2023 on the use of Artificial Intelligence in International Arbitration Dostupné na: https: //www.bclplaw.com/en-US/events-insights-news/bclp-arbitration-survey-2023.html.
- Viz Maxim Osadchiy & Erika Santini, Are Arbitral Institutions Using Artificial Intelligence? The State of Play in Adopting AI, KLUWER ARB. BLOG (8. května 2024), Dostupné na: https: //arbitrationblog.kluwerarbitration.com/2024/05/08/are-arbitral-institutions-using-artificial-intelligence-the-state-of-play-in-adopting-ai/.
- Viz Maxi Scherer, We Need to Talk About ... the EU AI Act!", KLUWER ARB. BLOG (27. května 2024), Dostupné na: https: //arbitrationblog.kluwerarbitration.com/2024/05/27/we-need-to-talk-about-the-eu-ai-act/.
- Více viz: https: //viac.eu/en/arbitration/viac-portal
- Více viz: https: //viac.eu/en/news/viac-getting-tech-savvy-viac-launches-legal-tech-think-tank
- Rakouský nejvyšší soud 4Ob77/23m ze dne 27. června 2023, Dostupné na: https: //www.ris.bka.gv.at/Dokument.wxe?Abfrage=Justiz&Dokumentnummer=JJT_20230627_OGH0002_0040OB00077_23M0000_000&Suchworte=RS0079640.
- Viz, Pokyny SVAMC k používání umělé inteligence v rozhodčím řízení, s. 16.
- Mata v. Avianca, Inc. 678 F. Supp. 3d 443 (S.D.N.Y. 2023) Dostupné na: https: //casetext.com/case/mata-v-avianca-inc-3.
- Viz, Pokyny SVAMC k používání umělé inteligence v rozhodčím řízení s. 16.
- Tamtéž, s. 19.
- Zásady podporující využití umělé inteligence při alternativním řešení sporů, Americká arbitrážní asociace (listopad 2023) Dostupné na: https: //go.adr.org/rs/294-SFS-516/images/Principles%20Supporting%20the%20Use%20of%20AI%20in%20Alternative%20Dispute%20Resolution.pdf.

