Sprog

Indvarsling af en ny æra: De østrigske udsigter til anvendelse og regulering af kunstig intelligens i international voldgift

Publikationer: marts 19, 2025

Indledning

Kunstig intelligens (herefter AI) i alternativ konfliktløsning og international voldgift i særdeleshed er ikke længere en fortælling om en fjern fremtid, men en objektiv realitet, der sidste sommer fik lovgivningsmæssig form på EU-retsligt niveau.

Vedtagelsen af EU's banebrydende og længe ventede lov om kunstig intelligens, forordning (EU) 2024/1689 (herefter EU's AI-lov), har næppe efterladt nogen ligeglade. EU's AI Act påvirker flere områder af samfundet, og alternativ tvistbilæggelse, hvoraf en væsentlig del er international voldgift, er ingen undtagelse[1].

I betragtning af en bred vifte af forskellige tilgange og uden om tekniske diskussioner om det definerende begreb AI går denne artikel ind for definitionen af AI i artikel 3, stk. 1, i EU's AI Act.

Denne artikel vil undersøge indvirkningen af AI og dens anvendelse i international voldgift samt de potentielle problemer og kontroverser, der opstår ved at bruge AI i international voldgift, set i lyset af den østrigske regulering.

Implementering og brug af AI i international voldgift

Kunstig intelligens' markante stigning i popularitet har ført til anvendelse af sådanne teknologier i international voldgift og et forsøg på at kategorisere og forstå grænserne, fordelene og de potentielle risici ved en sådan symbiose.
Følgende klassificering af brugen af AI i international voldgift er bemærkelsesværdig:

  • Forudsigelse af sager eller afgørelser;

  • Udarbejdelse af en voldgiftsklausul eller voldgiftsaftale;

  • Valg af voldgiftsdommer(e);

  • Udarbejdelse af juridiske dokumenter og voldgiftskendelser;

  • dokumentgennemgang og dataanalyse[2].

Denne liste er bestemt ikke udtømmende på grund af den betydelige grad af partsautonomi i international voldgift og det unikke ved AI, som er i stand til at løse (dog ikke uden fejl) helt andre opgaver. For eksempel kan AI også oversætte en lang række dokumenter til forskellige sprog i betragtning af den internationale karakter af tvister i voldgift[3], eller AI kan bruges af voldgiftsinstitutioner til sagsstyring[4].

En anden tilgang til at klassificere brugen af AI i international voldgift afspejles i Silicon Valley Arbitration and Mediation Center (herefter SVAMC) Guidelines, som er opdelt i tre dele afhængigt af de aktører, der bruger AI:

  • Retningslinjer for alle deltagere i voldgiftssager;

  • Retningslinjer for parter og partsrepræsentanter;

  • Retningslinjer for voldgiftsmænd[5].

Disse retningslinjer er særligt vigtige, fordi de udgør det første forsøg på supplerende internationalt standardniveau til at implementere og regulere brugen af AI i internationale voldgiftssager under hensyntagen til hjørnestenskoncepterne i international voldgift såsom: fortrolighed, ufravigelige retsregler, retfærdig rettergang, ikke-delegering af voldgiftsmænds beslutningsansvar osv.

Ovennævnte popularitet af brugen af AI i international voldgift er desuden bevist af flere nylige undersøgelser:

  • Ifølge BCLP Annual Arbitration Survey 2023 om brugen af kunstig intelligens i international voldgift var 90 % af respondenterne klar over, at der fandtes AI-værktøjer, som kunne udføre en række opgaver inden for international voldgift;[6].

  • Som det fremgår af Survey of Arbitral Institutions for the ICCA Congress Panel on AI, angav 4 ud af de 11 institutioner, der svarede, at de har implementeret AI i en eller anden form, og alle de adspurgte institutioner sagde, at de anerkender AI's potentiale og overvejer, om og hvordan de skal indføre det i fremtiden[7].

Derfor vil ethvert fænomen, der vinder så stor popularitet, samtidig med at det indebærer åbenlyse risici (de vil blive behandlet senere i artiklen) og er til stor gavn for samfundet og dets brugere, uundgåeligt blive reguleret af de kompetente myndigheder.

Regulering af AI i voldgift i EU og Østrig

EU's lov om kunstig intelligens

EU's lov om kunstig intelligens, der ikke kun er vigtig i sit omfang og sin størrelse, men også i sin indvirkning på AI's fremtidige skæbne, er ikke gået uden om spørgsmålet om anvendelse af AI i alternativ tvistbilæggelse. Hjørnestenen i EU's AI-lov er den "risikobaserede tilgang", ifølge hvilken brugen af AI-systemer inddeles i kategorier, der svarer til den risiko, som AI-systemet kan medføre for folkesundheden, den offentlige sikkerhed, de grundlæggende rettigheder eller samfundet som helhed.

I henhold til betragtning 61 i EU's AI-lov er det for at imødegå risikoen for potentielle skævheder, fejl og uigennemsigtighed hensigtsmæssigt at kvalificere AI-systemer, der er beregnet til at blive brugt af en retslig myndighed eller på dens vegne til at bistå retslige myndigheder med at undersøge og fortolke fakta og loven og med at anvende loven på et konkret sæt fakta, som højrisikosystemer. AI-systemer, der er beregnet til at blive brugt af alternative tvistbilæggelsesorganer til disse formål, bør også betragtes som højrisiko, når resultaterne af de alternative tvistbilæggelsesprocedurer har retsvirkninger for parterne. Brugen af AI-værktøjer kan understøtte dommernes beslutningskompetence eller retslige uafhængighed, men bør ikke erstatte den: Den endelige beslutningstagning skal fortsat være en menneskedrevet aktivitet. Klassificeringen af AI-systemer som højrisiko bør dog ikke omfatte AI-systemer, der er beregnet til rent administrative hjælpeaktiviteter, som ikke påvirker den faktiske retspleje i individuelle sager, såsom anonymisering eller pseudonymisering af retsafgørelser, dokumenter eller data, kommunikation mellem personale og administrative opgaver.

Formuleringerne i betragtning 61, såsom "alternative tvistbilæggelsesorganer", henviser sandsynligvis til voldgiftsmænd i international voldgift. En lignende holdning kommer til udtryk i det internationale voldgiftssamfund[8].

Voldgiftsmænds brug af AI til at undersøge og fortolke fakta og loven og til at anvende loven på et konkret sæt fakta, når resultaterne af den alternative tvistbilæggelsesprocedure har retsvirkninger for parterne, kan således betragtes som en brug af højrisikosystemet i henhold til artikel 6, stk. 2, i EU's lov om AI på grund af henvisningen til ADR-proceduren i betragtning 61 og bilag III, punkt 8, litra a).

Derfor kan voldgiftsmænds brug af AI i voldgiftssager indebære visse forpligtelser i henhold til artikel 26 i EU's AI-lov og endda sanktioner i henhold til artikel 99 i EU's AI-lov for dem, der anvender højrisikoaktiviteter i tilfælde af manglende overholdelse.

Det er dog nødvendigt at påpege, at praksis for anvendelse af EU AI Act stadig er langt fra at være dannet på grund af forskellige overgangsperioder, der er beskrevet i artikel 113 i EU AI Act, og disse overvejelser er kun teoretiske på nuværende tidspunkt.

Østrigsk national lovgivning og VIAC-udvikling

Sidste gang den østrigske voldgiftslov, der er indeholdt i paragraf 577 til 618 i den østrigske civile retsplejelov (herefter ACCP), blev opdateret i 2013, spillede AI-systemer næppe den fremtrædende rolle, som de gør i dag. Ikke desto mindre er dette ikke en hindring for at evaluere de eksisterende bestemmelser i den østrigske voldgiftslov for deres mulige sammenhæng med AI-systemer.

I henhold til § 586 (1) ACCP kan parterne frit aftale antallet af voldgiftsdommere. Hvis parterne imidlertid har aftalt et lige antal voldgiftsmænd, skal disse udpege en yderligere person (understregning tilføjet) som formand. Det fremgår endvidere af ACCP § 588, stk. 1, at når en person (fremhævning tilføjet) agter at påtage sig hvervet som voldgiftsdommer, skal han (fremhævning tilføjet) oplyse om forhold, der kan give anledning til tvivl om hans upartiskhed eller uafhængighed, eller som er i strid med parternes aftale.

Ovennævnte formulering indikerer med rimelighed, at udnævnelsen af et AI-system som voldgiftsmand sandsynligvis ville blive betragtet som en overtrædelse af den østrigske voldgiftslov, da kriteriet om "personlighed" ikke ville være opfyldt i tilfælde af en sådan udnævnelse.

På samme måde udelukker Vienna International Arbitral Centre (herefter VIAC) Rules of Arbitration (herefter Wien-reglerne) implicit udnævnelsen af systemer med kunstig intelligens som voldgiftsmænd. I henhold til artikel 6, stk. 2, i Wienerreglerne skal den valgte form gælde for alle køn, i det omfang de udtryk, der anvendes i Wienerreglerne, henviser til fysiske personer (understregning tilføjet). Wien-reglernes artikel 16, stk. 1, henviser ligeledes til "personer" i forbindelse med parternes ret til at udpege voldgiftsmænd.

Uanset potentielle overvejelser om bred partsautonomi i international voldgift ville det derfor være i strid med ACCP og uacceptabelt i henhold til Wienerreglerne at udpege et AI-system som voldgiftsmand. Disse overvejelser bekræftes af betragtning 61 i EU's AI Act, hvor der står, at: "brugen af AI-værktøjer kan understøtte dommernes beslutningskompetence eller retslige uafhængighed, men bør ikke erstatte den: den endelige beslutningstagning skal fortsat være en menneskedrevet aktivitet."

I mellemtiden skal det bemærkes, at elektroniske teknologier som støtteværktøj bruges aktivt af VIAC og er afspejlet i Wien-reglerne:

  • I henhold til artikel 12 i Wienerreglerne skal påstandsdokumenter og bevismateriale indsendes elektronisk, og sekretariatet skal modtage al skriftlig kommunikation mellem voldgiftsretten og parterne i elektronisk form;

  • i henhold til Wien-reglernes artikel 30(1) kan voldgiftsretten under behørig hensyntagen til parternes synspunkter og sagens særlige omstændigheder beslutte at afholde en mundtlig høring ved personligt fremmøde eller på anden måde;

  • I henhold til artikel 36, stk. 5, i Wienerreglerne kan sekretariatet sende en kopi af kendelsen i elektronisk form.

Derudover lancerede VIAC i 2021 VIAC-portalen - en online sagsstyringsplatform, der sigter mod kommunikation og udveksling af dokumenter mellem VIAC, parterne og voldgiftsmændene eller andre neutrale tredjeparter under alle typer VIAC-sager.[9] Mere præcist introducerede VIAC i 2022 et nyt initiativ kaldet "Legal Tech Think Tank", der havde til formål at indsamle ekspertise og viden om virkningen af legal tech, kryptovaluta, blockchain og AI på det alternative tvistbilæggelseslandskab.[10]

Desuden har den østrigske højesteret (Oberster Gerichtshof, herefter OGH) truffet en afgørelse (sag nr. 4Ob77/23m) om, hvorvidt det er hensigtsmæssigt at bruge AI-systemer til at forbinde virksomheder (for det meste SMV'er, der ikke har deres egne juridiske afdelinger) med matchede advokater, som de har brug for, afhængigt af sagsspørgsmål og praksisområder[11]. Dette AI-system var også i stand til at levere juridisk research og mulige løsninger til matchede advokater, men advokaterne var ikke bundet af denne rådgivning fra AI. Til gengæld fakturerede den advokat, som AI'en fandt, klienten efter at have udført tjenesten, hvoraf 25 procent blev tilbageholdt af systemet. Det østrigske advokatsamfund lagde sag an for at forbyde brugen af dette system af flere grunde, såsom fortrolighed, unfair konkurrence og det generelle forbud mod, at ikke-advokater leverer juridiske tjenester. Den østrigske højesteret var uenig i den østrigske advokats holdning og forbød ikke brugen af et AI-system med den beskrevne funktionalitet. Den erklærede dog, at AI-systemets opkrævning af et sådant gebyr er utilladelig.

Selvom sagen ikke var direkte relateret til international voldgift, viser den østrigske højesterets afgørelse, hvor omfattende kunstig intelligens er blevet inkorporeret i den juridiske branche. Samtidig kunne en sådan model realiseres, når parter søger og vælger voldgiftsmænd til deres tvister.
Denne udvikling, disse initiativer og denne retspraksis viser, at tendensen til at bruge kunstig intelligens i voldgift som et hjælpeværktøj ikke er gået ubemærket hen i Østrig, og at den bliver aktivt implementeret og undersøgt, også på VIAC-niveau.

Risici og bekymringer

Når man analyserer erfaringerne med at bruge kunstig intelligens i international voldgift, er det nødvendigt at nævne de risici, der er forbundet med brugen af den.

Den første risiko er AI-systemers såkaldte "hallucinationer"[12]. Fordi systemer med kunstig intelligens er konfigureret til at besvare, om ikke alle, så mange brugerhenvendelser på ganske kort tid, er der nogle gange tilfælde, hvor der mangler oplysninger (f.eks. hvis de er fortrolige), hvor den kunstige intelligens genererer et velklingende svar, der helt eller delvist er en fiktion. Dette problem er meget muligt, da de nationale domstole allerede i nogle tilfælde har behandlet situationer, hvor parter har henvist til ikke-eksisterende retspraksis genereret af kunstig intelligens[13]. Denne sag illustrerer behovet for, at advokater eller voldgiftsmænd dobbelttjekker resultaterne af systemer med kunstig intelligens, da de stadig er langt fra perfekte.

Den anden risiko er kunstig intelligens' ufrivillige bias, som kan reproduceres i forbindelse med kunstig intelligens' forsøg på at analysere oplysninger om eksisterende tendenser inden for voldgift eller jura. Dette problem er særligt relevant for international voldgift, da fortrolighed er en hjørnesten i international voldgift, og de oplysninger, som kunstig intelligens har brug for til at nå frem til den korrekte konklusion, er måske simpelthen ikke tilgængelige på grund af fortroligheden. Derudover er problemet med AI's partiskhed behandlet i SVAMC's retningslinjer i forbindelse med søgning og udnævnelse af personer som voldgiftsmænd, eksperter, rådgivere eller andre roller i forbindelse med voldgiftssager[14].

Det tredje problem vedrører alle typer af beviser i internationale voldgiftssager, da AI-systemer er blevet avancerede til at skabe forfalskninger af dokumenter, lyd-, foto- og videoindhold. Forskellene mellem originale beviser og forfalskninger skabt af kunstig intelligens er nogle gange vanskelige at skelne. I den forbindelse bør man støtte initiativet i SVAMC's retningslinjer om voldgiftsrettens ret til at sanktionere en part ved hjælp af de foranstaltninger, der er tilgængelige i henhold til den gældende lov og de gældende voldgiftsregler eller lex arbitri (som f.eks. at fjerne beviset fra protokollen eller anse det for uantageligt)[15].

Den fjerde risiko for brud på fortroligheden vil altid ledsage brugen af systemer med kunstig intelligens, herunder i international voldgift, hvor spørgsmålet om privatlivets fred er særligt akut. Hvis man antager, at ethvert AI-system til enhver tid kan fejle og lække private oplysninger, bør voldgiftsmænd, partsrepræsentanter og voldgiftsinstitutioner være særligt forsigtige med at sende fortrolige oplysninger til behandling af AI.

Vigtigheden af fortrolighed i international voldgift set i lyset af brugen af AI-værktøjer nævnes også i Principles Supporting the Use of AI in Alternative Dispute Resolution Developed by The American Arbitration Association-International Centre for Dispute Resolution (herefter AAA-ICDR): "Beskyttelse af følsomme data er afgørende i ATB, ligesom i erhvervslivet og i lovgivningen. Integrationen af AI bør ikke gå på kompromis med dette princip. Det er vigtigt at forhindre uautoriseret adgang, lækage eller misbrug af fortrolige data. Der er brug for særlig forsigtighed med store datasæt, uigennemsigtige maskinlæringsmodeller og usikre dataprotokoller"[16].

Når to store fænomener som kunstig intelligens og international voldgift støder sammen, er listen over risici og udfordringer ved deres symbiose nævnt ovenfor naturligvis ikke udtømmende og kan ændre sig med tiden, men de skitserede problemer er allerede afgørende for det internationale voldgiftssamfund.

Konklusion

Kort sagt vil brugen af AI i international voldgift vokse eksponentielt. Anvendelsen af AI-systemer af voldgiftsmænd, partsrepræsentanter og voldgiftsinstitutioner rejser mange lovgivningsmæssige og etiske spørgsmål, som det internationale voldgiftssamfund, internationale organisationer og kompetente nationale myndigheder endnu ikke har fundet svar på. På nuværende tidspunkt opfattes systemer med kunstig intelligens i international voldgift kun som hurtige og ofte effektive, men stadig som hjælpeværktøjer, der ikke kan erstatte eller fortrænge voldgiftsmænd, partsrepræsentanter eller voldgiftsinstitutioner.

Hvis vi tager Østrig som eksempel, kan vi konkludere, at VIAC lægger behørig vægt på spørgsmålet om kunstig intelligens. I betragtning af at den østrigske højesteret (OGH) allerede har talt om kunstig intelligens (dog ikke i forbindelse med voldgift), vil spørgsmålet om brug af kunstig intelligens i voldgift blive videreudviklet ikke kun på EU-retligt eller østrigsk nationalt retligt niveau, men også i østrigsk retspraksis.

Ressourcer

  1. Forordning (EU) 2024/1689 af 13. juni 2024 om fastsættelse af harmoniserede regler for kunstig intelligens og om ændring af forordning (EF) nr. 300/2008, (EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 og (EU) 2019/2144 og direktiv 2014/90/EU, (EU) 2016/797 og (EU) 2020/1828 (lov om kunstig intelligens) - EØS-relevant tekst. Se venligst her: https://eur-lex.europa.eu/eli/reg/2024/1689/oj.
  2. For en mere detaljeret vurdering af de mulige anvendelser af AI i voldgift, se Shih, Sean og Chang, Chin-Ru, The Application of AI in Arbitration: Hvor langt væk er vi fra AI-voldgiftsmænd? (31. maj 2024). Contemporary Asia Arbitration Journal, Vol. 17, No. 1, pp. 69-90, tilgængelig på SSRN: https://ssrn.com/abstract=4849614
  3. Se Para. 5.2. i ICC Arbitration and ADR Commission Report on Leveraging Technology for Fair, Effective and Efficient International Arbitration Proceedings Tilgængelig på: https: //iccwbo.org/news-publications/arbitration-adr-rules-and-tools/icc-arbitration-and-adr-commission-report-on-leveraging-technology-for-fair-effective-and-efficient-international-arbitration-proceedings/
  4. For en mere detaljeret vurdering af den mulige brug af AI til sagsbehandling i voldgift, se Ahmet Cemil Yıldırım, The use of technology in case management in international investment arbitration: a realistic approach, Arbitration International, Volume 40, Issue 2, June 2024, pp. 233-250, tilgængelig på: https: //doi.org/10.1093/arbint/aiae010.
  5. Se SVAMC Guidelines on the Use of Artificial Intelligence in Arbitration 1. udgave 2024 Tilgængelig på: https: //svamc.org/svamc-publishes-guidelines-on-the-use-of-artificial-intelligence-in-arbitration/
  6. Se BCLP Arbitration Survey 2023 om brugen af kunstig intelligens i international voldgift Tilgængelig på: https: //www.bclplaw.com/en-US/events-insights-news/bclp-arbitration-survey-2023.html
  7. Se Maxim Osadchiy & Erika Santini, Are Arbitral Institutions Using Artificial Intelligence? Status for vedtagelsen af AI, KLUWER ARB. BLOG (8. maj 2024), tilgængelig på: https: //arbitrationblog.kluwerarbitration.com/2024/05/08/are-arbitral-institutions-using-artificial-intelligence-the-state-of-play-in-adopting-ai/
  8. Se Maxi Scherer, We Need to Talk About ... the EU AI Act!, KLUWER ARB. BLOG (27. maj 2024), tilgængelig på: https: //arbitrationblog.kluwerarbitration.com/2024/05/27/we-need-to-talk-about-the-eu-ai-act/
  9. For mere, se: https: //viac.eu/en/arbitration/viac-portal
  10. For mere, se: https: //viac.eu/en/news/viac-getting-tech-savvy-viac-launches-legal-tech-think-tank
  11. Østrigs højesteret 4Ob77/23m af 27. juni 2023, tilgængelig på: https: //www.ris.bka.gv.at/Dokument.wxe?Abfrage=Justiz&Dokumentnummer=JJT_20230627_OGH0002_0040OB00077_23M0000_000&Suchworte=RS0079640
  12. Se SVAMC Guidelines on the Use of Artificial Intelligence in Arbitration, s. 16.
  13. Mata v. Avianca, Inc, 678 F. Supp. 3d 443 (S.D.N.Y. 2023) Tilgængelig på: https: //casetext.com/case/mata-v-avianca-inc-3
  14. Se SVAMC Guidelines on the Use of Artificial Intelligence in Arbitration s. 16.
  15. Ibid. s. 19.
  16. Principles Supporting the Use of AI in Alternative Dispute Resolution, American Arbitration Association (nov. 2023) Tilgængelig på: https: //go.adr.org/rs/294-SFS-516/images/Principles%20Supporting%20the%20Use%20of%20AI%20in%20Alternative%20Dispute%20Resolution.pdf