Een nieuw tijdperk inluiden: De Oostenrijkse vooruitzichten van de inzet en regulering van AI in internationale arbitrage
Publicaties: maart 19, 2025
Inleiding
Kunstmatige intelligentie (hierna AI) in alternatieve geschillenbeslechting en internationale arbitrage in het bijzonder is niet langer een verhaal van de verre toekomst, maar een objectieve realiteit die afgelopen zomer op het niveau van het recht van de Europese Unie vorm kreeg in wetgeving.
De goedkeuring van de baanbrekende en inderdaad verwachte Wet inzake Kunstmatige Intelligentie van de Europese Unie, Verordening (EU) 2024/1689 (hierna EU AI Act) heeft bijna niemand onverschillig gelaten. De EU AI Act heeft invloed op meerdere gebieden van de samenleving, en alternatieve geschillenbeslechting, waarvan internationale arbitrage een substantieel onderdeel is, vormt hierop geen uitzondering.[1]
Rekening houdend met een brede waaier van uiteenlopende benaderingen en voorbijgaand aan technische discussies over het definiërende concept van AI, geeft dit artikel de voorkeur aan de definitie van AI zoals verwoord in artikel 3 (1) van de EU AI Act.
Dit artikel zal de impact van AI en het gebruik ervan in internationale arbitrage onderzoeken, evenals de potentiële problemen en controverses die voortvloeien uit het gebruik van AI in internationale arbitrage door de lens van de Oostenrijkse regelgeving.
Inzet en gebruik van AI in internationale arbitrage
De grote populariteit van kunstmatige intelligentie heeft geleid tot de inzet van dergelijke technologieën in internationale arbitrage en een poging om de grenzen, voordelen en potentiële risico's van een dergelijke symbiose te categoriseren en te begrijpen.
De volgende classificatie van het gebruik van AI in internationale arbitrage is opmerkelijk:
voorspelling van zaken of beslissingen;
opstellen van een arbitrageclausule of arbitrageovereenkomst
kiezen van arbiter(s);
opstellen van juridische documenten en arbitrale vonnissen;
documentbeoordeling en gegevensanalyse.[2]
Deze lijst is zeker niet uitputtend vanwege de aanzienlijke mate van autonomie van partijen in internationale arbitrage en het unieke karakter van AI, dat in staat is om (hoewel niet zonder fouten) totaal verschillende taken op te lossen. AI kan bijvoorbeeld ook een groot aantal documenten in verschillende talen vertalen, gezien het internationale karakter van geschillen in arbitrage[3] of AI kan door arbitrage-instituten worden gebruikt voor casemanagementdoeleinden[4].
Een andere benadering van het classificeren van het gebruik van AI in internationale arbitrage wordt weerspiegeld in de richtlijnen van het Silicon Valley Arbitration and Mediation Center (hierna SVAMC), die zijn onderverdeeld in drie delen, afhankelijk van de actoren die AI gebruiken:
Richtlijnen voor alle deelnemers aan arbitrages;
Richtlijnen voor partijen en partijvertegenwoordigers;
Richtlijnen voor arbiters.[5]
Deze richtlijnen zijn van bijzonder belang omdat ze de eerste poging vormen op het niveau van aanvullende internationale normen om het gebruik van AI in internationale arbitrageprocedures te implementeren en te reguleren, rekening houdend met de basisbegrippen van internationale arbitrage zoals: vertrouwelijkheid, dwingende rechtsregels, behoorlijke procesvoering, niet-delegeren van besluitvormingsverantwoordelijkheden door arbiters, enz.
De bovengenoemde populariteit van het gebruik van AI in internationale arbitrage wordt bovendien bewezen door verschillende recente onderzoeken:
volgens BCLP Annual Arbitration Survey 2023 on the use of Artificial Intelligence in International Arbitration was 90% van de respondenten zich ervan bewust dat er AI-tools bestonden die een reeks taken in internationale arbitrage konden uitvoeren;[6]
Zoals vermeld in de Survey of Arbitral Institutions for the ICCA Congress Panel on AI, gaven 4 van de 11 instellingen die reageerden aan dat ze AI op de een of andere manier hebben geïmplementeerd, en alle reagerende instellingen zeiden dat ze het potentieel van AI erkennen en overwegen of en hoe ze het in de toekomst zullen invoeren.[7]
Bijgevolg zal elk fenomeen dat zo populair wordt en tegelijkertijd duidelijke risico's met zich meebrengt (die later in dit artikel aan bod zullen komen) en van groot nut is voor de samenleving en de gebruikers ervan, onvermijdelijk gereguleerd worden door de bevoegde autoriteiten.
Regulering van AI in arbitrage in de EU en Oostenrijk
De EU-wet op kunstmatige intelligentie
De EU AI Act, die niet alleen belangrijk is in zijn reikwijdte en omvang maar ook in zijn impact op het toekomstige lot van AI, is niet voorbijgegaan aan de inzet van AI bij alternatieve geschillenbeslechting. De hoeksteen van de EU-AI Act is de "risicogebaseerde benadering", volgens welke het gebruik van AI-systemen wordt onderverdeeld in categorieën die overeenkomen met de hoeveelheid risico die het AI-systeem kan veroorzaken voor de volksgezondheid, de openbare veiligheid, de openbare veiligheid, de grondrechten of de samenleving als geheel.
Overeenkomstig overweging 61 van de EU-wet op de AI moeten AI-systemen die bedoeld zijn om door of namens een justitiële autoriteit te worden gebruikt om justitiële autoriteiten bij te staan bij het onderzoeken en interpreteren van feiten en het recht en bij het toepassen van het recht op een concrete reeks feiten, worden aangemerkt als AI-systemen met een hoog risico om de risico's van mogelijke vertekeningen, fouten en ondoorzichtigheid aan te pakken. AI-systemen die bedoeld zijn om voor die doeleinden door instanties voor alternatieve geschillenbeslechting te worden gebruikt, moeten ook als zeer riskant worden beschouwd wanneer de resultaten van de procedure voor alternatieve geschillenbeslechting rechtsgevolgen voor de partijen hebben. Het gebruik van AI-instrumenten kan de beslissingsbevoegdheid van rechters of de rechterlijke onafhankelijkheid ondersteunen, maar mag deze niet vervangen: de uiteindelijke besluitvorming moet een door mensen gestuurde activiteit blijven. De classificatie van AI-systemen als zeer riskant mag zich echter niet uitstrekken tot AI-systemen die bedoeld zijn voor louter administratieve nevenactiviteiten die geen invloed hebben op de eigenlijke rechtsbedeling in individuele zaken, zoals anonimisering of pseudonimisering van rechterlijke beslissingen, documenten of gegevens, communicatie tussen personeelsleden, administratieve taken.
De formulering van overweging 61, zoals "instanties voor alternatieve geschillenbeslechting", verwijst waarschijnlijk naar arbiters in internationale arbitrage. In de internationale arbitragemeenschap wordt een soortgelijk standpunt ingenomen.[8]
Het gebruik van AI door arbiters bij het onderzoeken en interpreteren van feiten en het recht en bij het toepassen van het recht op een concreet feitencomplex wanneer de uitkomst van de procedure voor alternatieve geschillenbeslechting rechtsgevolgen voor de partijen heeft, zou dus kunnen worden beschouwd als een gebruik van een systeem met een hoog risico op grond van artikel 6, lid 2, van de EU-AI-wet vanwege de verwijzing naar de ADR-procedure in overweging 61 en bijlage III, punt 8, onder a).
Het gebruik van AI in arbitrageprocedures door arbiters kan derhalve bepaalde verplichtingen op grond van artikel 26 van de EU-AI-wet met zich meebrengen en zelfs sancties op grond van artikel 99 van de EU-AI-wet voor de toepassers van activiteiten met een hoog risico in geval van niet-naleving.
Het is echter noodzakelijk om aan te geven dat de praktijk van de toepassing van de EU AI Act nog lang niet gevormd is als gevolg van de verschillende overgangsperioden van artikel 113 van de EU AI Act en dat deze overwegingen in dit stadium slechts theoretisch zijn.
Oostenrijkse nationale wetgeving en VIAC-ontwikkelingen
De laatste keer dat de Oostenrijkse arbitragewet, die is opgenomen in de artikelen 577 tot en met 618 van het Oostenrijkse Wetboek van Burgerlijke Rechtsvordering (hierna ACCP), in 2013 werd bijgewerkt, speelden AI-systemen nauwelijks de prominente rol die ze nu spelen. Dit is echter geen belemmering om de bestaande bepalingen van de Oostenrijkse arbitragewet te beoordelen op hun mogelijke correlatie met AI-systemen.
Volgens artikel 586 (1) ACCP zijn de partijen vrij om het aantal arbiters overeen te komen. Als de partijen echter een even aantal arbiters zijn overeengekomen, moeten deze nog een persoon (onderstreping toegevoegd) als voorzitter benoemen. Bovendien moet een persoon (cursivering toegevoegd) die voornemens is het ambt van arbiter te aanvaarden, ingevolge artikel 588 lid 1 ACCP alle omstandigheden bekendmaken die aanleiding kunnen geven tot twijfel omtrent zijn onpartijdigheid of onafhankelijkheid of die in strijd zijn met het akkoord van de partijen.
De bovengenoemde formulering geeft redelijkerwijs aan dat de benoeming van een AI-systeem als arbiter waarschijnlijk als een schending van de Oostenrijkse arbitragewet zou worden beschouwd, aangezien bij een dergelijke benoeming niet aan het criterium "persoonlijkheid" zou worden voldaan.
In dezelfde geest sluit het arbitragereglement van het Vienna International Arbitral Centre (hierna VIAC) (hierna Weens reglement) de benoeming van kunstmatige intelligentiesystemen als scheidsrechter impliciet uit. Volgens artikel 6, lid 2, van de regels van Wenen is, voor zover de in de regels van Wenen gebruikte termen verwijzen naar natuurlijke personen (nadruk toegevoegd), de gekozen vorm van toepassing op alle geslachten. Artikel 16, lid 1, van de Weense regels verwijst op vergelijkbare wijze naar "personen" met betrekking tot het recht van partijen om arbiters aan te wijzen.
Ondanks mogelijke overwegingen van brede partijautonomie in internationale arbitrage zou de benoeming van een AI-systeem als arbiter dus in strijd zijn met de ACCP en ontoelaatbaar zijn volgens de regels van Wenen. Deze overwegingen worden bewezen door overweging 61 van de EU-AI Act, waarin staat dat: "het gebruik van AI-instrumenten kan de beslissingsbevoegdheid van rechters of de rechterlijke onafhankelijkheid ondersteunen, maar mag deze niet vervangen: de uiteindelijke besluitvorming moet een door mensen gestuurde activiteit blijven."
Ondertussen moet worden opgemerkt dat elektronische technologieën als ondersteunend instrument actief worden gebruikt door de VIAC en worden weerspiegeld in de regels van Wenen:
volgens artikel 12 van de Regels van Wenen moeten conclusies en bewijsstukken elektronisch worden ingediend en ontvangt het secretariaat alle schriftelijke communicatie tussen het scheidsgerecht en de partijen in elektronische vorm;
overeenkomstig artikel 30, lid 1, van de Regels van Wenen kan het scheidsgerecht, met inachtneming van de standpunten van de partijen en de specifieke omstandigheden van de zaak, besluiten een mondelinge behandeling in persoon of met andere middelen te houden;
overeenkomstig artikel 36, lid 5, van de regels van Wenen kan het secretariaat een afschrift van de uitspraak in elektronische vorm toezenden.
Daarnaast lanceerde VIAC in 2021 het VIAC-portaal - een online case management platform gericht op communicatie en uitwisseling van documenten tussen de VIAC, de partijen en de arbiters of andere derde neutralen tijdens alle soorten VIAC-procedures.[9] Meer ter zake, in 2022 introduceerde VIAC een nieuw initiatief genaamd "Legal Tech Think Tank," dat gericht was op het verzamelen van de expertise en kennis van de impact van legal tech, cryptocurrency, blockchain en AI op het alternatieve geschillenbeslechtingslandschap.[10]
Verder heeft het Oostenrijkse Hooggerechtshof (Oberster Gerichtshof, hierna OGH) een uitspraak gedaan (zaak nr. 4Ob77/23m) over de vraag of het gepast is om AI-systemen te gebruiken om bedrijven (meestal MKB-bedrijven die geen eigen juridische afdelingen hebben) te verbinden met gematchte advocaat die ze nodig hebben, afhankelijk van zaakkwesties en praktijkgebieden.[11] Dit AI-systeem was ook in staat om juridisch onderzoek en mogelijke oplossingen te bieden voor gematchte advocaten, maar advocaten waren niet gebonden aan dit advies van AI. Op zijn beurt factureerde de door de AI gevonden advocaat na het uitvoeren van de dienst aan de cliënt, waarvan 25 procent werd ingehouden door het systeem. De Oostenrijkse balie spande een rechtszaak aan om het gebruik van dit systeem te verbieden op verschillende gronden, zoals vertrouwelijkheid, oneerlijke concurrentie en het algemene verbod op het aanbieden van juridische diensten door niet-juristen. Het Oostenrijkse Hooggerechtshof was het niet eens met het standpunt van de Oostenrijkse balie en verbood het gebruik van een AI-systeem met de beschreven functionaliteit niet. Het verklaarde echter dat het opleggen van een dergelijke vergoeding door het AI-systeem ontoelaatbaar is.
Hoewel de zaak niet direct betrekking had op internationale arbitrage, toont de beslissing van het Oostenrijkse Hooggerechtshof aan hoe ver kunstmatige intelligentie is doorgedrongen in de juridische sector. Tegelijkertijd zou een dergelijk model gerealiseerd kunnen worden wanneer partijen arbiters zoeken en selecteren voor hun geschillen.
Deze ontwikkelingen, initiatieven en jurisprudentie geven aan dat de trend om kunstmatige intelligentie als hulpmiddel te gebruiken in arbitrage niet onopgemerkt blijft in Oostenrijk en actief wordt geïmplementeerd en onderzocht, ook op VIAC-niveau.
Risico's en zorgen
Bij het analyseren van de ervaring met het gebruik van AI in internationale arbitrage is het noodzakelijk om de risico's van het gebruik ervan te noemen.
Het eerste risico is de zogenaamde "hallucinatie" van AI-systemen.[12] Omdat kunstmatige intelligentiesystemen zijn geconfigureerd om zo niet alle, dan toch veel vragen van gebruikers in een vrij beperkte tijd te beantwoorden, zijn er soms gevallen waarin er een gebrek aan informatie is (bijvoorbeeld als het vertrouwelijk is), waarin de kunstmatige intelligentie een glad klinkend antwoord genereert dat geheel of gedeeltelijk een fictie is. Dit probleem is zeer goed mogelijk, aangezien de nationale rechtbanken in sommige gevallen al te maken hebben gehad met situaties waarin partijen niet-bestaande jurisprudentie aanhaalden die was gegenereerd door kunstmatige intelligentie.[13] Dit geval illustreert de noodzaak voor advocaten of arbiters om de resultaten van kunstmatige intelligentiesystemen dubbel te controleren, aangezien ze nog verre van perfect zijn.
Het tweede risico is de onvrijwillige vooringenomenheid van kunstmatige intelligentie, die kan worden gereproduceerd in verband met een poging van kunstmatige intelligentie om informatie over bestaande trends in arbitrage of recht te analyseren. Dit probleem is met name relevant voor internationale arbitrage, aangezien vertrouwelijkheid een hoeksteen is van internationale arbitrage, en de informatie die kunstmatige intelligentie nodig heeft om tot de juiste conclusie te komen mogelijk gewoon niet beschikbaar is vanwege de vertrouwelijkheid. Daarnaast wordt het probleem van vooringenomenheid van AI aangepakt door de SVAMC-richtlijnen in verband met het zoeken naar en benoemen van personen als scheidsrechter, deskundige, raadsman of andere rollen in verband met arbitrages.[14]
Het derde probleem betreft alle soorten bewijs in internationale arbitrageprocedures, aangezien AI-systemen geavanceerd zijn in het creëren van vervalsingen van documenten, audio-, foto- en video-inhoud. De verschillen tussen origineel bewijs en door kunstmatige intelligentie gecreëerde vervalsingen zijn soms moeilijk te onderscheiden. In dit verband moet het initiatief worden ondersteund dat is uiteengezet in de SVAMC-richtsnoeren over het recht van het arbitragetribunaal om partijen te bestraffen met alle maatregelen die beschikbaar zijn onder het toepasselijke recht en de toepasselijke arbitrageregels of de lex arbitri (zoals bijvoorbeeld het verwijderen van het bewijs uit het dossier of het niet-ontvankelijk verklaren ervan).[15].
Het vierde risico van inbreuk op de vertrouwelijkheid zal altijd gepaard gaan met het gebruik van kunstmatige intelligentiesystemen, ook in internationale arbitrage, waar de privacykwestie bijzonder acuut is. Ervan uitgaande dat elk AI-systeem op elk moment kan haperen en privé-informatie kan lekken, moeten arbiters, partijvertegenwoordigers en arbitrale instellingen bijzonder voorzichtig zijn met het verzenden van vertrouwelijke informatie voor verwerking door AI.
Het belang van vertrouwelijkheid in internationale arbitrage vanuit het perspectief van het gebruik van AI-instrumenten wordt ook aan de orde gesteld in Principles Supporting the Use of AI in Alternative Dispute Resolution, ontwikkeld door The American Arbitration Association-International Centre for Dispute Resolution (hierna AAA-ICDR): "De beveiliging van gevoelige gegevens is van cruciaal belang in ADR, net als in het bedrijfsleven en de wet. De integratie van AI mag dit principe niet in gevaar brengen. Het voorkomen van ongeoorloofde toegang, lekken of misbruik van vertrouwelijke gegevens is essentieel. Speciale zorg is nodig bij grote datasets, ondoorzichtige modellen voor machinaal leren en onzekere dataprotocollen."[16]
Het is duidelijk dat wanneer twee grootschalige fenomenen, zoals kunstmatige intelligentie en internationale arbitrage, met elkaar in botsing komen, de hierboven genoemde lijst van risico's en uitdagingen van hun symbiose niet uitputtend is en in de loop van de tijd kan veranderen, maar de geschetste problemen zijn nu al van cruciaal belang voor de internationale arbitragemeenschap.
Conclusie
Kort samengevat zal het gebruik van AI in internationale arbitrage exponentieel groeien. De inzet van AI-systemen door arbiters, partijvertegenwoordigers en arbitrale instellingen roept veel vragen op met betrekking tot regelgeving en ethiek waarop de internationale arbitragemeenschap, internationale organisaties en bevoegde nationale autoriteiten nog geen antwoord hebben gevonden. Op dit moment worden kunstmatige intelligentiesystemen in internationale arbitrage alleen gezien als snelle en vaak efficiënte, maar nog steeds ondersteunende hulpmiddelen die arbiters, partijvertegenwoordigers of arbitrage-instellingen niet kunnen vervangen of vervangen.
Als we Oostenrijk als voorbeeld nemen, kunnen we concluderen dat de VIAC de nodige aandacht besteedt aan de kwestie van kunstmatige intelligentie. Sterker nog, aangezien het Oostenrijkse Hooggerechtshof (OGH) zich al heeft uitgesproken over kunstmatige intelligentie (hoewel niet in de context van arbitrage), zal de kwestie van het gebruik van kunstmatige intelligentie in arbitrage niet alleen verder worden ontwikkeld op het niveau van het EU-recht of het Oostenrijkse nationale recht, maar ook in de Oostenrijkse jurisprudentie.
Bronnen
- Verordening (EU) 2024/1689 van 13 juni 2024 tot vaststelling van geharmoniseerde regels inzake kunstmatige intelligentie en tot wijziging van Verordeningen (EG) nr. 300/2008, (EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 en (EU) 2019/2144 en Richtlijnen 2014/90/EU, (EU) 2016/797 en (EU) 2020/1828 (Wet kunstmatige intelligentie) - Voor de EER relevante tekst. Zie hier: https://eur-lex.europa.eu/eli/reg/2024/1689/oj.
- Voor een meer gedetailleerde beoordeling van de mogelijke toepassingen van AI in arbitrage, zie Shih, Sean en Chang, Chin-Ru, The Application of AI in Arbitration: How Far Away are we from AI Arbitrators? (31 mei 2024). Contemporary Asia Arbitration Journal, Vol. 17, No. 1, pp. 69-90, beschikbaar op SSRN: https://ssrn.com/abstract=4849614.
- Zie Para. 5.2. van het ICC Arbitration and ADR Commission Report on Leveraging Technology for Fair, Effective and Efficient International Arbitration Proceedings Beschikbaar op: https: //iccwbo.org/news-publications/arbitration-adr-rules-and-tools/icc-arbitration-and-adr-commission-report-on-leveraging-technology-for-fair-effective-and-efficient-international-arbitration-proceedings/.
- Zie voor een meer gedetailleerde beoordeling van het mogelijke gebruik van AI bij het beheer van rechtszaken in arbitrage, Ahmet Cemil Yıldırım, The use of technology in case management in international investment arbitration: a realistic approach, Arbitration International, Volume 40, Issue 2, June 2024, pp. 233-250, Available at: https: //doi.org/10.1093/arbint/aiae010.
- Zie SVAMC Guidelines on the Use of Artificial Intelligence in Arbitration 1e editie 2024 Beschikbaar op: https: //svamc.org/svamc-publishes-guidelines-on-the-use-of-artificial-intelligence-in-arbitration/
- Zie BCLP Arbitration Survey 2023 over het gebruik van kunstmatige intelligentie in internationale arbitrage Beschikbaar op: https: //www.bclplaw.com/en-US/events-insights-news/bclp-arbitration-survey-2023.html
- Zie Maxim Osadchiy & Erika Santini, Are Arbitral Institutions Using Artificial Intelligence? The State of Play in Adopting AI, KLUWER ARB. BLOG (8 mei 2024), Beschikbaar op: https: //arbitrationblog.kluwerarbitration.com/2024/05/08/are-arbitral-institutions-using-artificial-intelligence-the-state-of-play-in-adopting-ai/
- Zie Maxi Scherer, We moeten praten over ... de EU AI Act, KLUWER ARB. BLOG (27 mei 2024), Beschikbaar op: https: //arbitrationblog.kluwerarbitration.com/2024/05/27/we-need-to-talk-about-the-eu-ai-act/
- Zie voor meer: https: //viac.eu/en/arbitration/viac-portal
- Zie voor meer: https: //viac.eu/en/news/viac-getting-tech-savvy-viac-launches-legal-tech-think-tank
- Oostenrijks Hooggerechtshof 4Ob77/23m van 27 juni 2023, Beschikbaar op: https: //www.ris.bka.gv.at/Dokument.wxe?Abfrage=Justiz&Dokumentnummer=JJT_20230627_OGH0002_0040OB00077_23M0000_000&Suchworte=RS0079640
- Zie de SVAMC-richtsnoeren inzake het gebruik van kunstmatige intelligentie in arbitrage, p.16.
- Mata v. Avianca, Inc., 678 F. Supp. 3d 443 (S.D.N.Y. 2023) Beschikbaar op: https: //casetext.com/case/mata-v-avianca-inc-3
- Zie de SVAMC-richtlijnen over het gebruik van kunstmatige intelligentie in arbitrage, p.16.
- Ibid. p.19.
- Principles Supporting the Use of AI in Alternative Dispute Resolution, American Arbitration Association (nov. 2023) Beschikbaar op: https: //go.adr.org/rs/294-SFS-516/images/Principles%20Supporting%20the%20Use%20of%20AI%20in%20Alternative%20Dispute%20Resolution.pdf

