Langues

L'entrée dans une nouvelle ère : Les perspectives autrichiennes de déploiement et de régulation de l'IA dans l'arbitrage international

Publications: mars 19, 2025

Introduction

L'intelligence artificielle (ci-après "IA") dans les modes alternatifs de résolution des litiges et l'arbitrage international, en particulier, n'est plus un conte d'un avenir lointain mais une réalité objective qui a pris forme législative l'été dernier au niveau du droit de l'Union européenne.

L'adoption de la loi sur l'intelligence artificielle de l'Union européenne, le règlement (UE) 2024/1689 (ci-après dénommé "loi sur l'IA de l'UE"), n'a laissé personne indifférent. La loi sur l'IA de l'UE affecte de multiples domaines de la société, et les modes alternatifs de règlement des litiges, dont l'arbitrage international constitue une part substantielle, ne font pas exception[1].

Considérant un large éventail d'approches diverses et contournant les discussions techniques sur le concept de définition de l'IA, cet article privilégie la définition de l'IA exprimée à l'article 3, paragraphe 1, de l'Acte sur l'IA de l'UE.

Cet article examinera l'impact de l'IA et son déploiement dans l'arbitrage international, ainsi que les problèmes et controverses potentiels découlant de l'utilisation de l'IA dans l'arbitrage international à travers le prisme de la réglementation autrichienne.

Déploiement et utilisation de l'IA dans l'arbitrage international

La popularité croissante de l'intelligence artificielle a conduit au déploiement de ces technologies dans l'arbitrage international et à une tentative de catégoriser et de comprendre les limites, les avantages et les risques potentiels d'une telle symbiose.
La classification suivante de l'utilisation de l'IA dans l'arbitrage international est digne d'intérêt :

  • prédiction d'une affaire ou d'une décision ;

  • rédaction d'une clause d'arbitrage ou d'une convention d'arbitrage ;

  • le choix de l'arbitre ou des arbitres ;

  • rédaction de documents juridiques et de sentences arbitrales ;

  • l'examen de documents et l'analyse de données[2].

Cette liste n'est certainement pas exhaustive en raison du degré important d'autonomie des parties dans l'arbitrage international et du caractère unique de l'IA, qui est capable de résoudre (même si ce n'est pas sans erreurs) des tâches complètement différentes. Par exemple, l'IA peut également traduire un grand nombre de documents dans différentes langues, compte tenu de l'internationalité des litiges dans l'arbitrage[3] ou l'IA pourrait être utilisée par les institutions d'arbitrage à des fins de gestion des dossiers[4].

Une autre approche de la classification de l'utilisation de l'IA dans l'arbitrage international est reflétée dans les lignes directrices du Silicon Valley Arbitration and Mediation Center (ci-après SVAMC), qui sont divisées en trois parties en fonction des acteurs utilisant l'IA :

  • Lignes directrices pour tous les participants aux arbitrages ;

  • Lignes directrices pour les parties et leurs représentants ;

  • Lignes directrices pour les arbitres[5].

Ces lignes directrices revêtent une importance particulière car elles constituent la première tentative, au niveau des normes internationales complémentaires, de mettre en œuvre et de réglementer l'utilisation de l'IA dans les procédures d'arbitrage international, en tenant compte des concepts fondamentaux de l'arbitrage international tels que : la confidentialité, les règles de droit impératives, le respect des procédures, la non-délégation par les arbitres de leurs responsabilités en matière de prise de décision, etc.

La popularité susmentionnée de l'utilisation de l'IA dans l'arbitrage international est également prouvée par plusieurs enquêtes récentes :

  • selon l'enquête annuelle sur l'arbitrage 2023 de BCLP sur l'utilisation de l'intelligence artificielle dans l'arbitrage international, 90 % des personnes interrogées savaient qu'il existait des outils d'IA capables d'effectuer une série de tâches dans l'arbitrage international ;[6].

  • Comme l'indique le Survey of Arbitral Institutions for the ICCA Congress Panel on AI, sur les 11 institutions qui ont répondu, 4 ont indiqué avoir mis en œuvre l'IA sous une forme ou une autre, et toutes les institutions qui ont répondu ont déclaré reconnaître le potentiel de l'IA et envisager de l'adopter ou non à l'avenir[7].

Par conséquent, tout phénomène gagnant une telle popularité tout en présentant des risques évidents (qui seront abordés plus loin dans l'article) et en étant d'une grande utilité pour la société et ses utilisateurs sera inévitablement réglementé par les autorités compétentes.

Réglementation de l'IA dans l'arbitrage dans l'UE et en Autriche

La loi européenne sur l'intelligence artificielle

La loi européenne sur l'intelligence artificielle, importante non seulement par sa portée et sa taille mais aussi par son impact sur le destin futur de l'IA, n'a pas éludé la question du déploiement de l'IA dans les modes alternatifs de résolution des litiges. La pierre angulaire de la loi européenne sur l'IA est l'"approche fondée sur les risques", selon laquelle l'utilisation des systèmes d'IA est divisée en catégories correspondant au niveau de risque que le système d'IA peut causer à la santé publique, à la sécurité publique, aux droits fondamentaux ou à la société dans son ensemble.

Conformément au considérant 61 de la loi de l'UE sur l'IA, pour faire face aux risques de biais, d'erreurs et d'opacité potentiels, il convient de qualifier de systèmes d'IA à haut risque les systèmes d'IA destinés à être utilisés par une autorité judiciaire ou en son nom pour aider les autorités judiciaires à rechercher et à interpréter les faits et le droit et à appliquer le droit à un ensemble concret de faits. Les systèmes d'IA destinés à être utilisés par les organismes de règlement extrajudiciaire des litiges à ces fins devraient également être considérés comme présentant un risque élevé lorsque les résultats des procédures de règlement extrajudiciaire des litiges produisent des effets juridiques pour les parties. L'utilisation d'outils d'IA peut soutenir le pouvoir de décision des juges ou l'indépendance judiciaire, mais ne doit pas les remplacer : la prise de décision finale doit rester une activité humaine. La classification des systèmes d'IA comme étant à haut risque ne devrait toutefois pas s'étendre aux systèmes d'IA destinés à des activités administratives purement auxiliaires qui n'affectent pas l'administration réelle de la justice dans des cas individuels, telles que l'anonymisation ou la pseudonymisation de décisions judiciaires, de documents ou de données, la communication entre le personnel, les tâches administratives.

Le libellé du considérant 61, tel que "organismes de règlement extrajudiciaire des litiges", fait probablement référence aux arbitres dans le cadre de l'arbitrage international. Une position similaire est exprimée dans la communauté de l'arbitrage international[8].

Ainsi, l'utilisation de l'IA par les arbitres pour rechercher et interpréter les faits et le droit et pour appliquer le droit à un ensemble concret de faits lorsque les résultats de la procédure de résolution alternative des litiges produisent des effets juridiques pour les parties pourrait être considérée comme une utilisation d'un système à haut risque en vertu de l'article 6, paragraphe 2, de l'Acte UE sur l'IA en raison de la référence à la procédure de résolution alternative des litiges dans le considérant 61 et l'annexe III, point 8, sous a).

Par conséquent, l'utilisation de l'IA dans les procédures arbitrales par les arbitres pourrait impliquer certaines obligations en vertu de l'article 26 de l'Acte UE sur l'IA et même des sanctions en vertu de l'article 99 de l'Acte UE sur l'IA pour les personnes déployant des activités à haut risque en cas de non-conformité.

Il convient toutefois de préciser que la pratique de l'application de l'acte AI de l'UE est encore loin d'être formée en raison des différentes périodes de transition prévues à l'article 113 de l'acte AI de l'UE, et que ces considérations ne sont que théoriques à ce stade.

Législation nationale autrichienne et évolution de la VIAC

Lors de la dernière mise à jour de la loi autrichienne sur l'arbitrage, contenue dans les articles 577 à 618 du code autrichien de procédure civile (ci-après "ACCP"), en 2013, les systèmes d'IA ne jouaient pas le rôle prépondérant qu'ils occupent aujourd'hui. Néanmoins, cela ne constitue pas un obstacle à l'évaluation des dispositions existantes de la loi autrichienne sur l'arbitrage quant à leur éventuelle corrélation avec les systèmes d'IA.

Conformément à l'article 586, paragraphe 1, de l'ACCP, les parties sont libres de convenir du nombre d'arbitres. Si les parties ont toutefois convenu d'un nombre pair d'arbitres, elles désignent une personne supplémentaire (c'est nous qui soulignons) en tant que président. En outre, conformément à la section 588 (1) de l'ACCP, lorsqu'une personne (c'est nous qui soulignons) a l'intention d'assumer la fonction d'arbitre, elle (c'est nous qui soulignons) doit révéler toutes les circonstances susceptibles de susciter des doutes quant à son impartialité ou son indépendance, ou qui sont contraires à l'accord des parties.

La formulation susmentionnée indique raisonnablement que la nomination d'un système d'IA en tant qu'arbitre serait probablement considérée comme une violation de la loi autrichienne sur l'arbitrage puisque le critère de la "personnalité" ne serait pas rempli dans le cas d'une telle nomination.

Dans le même ordre d'idées, le règlement d'arbitrage du Centre international d'arbitrage de Vienne (ci-après "VIAC") (ci-après "règlement de Vienne") exclut implicitement la nomination de systèmes d'intelligence artificielle en tant qu'arbitres. Selon l'article 6, paragraphe 2, du règlement de Vienne, dans la mesure où les termes utilisés dans le règlement de Vienne se réfèrent à des personnes physiques (c'est nous qui soulignons), la forme choisie s'applique à tous les genres. L'article 16, paragraphe 1, des Règles de Vienne fait également référence à des "personnes" en ce qui concerne le droit des parties de nommer des arbitres.

Par conséquent, nonobstant les considérations potentielles d'une large autonomie des parties dans l'arbitrage international, la nomination d'un système d'IA en tant qu'arbitre serait contraire à l'ACCP et irrecevable en vertu des règles de Vienne. Ces considérations sont confirmées par le considérant 61 de l'Acte de l'UE sur l'IA, qui stipule que : "l'utilisation d'outils d'IA peut soutenir le pouvoir décisionnel des juges ou l'indépendance judiciaire, mais ne doit pas le remplacer : la prise de décision finale doit rester une activité conduite par l'homme".

Entre-temps, il convient de noter que les technologies électroniques en tant qu'outils de soutien sont activement utilisées par la VIAC et sont reflétées dans les Règles de Vienne :

  • conformément à l'article 12 des règles de Vienne, la requête et les pièces doivent être soumises par voie électronique et le secrétariat doit recevoir toutes les communications écrites entre le tribunal arbitral et les parties sous forme électronique ;

  • conformément à l'article 30, paragraphe 1, du règlement de Vienne, le tribunal arbitral peut décider, en tenant dûment compte des points de vue des parties et des circonstances particulières de l'affaire, de tenir une audience en personne ou par d'autres moyens ;

  • conformément à l'article 36(5) des Règles de Vienne, le Secrétariat peut envoyer une copie de la sentence sous forme électronique.

En outre, en 2021, le VIAC a lancé le portail du VIAC - une plateforme de gestion de cas en ligne visant à la communication et à l'échange de documents entre le VIAC, les parties et les arbitres ou autres tiers neutres pendant tous les types de procédures du VIAC[9] Plus précisément, en 2022, le VIAC a introduit une nouvelle initiative appelée " Legal Tech Think Tank ", qui visait à recueillir l'expertise et les connaissances de l'impact de la legal tech, de la cryptocurrency, de la blockchain et de l'IA sur le paysage du règlement extrajudiciaire des différends[10].

En outre, la Cour suprême autrichienne (Oberster Gerichtshof, ci-après OGH) a rendu une décision (affaire n° 4Ob77/23m) sur la question de savoir s'il est approprié d'utiliser des systèmes d'IA pour mettre en relation des entreprises (principalement des PME qui ne disposent pas de leur propre service juridique) avec l'avocat jumelé dont elles ont besoin en fonction des questions liées à l'affaire et des domaines de pratique[11]. Ce système d'IA était également en mesure de fournir des recherches juridiques et des solutions possibles pour les avocats jumelés, mais les avocats n'étaient pas liés par ces conseils de l'IA. À son tour, l'avocat trouvé par l'IA, après avoir fourni le service, facturait le client, dont 25 % étaient retenus par le système. Le barreau autrichien a intenté une action en justice pour interdire l'utilisation de ce système pour plusieurs raisons, telles que la confidentialité, la concurrence déloyale et l'interdiction générale pour les non-avocats de fournir des services juridiques. La Cour suprême autrichienne n'a pas suivi la position du barreau autrichien et n'a pas interdit l'utilisation d'un système d'IA doté de la fonctionnalité décrite. Toutefois, elle a déclaré que l'imposition d'une telle redevance par le système d'IA était inadmissible.

Même si l'affaire n'était pas directement liée à l'arbitrage international, la décision de la Cour suprême autrichienne montre à quel point l'intelligence artificielle a été intégrée dans le secteur juridique. Dans le même temps, un tel modèle pourrait être mis en œuvre lorsque les parties recherchent et sélectionnent des arbitres pour leurs litiges.
Ces développements, initiatives et jurisprudences indiquent que la tendance à utiliser l'intelligence artificielle dans l'arbitrage en tant qu'outil auxiliaire n'est pas passée inaperçue en Autriche et fait l'objet d'une mise en œuvre et d'une recherche actives, y compris au niveau du VIAC.

Risques et préoccupations

En analysant l'expérience de l'utilisation de l'IA dans l'arbitrage international, il est nécessaire de mentionner les risques associés à son utilisation.

Le premier risque est ce que l'on appelle l'"hallucination" des systèmes d'IA[12] Étant donné que les systèmes d'intelligence artificielle sont configurés pour répondre, sinon à toutes, du moins à de nombreuses demandes des utilisateurs dans un laps de temps assez limité, il arrive parfois, en cas de manque d'informations (par exemple, si elles sont confidentielles), que l'intelligence artificielle génère une réponse à la sonorité agréable qui est entièrement ou partiellement une fiction. Ce problème est tout à fait envisageable, puisque déjà, dans certains cas, les tribunaux nationaux ont traité des situations où les parties avaient cité une jurisprudence inexistante générée par l'IA[13] Ce cas illustre la nécessité pour les avocats ou les arbitres de revérifier les résultats des systèmes d'intelligence artificielle, car ils sont encore loin d'être parfaits.

Le deuxième risque est le biais involontaire de l'intelligence artificielle, qui peut être reproduit dans le cadre d'une tentative d'analyse par l'intelligence artificielle d'informations sur les tendances existantes en matière d'arbitrage ou de droit. Ce problème est particulièrement pertinent pour l'arbitrage international, car la confidentialité est une pierre angulaire de l'arbitrage international, et les informations dont l'intelligence artificielle a besoin pour parvenir à la bonne conclusion peuvent tout simplement ne pas être disponibles en raison de leur confidentialité. En outre, le problème de la partialité de l'intelligence artificielle est abordé dans les lignes directrices du SVAMC en ce qui concerne la recherche et la nomination d'individus en tant qu'arbitres, experts, conseillers ou tout autre rôle dans le cadre d'un arbitrage[14].

Le troisième problème concerne tous les types de preuves dans les procédures d'arbitrage international, depuis que les systèmes d'IA sont devenus plus performants dans la création de faux documents, de contenus audio, photo et vidéo. Il est parfois difficile de faire la distinction entre les preuves originales et les faux créés par l'intelligence artificielle. À cet égard, il convient de soutenir l'initiative énoncée dans les lignes directrices du SVAMC concernant le droit du tribunal arbitral de sanctionner une partie par toute mesure prévue par le droit applicable et le règlement d'arbitrage applicable ou la lex arbitri (comme, par exemple, radier la preuve du dossier ou la considérer comme irrecevable)[15].

Le quatrième risque de violation de la confidentialité accompagnera toujours l'utilisation de systèmes d'intelligence artificielle, y compris dans l'arbitrage international, où la question de la protection de la vie privée est particulièrement aiguë. Partant du principe que tout système d'IA peut à tout moment connaître des défaillances et divulguer des informations privées, les arbitres, les représentants des parties et les institutions arbitrales devraient être particulièrement prudents lorsqu'ils transmettent des informations confidentielles à l'IA pour qu'elle les traite.

L'importance de la confidentialité dans l'arbitrage international du point de vue de l'utilisation des outils d'IA est également soulevée dans les Principes soutenant l'utilisation de l'IA dans les modes alternatifs de résolution des conflits élaborés par l'American Arbitration Association-International Centre for Dispute Resolution (ci-après AAA-ICDR) : "La protection des données sensibles est essentielle dans le cadre du règlement extrajudiciaire des litiges, tout comme dans les affaires et le droit. L'intégration de l'IA ne doit pas compromettre ce principe. Il est essentiel d'empêcher l'accès non autorisé, la fuite ou l'utilisation abusive de données confidentielles. Une attention particulière est nécessaire pour les grands ensembles de données, les modèles d'apprentissage automatique opaques et les protocoles de données incertains"[16].

À l'évidence, lorsque deux phénomènes de grande ampleur, tels que l'intelligence artificielle et l'arbitrage international, entrent en collision, la liste des risques et des défis de leur symbiose mentionnée ci-dessus n'est pas exhaustive et peut évoluer avec le temps, mais les problèmes soulignés sont déjà cruciaux pour la communauté de l'arbitrage international.

Conclusion

En résumé, l'utilisation de l'IA dans l'arbitrage international connaîtra une croissance exponentielle. Le déploiement de systèmes d'IA par les arbitres, les représentants des parties et les institutions arbitrales pose de nombreuses questions réglementaires et éthiques auxquelles la communauté de l'arbitrage international, les organisations internationales et les autorités nationales compétentes n'ont pas encore trouvé de réponse. À ce stade, les systèmes d'intelligence artificielle dans l'arbitrage international ne sont perçus que comme des outils rapides et souvent efficaces, mais toujours auxiliaires, qui ne peuvent pas remplacer ou supplanter les arbitres, les représentants des parties ou les institutions arbitrales.

Si l'on prend l'exemple de l'Autriche, on peut conclure que la VIAC accorde l'attention qu'elle mérite à la question de l'intelligence artificielle. De plus, étant donné que la Cour suprême autrichienne (OGH) a déjà parlé de l'intelligence artificielle (bien que ce ne soit pas dans le contexte de l'arbitrage), la question de l'utilisation de l'intelligence artificielle dans l'arbitrage sera développée non seulement au niveau du droit de l'UE ou du droit national autrichien, mais aussi dans la jurisprudence autrichienne.

Ressources

  1. Règlement (UE) 2024/1689 du 13 juin 2024 établissant des règles harmonisées en matière d'intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (loi sur l'intelligence artificielle) - Texte présentant de l'intérêt pour l'EEE. Voir ici : https://eur-lex.europa.eu/eli/reg/2024/1689/oj.
  2. Pour une évaluation plus détaillée des applications possibles de l'IA dans l'arbitrage, voir Shih, Sean et Chang, Chin-Ru, The Application of AI in Arbitration : How Far Away are we from AI Arbitrators ? (31 mai 2024). Contemporary Asia Arbitration Journal, Vol. 17, No. 1, pp. 69-90, disponible sur SSRN : https://ssrn.com/abstract=4849614
  3. Voir le paragraphe 5.2. de l'arbitrage de la CCI. 5.2. du rapport de la Commission d'arbitrage et d'ADR de la CCI sur l'utilisation de la technologie pour des procédures d'arbitrage international équitables, efficaces et efficientes, disponible à l'adresse suivante : https://iccwbo.org/news-publications/arbitration-adr-rules-and-tools/icc-arbitration-and-adr-commission-report-on-leveraging-technology-for-fair-effective-and-efficient-international-arbitration-proceedings/.
  4. Pour une évaluation plus détaillée de l'utilisation possible de l'IA dans la gestion des dossiers dans l'arbitrage, voir, Ahmet Cemil Yıldırım, The use of technology in case management in international investment arbitration : a realistic approach, Arbitration International, Volume 40, Issue 2, June 2024, pp. 233-250, Disponible sur : doi.org/10.1093/arbint/aiae010.
  5. Voir les lignes directrices du SVAMC sur l'utilisation de l'intelligence artificielle dans l'arbitrage, 1re édition, 2024, disponibles à l'adresse : https://svamc.org/svamc-publishes-guidelines-on-the-use-of-artificial-intelligence-in-arbitration/.
  6. Voir BCLP Arbitration Survey 2023 sur l'utilisation de l'intelligence artificielle dans l'arbitrage international Disponible à l'adresse : https://www.bclplaw.com/en-US/events-insights-news/bclp-arbitration-survey-2023.html
  7. Voir Maxim Osadchiy & Erika Santini, Are Arbitral Institutions Using Artificial Intelligence ? The State of Play in Adopting AI, KLUWER ARB. BLOG (8 mai 2024), disponible à l'adresse : https://arbitrationblog.kluwerarbitration.com/2024/05/08/are-arbitral-institutions-using-artificial-intelligence-the-state-of-play-in-adopting-ai/
  8. Voir Maxi Scherer, " We Need to Talk About ... the EU AI Act ! ", KLUWER ARB. BLOG (27 mai 2024), disponible à l'adresse : https://arbitrationblog.kluwerarbitration.com/2024/05/27/we-need-to-talk-about-the-eu-ai-act/
  9. Pour plus d'informations, voir : https://viac.eu/en/arbitration/viac-portal
  10. Pour plus d'informations, voir : https://viac.eu/en/news/viac-getting-tech-savvy-viac-launches-legal-tech-think-tank
  11. Cour suprême autrichienne 4Ob77/23m du 27 juin 2023, disponible à l'adresse : https://www.ris.bka.gv.at/Dokument.wxe?Abfrage=Justiz&Dokumentnummer=JJT_20230627_OGH0002_0040OB00077_23M0000_000&Suchworte=RS0079640
  12. Voir les lignes directrices du SVAMC sur l'utilisation de l'intelligence artificielle dans l'arbitrage, p. 16.
  13. Mata v. Avianca, Inc, 678 F. Supp. 3d 443 (S.D.N.Y. 2023) Disponible à l'adresse : https://casetext.com/case/mata-v-avianca-inc-3
  14. Voir les lignes directrices du SVAMC sur l'utilisation de l'intelligence artificielle dans l'arbitrage, p. 16.
  15. Ibid. p.19.
  16. Principles Supporting the Use of AI in Alternative Dispute Resolution, American Arbitration Association (Nov. 2023) Disponible à l'adresse : https://go.adr.org/rs/294-SFS-516/images/Principles%20Supporting%20the%20Use%20of%20AI%20in%20Alternative%20Dispute%20Resolution.pdf