Lingue

L'inizio di una nuova era: Le prospettive austriache di impiego e regolamentazione dell'IA nell'arbitrato internazionale

Pubblicazioni: marzo 19, 2025

Introduzione

L'intelligenza artificiale (di seguito IA) nella risoluzione alternativa delle controversie e nell'arbitrato internazionale, in particolare, non è più un racconto del futuro remoto, ma una realtà oggettiva che ha trovato forma legislativa la scorsa estate a livello di diritto dell'Unione europea.

L'adozione della rivoluzionaria e attesa legge sull'intelligenza artificiale dell'Unione europea, il regolamento (UE) 2024/1689 (di seguito legge sull'IA), non ha lasciato quasi nessuno indifferente. La legge europea sull'intelligenza artificiale influisce su molteplici settori della società e la risoluzione alternativa delle controversie, di cui una parte sostanziale è costituita dall'arbitrato internazionale, non fa eccezione[1].

Prendendo in considerazione un'ampia gamma di approcci diversi e aggirando le discussioni tecniche sul concetto di IA, questo articolo è favorevole alla definizione di IA espressa nell'articolo 3 (1) della legge europea sull'IA.

Questo articolo analizzerà l'impatto dell'IA e il suo impiego nell'arbitrato internazionale, nonché i potenziali problemi e le controversie derivanti dall'utilizzo dell'IA nell'arbitrato internazionale attraverso la lente della normativa austriaca.

Impiego e utilizzo dell'IA nell'arbitrato internazionale

Il significativo aumento di popolarità dell'intelligenza artificiale ha portato all'impiego di tali tecnologie nell'arbitrato internazionale e al tentativo di classificare e comprendere i limiti, i benefici e i potenziali rischi di tale simbiosi.
La seguente classificazione dell'uso dell'IA nell'arbitrato internazionale è degna di nota:

  • previsione di casi o decisioni;

  • redazione di una clausola arbitrale o di una convenzione arbitrale;

  • scelta degli arbitri;

  • redazione di documenti legali e lodi arbitrali;

  • revisione di documenti e analisi di dati.[2]

Questo elenco non è certamente esaustivo, dato il notevole grado di autonomia delle parti nell'arbitrato internazionale e l'unicità dell'IA, che è in grado di risolvere (anche se non senza errori) compiti completamente diversi. Ad esempio, l'IA può anche tradurre una vasta gamma di documenti in diverse lingue, considerando l'internazionalità delle controversie nell'arbitrato[3] o l'IA potrebbe essere utilizzata dalle istituzioni arbitrali per la gestione dei casi[4].

Un altro approccio per classificare l'uso dell'IA nell'arbitrato internazionale si riflette nelle Linee guida del Silicon Valley Arbitration and Mediation Center (di seguito SVAMC), che sono suddivise in tre parti a seconda dei soggetti che utilizzano l'IA:

  • Linee guida per tutti i partecipanti agli arbitrati;

  • Linee guida per le parti e i rappresentanti delle parti;

  • Linee guida per gli arbitri.[5]

Queste Linee Guida sono di particolare importanza perché costituiscono il primo tentativo a livello di standard internazionali integrativi di implementare e regolamentare l'uso dell'IA nei procedimenti arbitrali internazionali, tenendo conto dei concetti cardine dell'arbitrato internazionale quali: riservatezza, norme di legge inderogabili, giusto processo, non delega delle responsabilità decisionali da parte degli arbitri, ecc.

La suddetta popolarità dell'utilizzo dell'IA nell'arbitrato internazionale è dimostrata anche da diverse indagini recenti:

  • secondo il BCLP Annual Arbitration Survey 2023 sull'uso dell'intelligenza artificiale nell'arbitrato internazionale, il 90% degli intervistati era a conoscenza dell'esistenza di strumenti di IA in grado di svolgere una serie di compiti nell'arbitrato internazionale;[6]

  • Come indicato dal sondaggio sulle istituzioni arbitrali per il panel del Congresso ICCA sull'IA, delle 11 istituzioni che hanno risposto, 4 hanno dichiarato di aver implementato l'IA in qualche forma e tutte le istituzioni rispondenti hanno affermato di riconoscere il potenziale dell'IA e di stare valutando se e come adottarla in futuro.[7]

Di conseguenza, qualsiasi fenomeno che guadagna una tale popolarità, pur presentando rischi evidenti (che verranno affrontati più avanti nell'articolo) e apportando grandi benefici alla società e ai suoi utenti, sarà inevitabilmente regolamentato dalle autorità competenti.

Regolamentazione dell'IA nell'arbitrato nell'UE e in Austria

La legge UE sull'intelligenza artificiale

La legge europea sull'intelligenza artificiale, significativa non solo per la sua portata e le sue dimensioni, ma anche per il suo impatto sul futuro destino dell'IA, non ha eluso la questione dell'impiego dell'IA nella risoluzione alternativa delle controversie. La pietra miliare della legge europea sull'IA è l'"approccio basato sul rischio", in base al quale l'uso dei sistemi di IA è suddiviso in categorie corrispondenti all'entità del rischio che il sistema di IA può causare alla salute pubblica, alla sicurezza, ai diritti fondamentali o alla società nel suo complesso.

Ai sensi del considerando 61 della legge UE sull'IA, per affrontare i rischi di potenziali pregiudizi, errori e opacità, è opportuno qualificare come ad alto rischio i sistemi di IA destinati a essere utilizzati da un'autorità giudiziaria o per suo conto per assistere le autorità giudiziarie nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione del diritto a un insieme concreto di fatti. Anche i sistemi di IA destinati a essere utilizzati dagli organismi di risoluzione alternativa delle controversie per tali scopi dovrebbero essere considerati ad alto rischio quando i risultati dei procedimenti di risoluzione alternativa delle controversie producono effetti giuridici per le parti. L'uso di strumenti di IA può supportare il potere decisionale dei giudici o l'indipendenza giudiziaria, ma non deve sostituirlo: il processo decisionale finale deve rimanere un'attività guidata dall'uomo. La classificazione dei sistemi di IA come ad alto rischio non dovrebbe tuttavia estendersi ai sistemi di IA destinati ad attività amministrative puramente accessorie che non influiscono sull'effettiva amministrazione della giustizia nei singoli casi, come l'anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale e i compiti amministrativi.

La formulazione del considerando 61, come "organismi alternativi di risoluzione delle controversie", si riferisce probabilmente agli arbitri nell'arbitrato internazionale. Una posizione simile è espressa dalla comunità arbitrale internazionale.[8]

Pertanto, l'uso dell'IA da parte degli arbitri nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione del diritto a un insieme concreto di fatti, quando i risultati del procedimento alternativo di risoluzione delle controversie producono effetti giuridici per le parti, potrebbe essere considerato un uso del sistema ad alto rischio ai sensi dell'articolo 6, paragrafo 2, dell'Atto dell'Unione europea sull'IA, a causa del riferimento alla procedura ADR nel considerando 61 e nell'allegato III (8) (a).

Pertanto, l'utilizzo dell'IA nei procedimenti arbitrali da parte degli arbitri potrebbe comportare alcuni obblighi ai sensi dell'articolo 26 della legge europea sull'IA e persino sanzioni ai sensi dell'articolo 99 della legge europea sull'IA per chi impiega attività ad alto rischio in caso di non conformità.

Tuttavia, è necessario precisare che la pratica dell'applicazione della legge europea sull'AI è ancora lontana dall'essere formata a causa dei diversi periodi di transizione delineati nell'articolo 113 della legge europea sull'AI, e queste considerazioni sono solo teoriche in questa fase.

La legislazione nazionale austriaca e gli sviluppi del VIAC

L'ultima volta che la legge austriaca sull'arbitrato, contenuta nelle sezioni da 577 a 618 del Codice di procedura civile austriaco (di seguito ACCP), è stata aggiornata nel 2013, i sistemi di IA non avevano il ruolo di primo piano che hanno oggi. Tuttavia, ciò non costituisce un ostacolo alla valutazione delle disposizioni esistenti della legge austriaca sull'arbitrato per la loro possibile correlazione con i sistemi di IA.

Ai sensi dell'articolo 586 (1) ACCP, le parti sono libere di concordare il numero di arbitri. Tuttavia, se le parti si sono accordate su un numero pari di arbitri, queste devono nominare un'altra persona (corsivo aggiunto) come presidente. Inoltre, ai sensi dell'articolo 588 (1) dell'ACCP, quando una persona (corsivo aggiunto) intende assumere l'incarico di arbitro, (corsivo aggiunto) deve rivelare qualsiasi circostanza che possa dare adito a dubbi sulla sua imparzialità o indipendenza, o che sia in contrasto con l'accordo delle parti.

La suddetta formulazione indica ragionevolmente che la nomina di un sistema di AI come arbitro sarebbe probabilmente considerata una violazione della legge austriaca sull'arbitrato, poiché il criterio della "personalità" non sarebbe soddisfatto in caso di tale nomina.

Analogamente, il Regolamento arbitrale del Centro arbitrale internazionale di Vienna (di seguito "VIAC") (di seguito "Regolamento di Vienna") esclude implicitamente la nomina di sistemi di intelligenza artificiale come arbitri. Ai sensi dell'articolo 6, paragrafo 2, del Regolamento di Vienna, nella misura in cui i termini utilizzati nel Regolamento di Vienna si riferiscono a persone fisiche (sottolineatura aggiunta), la forma scelta si applica a tutti i generi. Anche l'articolo 16 (1) delle Regole di Vienna fa riferimento alle "persone" per quanto riguarda il diritto delle parti di nominare gli arbitri.

Pertanto, nonostante le potenziali considerazioni sull'ampia autonomia delle parti nell'arbitrato internazionale, la nomina di un sistema di IA come arbitro sarebbe contraria all'ACCP e inammissibile ai sensi delle Regole di Vienna. Queste considerazioni sono comprovate dal considerando 61 dell'Atto UE sull'IA, che afferma che: "l'uso di strumenti di IA può supportare il potere decisionale dei giudici o l'indipendenza giudiziaria, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un'attività guidata dall'uomo".

Nel frattempo, va notato che le tecnologie elettroniche come strumento di supporto sono utilizzate attivamente dalla VIAC e si riflettono nelle Regole di Vienna:

  • ai sensi dell'articolo 12 delle Regole di Vienna, le memorie e le prove devono essere presentate per via elettronica e la Segreteria deve ricevere tutte le comunicazioni scritte tra il tribunale arbitrale e le parti in forma elettronica;

  • ai sensi dell'articolo 30, paragrafo 1, del Regolamento di Vienna, tenuto conto delle opinioni delle parti e delle circostanze specifiche del caso, il tribunale arbitrale può decidere di tenere un'udienza orale di persona o con altri mezzi;

  • ai sensi dell'articolo 36, paragrafo 5, del Regolamento di Vienna, la Segreteria può inviare una copia del lodo in formato elettronico.

Inoltre, nel 2021 il VIAC ha lanciato il portale VIAC, una piattaforma di gestione dei casi online finalizzata alla comunicazione e allo scambio di documenti tra il VIAC, le parti e gli arbitri o altri terzi neutrali durante tutti i tipi di procedimenti VIAC.[9] Più precisamente, nel 2022 il VIAC ha introdotto una nuova iniziativa denominata "Legal Tech Think Tank", che mira a raccogliere le competenze e le conoscenze dell'impatto delle tecnologie legali, delle criptovalute, della blockchain e dell'IA sul panorama della risoluzione alternativa delle controversie.[10]

Inoltre, la Corte Suprema austriaca (Oberster Gerichtshof, di seguito OGH) ha emesso una decisione (caso n. 4Ob77/23m) sulla questione dell'opportunità di utilizzare sistemi di IA per mettere in contatto le imprese (per lo più PMI che non dispongono di un proprio ufficio legale) con gli avvocati abbinati di cui hanno bisogno a seconda delle questioni e delle pratiche.[11] Questo sistema di IA è stato anche in grado di fornire ricerche legali e possibili soluzioni per gli avvocati abbinati, ma gli avvocati non sono stati vincolati da questi consigli dell'IA. A sua volta, l'avvocato individuato dall'IA, dopo aver prestato il servizio, fatturava al cliente il 25 percento della cifra, che veniva trattenuta dal sistema. L'Ordine degli avvocati austriaco ha intentato una causa per vietare l'uso di questo sistema per diversi motivi, come la riservatezza, la concorrenza sleale e il divieto generale di fornire servizi legali da parte di non avvocati. La Corte Suprema austriaca non ha condiviso la posizione dell'Ordine e non ha vietato l'uso di un sistema di intelligenza artificiale con le funzionalità descritte. Tuttavia, ha dichiarato che l'imposizione di tale tariffa da parte del sistema di IA è inammissibile.

Anche se il caso non era direttamente collegato all'arbitrato internazionale, la decisione della Corte Suprema austriaca dimostra quanto l'intelligenza artificiale sia stata ampiamente incorporata nel settore legale. Allo stesso tempo, un modello simile potrebbe essere realizzato quando le parti cercano e selezionano gli arbitri per le loro controversie.
Questi sviluppi, iniziative e giurisprudenza indicano che la tendenza all'utilizzo dell'intelligenza artificiale nell'arbitrato come strumento ausiliario non passa inosservata in Austria e viene attivamente implementata e studiata, anche a livello di VIAC.

Rischi e preoccupazioni

Analizzando l'esperienza dell'utilizzo dell'IA nell'arbitrato internazionale, è necessario menzionare i rischi associati al suo impiego.

Il primo rischio è la cosiddetta "allucinazione" dei sistemi di IA.[12] Poiché i sistemi di intelligenza artificiale sono configurati per rispondere, se non a tutte, a molte richieste dell'utente in un lasso di tempo piuttosto limitato, a volte, in caso di mancanza di informazioni (ad esempio, se si tratta di informazioni confidenziali), l'intelligenza artificiale genera una risposta che suona liscia e che è in tutto o in parte una finzione. Questo problema è molto probabile, dato che già in alcuni casi i tribunali nazionali hanno affrontato situazioni in cui le parti hanno citato una giurisprudenza inesistente generata dall'intelligenza artificiale.[13] Questo caso illustra la necessità per gli avvocati o gli arbitri di controllare due volte i risultati dei sistemi di intelligenza artificiale, dato che sono ancora lontani dall'essere perfetti.

Il secondo rischio è rappresentato dai pregiudizi involontari dell'intelligenza artificiale, che possono riprodursi in relazione al tentativo dell'intelligenza artificiale di analizzare le informazioni sulle tendenze esistenti in materia di arbitrato o di diritto. Questo problema è particolarmente rilevante per l'arbitrato internazionale, poiché la riservatezza è una pietra miliare dell'arbitrato internazionale e le informazioni di cui l'intelligenza artificiale ha bisogno per giungere alla conclusione corretta potrebbero semplicemente non essere disponibili a causa della loro riservatezza. Inoltre, il problema della parzialità dell'intelligenza artificiale è affrontato dalle Linee guida SVAMC in relazione alla ricerca e alla nomina di individui come arbitri, esperti, consulenti o qualsiasi altro ruolo in relazione agli arbitrati.[14]

Il terzo problema riguarda qualsiasi tipo di prova nei procedimenti arbitrali internazionali, poiché i sistemi di IA sono diventati avanzati nella creazione di falsi di documenti, contenuti audio, foto e video. Le differenze tra le prove originali e i falsi creati dall'intelligenza artificiale sono talvolta difficili da distinguere. A questo proposito, va sostenuta l'iniziativa prevista dalle Linee guida SVAMC sul diritto del tribunale arbitrale di sanzionare le parti con qualsiasi misura disponibile ai sensi della legge applicabile e del regolamento arbitrale o della lex arbitri (come, ad esempio, cancellare le prove dal verbale o ritenerle inammissibili).[15]

Il quarto rischio di violazione della riservatezza accompagnerà sempre l'uso di sistemi di intelligenza artificiale, anche nell'arbitrato internazionale, dove la questione della privacy è particolarmente sentita. Partendo dal presupposto che qualsiasi sistema di intelligenza artificiale può avere un'anomalia e far trapelare informazioni private in qualsiasi momento, gli arbitri, i rappresentanti delle parti e le istituzioni arbitrali dovrebbero essere particolarmente cauti nel trasmettere informazioni riservate da elaborare con l'intelligenza artificiale.

L'importanza della riservatezza nell'arbitrato internazionale dal punto di vista dell'uso di strumenti di IA è sollevata anche nei Principles Supporting the Use of AI in Alternative Dispute Resolution (Principi a sostegno dell'uso dell'IA nella risoluzione alternativa delle controversie) sviluppati dall'American Arbitration Association-International Centre for Dispute Resolution (di seguito AAA-ICDR): "La salvaguardia dei dati sensibili è fondamentale nell'ADR, come negli affari e nella legge. L'integrazione dell'IA non dovrebbe compromettere questo principio. È essenziale prevenire l'accesso non autorizzato, la perdita o l'uso improprio di dati riservati. È necessario prestare particolare attenzione a grandi insiemi di dati, modelli di apprendimento automatico opachi e protocolli di dati incerti"[16].

Evidentemente, quando due fenomeni su larga scala, come l'intelligenza artificiale e l'arbitrato internazionale, entrano in collisione, l'elenco dei rischi e delle sfide della loro simbiosi di cui sopra non è esaustivo e può cambiare nel tempo, ma i problemi delineati sono già cruciali per la comunità arbitrale internazionale.

Conclusione

In poche parole, l'uso dell'IA nell'arbitrato internazionale crescerà in modo esponenziale. L'impiego di sistemi di intelligenza artificiale da parte di arbitri, rappresentanti delle parti e istituzioni arbitrali pone molte questioni normative ed etiche alle quali la comunità arbitrale internazionale, le organizzazioni internazionali e le autorità nazionali competenti non hanno ancora trovato risposta. In questa fase, i sistemi di intelligenza artificiale nell'arbitrato internazionale sono percepiti solo come strumenti ad alta velocità e spesso efficienti, ma ancora ausiliari che non possono sostituire o soppiantare gli arbitri, i rappresentanti delle parti o le istituzioni arbitrali.

Prendendo come esempio l'Austria, possiamo concludere che il VIAC presta la dovuta attenzione alla questione dell'intelligenza artificiale. Inoltre, dato che la Corte Suprema austriaca (OGH) si è già espressa sull'intelligenza artificiale (anche se non nel contesto dell'arbitrato), la questione dell'utilizzo dell'intelligenza artificiale nell'arbitrato sarà ulteriormente sviluppata non solo a livello di diritto dell'UE o di diritto nazionale austriaco, ma anche nella giurisprudenza austriaca.

Risorse

  1. Regolamento (UE) 2024/1689 del 13 giugno 2024 che stabilisce norme armonizzate in materia di intelligenza artificiale e modifica i regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (legge sull'intelligenza artificiale) - Testo rilevante ai fini del SEE. Si veda qui: https: //eur-lex.europa.eu/eli/reg/2024/1689/oj.
  2. Per una valutazione più dettagliata delle possibili applicazioni dell'IA nell'arbitrato si veda Shih, Sean e Chang, Chin-Ru, The Application of AI in Arbitration: How Far Away are we away from AI Arbitrators? (31 maggio 2024). Contemporary Asia Arbitration Journal, Vol. 17, No. 1, pp. 69-90, disponibile su SSRN: https://ssrn.com/abstract=4849614.
  3. Si veda il Para. 5.2. del Rapporto della Commissione Arbitrato e ADR della ICC sullo sfruttamento della tecnologia per procedimenti arbitrali internazionali equi, efficaci ed efficienti, disponibile all'indirizzo: https: //iccwbo.org/news-publications/arbitration-adr-rules-and-tools/icc-arbitration-and-adr-commission-report-on-leveraging-technology-for-fair-effective-and-efficient-international-arbitration-proceedings/.
  4. Per una valutazione più dettagliata del possibile utilizzo dell'IA nella gestione dei casi in arbitrato, si veda Ahmet Cemil Yıldırım, The use of technology in case management in international investment arbitration: a realistic approach, Arbitration International, Volume 40, Issue 2, June 2024, pp. 233-250, disponibile all'indirizzo: doi.org/10.1093/arbint/aiae010.
  5. Si vedano le Linee guida SVAMC sull'uso dell'intelligenza artificiale nell'arbitrato, prima edizione 2024, disponibili all'indirizzo: https: //svamc.org/svamc-publishes-guidelines-on-the-use-of-artificial-intelligence-in-arbitration/.
  6. Cfr. BCLP Arbitration Survey 2023 sull'uso dell'intelligenza artificiale nell'arbitrato internazionale Disponibile all'indirizzo: https: //www.bclplaw.com/en-US/events-insights-news/bclp-arbitration-survey-2023.html.
  7. Cfr. Maxim Osadchiy & Erika Santini, Are Arbitral Institutions Using Artificial Intelligence? The State of Play in Adopting AI, KLUWER ARB. BLOG (8 maggio 2024), disponibile su: https: //arbitrationblog.kluwerarbitration.com/2024/05/08/are-arbitral-institutions-using-artificial-intelligence-the-state-of-play-in-adopting-ai/
  8. Si veda Maxi Scherer, We Need to Talk About ... the EU AI Act!, KLUWER ARB. BLOG (27 maggio 2024), Disponibile all'indirizzo: https: //arbitrationblog.kluwerarbitration.com/2024/05/27/we-need-to-talk-about-the-eu-ai-act/
  9. Per saperne di più, vedere: https: //viac.eu/en/arbitration/viac-portal
  10. Per saperne di più, si veda: https: //viac.eu/en/news/viac-getting-tech-savvy-viac-launches-legal-tech-think-tank
  11. Corte Suprema austriaca 4Ob77/23m del 27 giugno 2023, disponibile all'indirizzo: https: //www.ris.bka.gv.at/Dokument.wxe?Abfrage=Justiz&Dokumentnummer=JJT_20230627_OGH0002_0040OB00077_23M0000_000&Suchworte=RS0079640.
  12. Si vedano le Linee guida SVAMC sull'uso dell'intelligenza artificiale nell'arbitrato, pag. 16.
  13. Mata v. Avianca, Inc., 678 F. Supp. 3d 443 (S.D.N.Y. 2023) Disponibile su: https: //casetext.com/case/mata-v-avianca-inc-3
  14. Si vedano le Linee guida SVAMC sull'uso dell'intelligenza artificiale nell'arbitrato, pag. 16.
  15. Ibidem, pag. 19.
  16. Principles Supporting the Use of AI in Alternative Dispute Resolution (Principi a sostegno dell'uso dell'intelligenza artificiale nella risoluzione alternativa delle controversie), American Arbitration Association (novembre 2023) Disponibile all'indirizzo: https: //go.adr.org/rs/294-SFS-516/images/Principles%20Supporting%20the%20Use%20of%20AI%20in%20Alternative%20Dispute%20Resolution.pdf.