При использовании ИИ в арбитраже возникает множество проблем: значительно повышается риск нарушения конфиденциальности при машинном обучении; сам процесс разрешения спора становится менее гибким, поскольку гибкость находится в прямой зависимости от эмпатии арбитров; наконец, возникает проблема так называемого «черного ящика». Проблема «черного ящика» заключается в том, что путь, по которому ИИ приходит к результату, не поддается идентификации. С точки зрения права это серьезная проблема, так как в рамках современных подходов к разрешению споров по всему миру от арбитров требуется обоснование принимаемых ими решений под угрозой их отмены в случае несоблюдения данного требования. К тому же без понимания факторов, влияющих на решение, доверие к ИИ может быть подорвано. Более того, вполне вероятно, что даже если удастся создать модель ИИ, способную принимать решения в арбитражных разбирательствах, точные факторы и закономерности, которые эта модель учитывает при формулировании своих выводов, так и останутся неизвестны нам.
В качестве возможного способа разрешения такого препятствия была предложена концепция «объяснимого ИИ», в соответствии с которой ИИ не только определяет результаты, но и раскрывает, каким образом он пришел к соответствующим выводам. Тем не менее следует помнить, что объяснимый ИИ сопряжен с определенными компромиссами: чем больше прозрачности он предлагает, тем сильнее страдают его точность и надежность – еще одна непростая дилемма.
Несмотря на проблему «черного ящика», текущие реалии международного арбитража допускают использование ИИ-арбитров без радикального изменения парадигмы. Арбитражные решения, содержащие обоснование, несомненно, играют важную роль в международном арбитраже, так как помогают сторонам понять причины вынесенного решения и служат гарантией от произвола, но они не являются абсолютным требованием в арбитраже. Стороны вполне могут договориться о принятии решения ИИ-арбитром без традиционной мотивировочной части или с мотивировкой, не раскрывающей закономерности, распознанные и использованные ИИ. А чтобы повысить доверие к ИИ-арбитрам, можно обеспечить прозрачность используемых для обучения ИИ данных и придумать решения, направленные на устранение предвзятости в таких данных.
Хотя подобные превентивные меры не гарантируют абсолютную надежность решений ИИ-арбитров, стоит помнить, что и обоснованные решения не застрахованы от ошибок. И арбитры, и судьи государственных судов могут сначала принять решение под влиянием собственных предубеждений и только затем сформулировать обоснования, не подпадающие под релевантные правовые нормы. В этом случае, как бы парадоксально это ни звучало, ИИ-арбитры могут оказаться меньшим «черным ящиком», чем человеческое сознание.
Источник: Российский арбитражный центр при Российском институте современного арбитража