В последние годы искусственный интеллект (AI) становится все более распространенным инструментом в юридической практике. Это открывает возможности для улучшения процессов. Искусственный интеллект в юриспруденции предлагает инновационные решения. Однако он требует осторожности. Адвокаты, работающие с AI, сталкиваются с серьезными вызовами, включая распространение так называемых “галлюцинаций” — фиктивных дел, созданных AI. Эти случаи подчеркивают необходимость верификации AI-сгенерированной информации человеком перед ее представлением в суде.
Канадская юридическая фирма BD Burnet, Duckworth & Palmer LLP из Калгари, отмечает, что использование услуг Искусственного интеллекта в юриспруденции экспертами для подготовки заключений может привести к проблемам. Примером такого недоразумения стал случай Kohls против Ellison в Миннесоте. В этом случае суд отклонил экспертное заключение из-за наличия трех несуществующих ссылок, созданных AI. Ирония заключалась в том, что это заключение было представлено в качестве доказательства. Это поддерживало закон о запрете распространения AI-“глубоких фейков” в преддверии выборов.
AI в юриспруденции: Осторожность даже для экспертов
Суд отметил, что “квалифицированный эксперт по опасностям AI и дезинформации попал в ловушку чрезмерной зависимости от AI в деле, касающемся опасностей самого AI”. Искусственный интеллект в юриспруденции требует тщательного подхода даже от экспертов, обладающих глубокими знаниями. Они должны тщательно проверять информацию, предоставляемую AI, прежде чем использовать ее в своих заключениях.
Кроме того, суд указал на негативные последствия использования недостоверных источников. Это включает потерю времени адвокатов, неэффективное использование ресурсов суда и подрыв доверия общественности к юридической системе в целом. Слова суда перекликаются с предостережениями из канадского прецедентного права: “Компетентность в выборе и использовании любых технологических инструментов, включая те, которые основаны на AI, имеет критическое значение. Целостность судебной системы требует этого”.
В связи с этим, адвокаты, как внешние, так и внутренние, должны быть внимательными к тому, использует ли эксперт AI при подготовке своих отчетов. Хотя большинство юрисдикций еще не внесли изменения в свои правила, требующие раскрытия использования AI, это использование уже может быть связано с текущими обязательствами экспертов перед судами. Например, экспертное заключение, представленное в Суд королевской скамьи Альберты, должно содержать, по крайней мере, “информацию и предположения, на которых основано мнение эксперта”, что может включать использование AI.
Методология экспертов: Раскрытие использования AI
Искусственный интеллект в юриспруденции находит применения и в Федеральных судах. Здесь требования к раскрытию информации экспертами идут еще дальше. Эксперт должен предоставить “резюме использованной методологии, включая любые проверки, тесты или другие исследования, на которые он полагался”. Суд считает, что это резюме “должно требовать раскрытия использования AI”.
Таким образом, как внутренние, так и внешние юридические консультанты должны осознавать, использует ли их эксперт AI при подготовке отчетов. Скорее всего, согласно юрисдикции, использование AI должно быть раскрыто суду. Удобный способ реализовать этот совет — включить в соглашения с экспертами положение. Оно требует от них информирования о том, когда и как AI использовался при создании отчета. Затем адвокаты могут работать с экспертами, чтобы определить, требует ли конкретное использование раскрытия в суде.
В заключение, Искусственный интеллект в юриспруденции открывает новые возможности, но также требует строгого контроля и ответственности со стороны экспертов и адвокатов. Необходимо помнить, что, несмотря на преимущества, которые AI может предоставить, его использование должно быть обоснованным и проверенным. Это защитит целостность правовой системы.
Источник: Mondaq