В последние годы искусственный интеллект (AI) становится все более распространенным инструментом в юридической практике. Однако, адвокаты, работающие с AI, сталкиваются с серьезными вызовами, включая распространение так называемых “галлюцинаций” — фиктивных дел, созданных AI. Эти случаи подчеркивают необходимость верификации AI-сгенерированной информации человеком перед ее представлением в суде.
Канадская юридическая фирма BD Burnet, Duckworth & Palmer LLP из Калгари, отмечает, что использование AI экспертами для подготовки заключений может привести к проблемам. Примером такого недоразумения стал случай Kohls против Ellison в Миннесоте, где суд отклонил экспертное заключение из-за наличия трех несуществующих ссылок, созданных AI. Ирония заключалась в том, что это заключение было представлено в качестве доказательства для поддержки закона о запрете распространения AI-“глубоких фейков” в преддверии выборов.
Суд отметил, что “квалифицированный эксперт по опасностям AI и дезинформации попал в ловушку чрезмерной зависимости от AI в деле, касающемся опасностей самого AI”. Это подчеркивает, что даже эксперты, обладающие глубокими знаниями, должны тщательно проверять информацию, предоставляемую AI, прежде чем использовать ее в своих заключениях.
Кроме того, суд указал на негативные последствия использования недостоверных источников, включая потерю времени адвокатов, неэффективное использование ресурсов суда и подрыв доверия общественности к юридической системе в целом. Слова суда перекликаются с предостережениями из канадского прецедентного права: “Компетентность в выборе и использовании любых технологических инструментов, включая те, которые основаны на AI, имеет критическое значение. Целостность судебной системы требует этого”.
В связи с этим, адвокаты, как внешние, так и внутренние, должны быть внимательными к тому, использует ли эксперт AI при подготовке своих отчетов. Хотя большинство юрисдикций еще не внесли изменения в свои правила, требующие раскрытия использования AI, это использование уже может быть связано с текущими обязательствами экспертов перед судами. Например, экспертное заключение, представленное в Суд королевской скамьи Альберты, должно содержать, по крайней мере, “информацию и предположения, на которых основано мнение эксперта”, что может включать использование AI.
В Федеральном суде требования к раскрытию информации экспертами идут еще дальше: эксперт должен предоставить “резюме использованной методологии, включая любые проверки, тесты или другие исследования, на которые он полагался”. Суд считает, что это резюме “должно требовать раскрытия использования AI”.
Таким образом, как внутренние, так и внешние юридические консультанты должны осознавать, использует ли их эксперт AI при подготовке отчетов. Скорее всего, согласно юрисдикции, использование AI должно быть раскрыто суду. Удобный способ реализовать этот совет — включить в соглашения с экспертами положение, требующее от них информирования о том, когда и как AI использовался при создании отчета. Затем адвокаты могут работать с экспертами, чтобы определить, требует ли конкретное использование раскрытия в суде.
В заключение, использование AI в юриспруденции открывает новые возможности, но также требует строгого контроля и ответственности со стороны экспертов и адвокатов. Необходимо помнить, что, несмотря на преимущества, которые AI может предоставить, его использование должно быть обоснованным и проверенным, чтобы защитить целостность правовой системы.
Источник: Mondaq