В последние годы искусственный интеллект (ИИ) стремительно внедряется во множество профессиональных областей, включая юридическую практику. Применение таких технологий обещает повысить эффективность работы адвокатов, автоматизируя рутинные процессы. Однако случай с адвокатами Майка Линделла, известного предпринимателя и основателя компании MyPillow, продемонстрировал потенциальные риски, связанные с без должной проверки и ответственности использованием ИИ в судах. В громком деле о диффамации между Линделлом и бывшим сотрудником Dominion Voting Systems Эриком Кумером, адвокаты Линделла признались в использовании программ генеративного искусственного интеллекта при написании судебного возражения. Тем не менее, документ был полон почти тридцати ошибочных цитат, включая ссылки на вымышленные судебные прецеденты и неверные трактовки законодательных норм.
Фактически, судья федерального суда США по округу Колорадо Нина Ванг указала на множество недостатков: неправильное цитирование, искажение содержания судебных решений и непреднамеренное введение в заблуждение суда по поводу юрисдикции и источника правовых норм. Такая ситуация серьезно поставила под сомнение профессиональные стандарты, поскольку допущенные ошибки не являлись случайными мелочами, а затрагивали ключевые юридические обоснования. В ходе слушаний адвокат Кристофер Качурофф признался, что использовал ИИ для составления первоначального варианта документа, однако, по его утверждению, он сам написал черновик, а затем применил искусственный интеллект для доработки. Тем не менее, суд не стал считать такую практику оправданной, особенно учитывая «вездесущие» ошибки. Вопрос проверки и ответственности в правовой профессии оказался в центре внимания, когда адвокаты указали, что ошибочная версия судебного документа была подана по случайности, якобы из-за человеческой ошибки и путаницы с версиями файлов.
Несмотря на это, судья потребовала от адвокатов под присягой объяснить обстоятельства подготовки возражения и использованию ИИ, а также объяснить, были ли они или их клиенты осведомлены и согласны с таким подходом. Случай получил широкий резонанс в юридических и IT-сообществах, подчеркивая опасности механического применения генеративных моделей без критической оценки результатов. Ошибки включали якобы цитируемые дела, которых не существует, неправильное приписывание судебных прецедентов, неточное изложение правовых принципов, а также ссылки на суды, не обладающие компетенцией по делу. Такие изъяны могут повлиять на справедливость судебного разбирательства и доверие к правовой системе в целом. Кроме того, дело имеет и политический контекст, поскольку Майк Линделл и его компании активно распространяли неоднократно опровергнутые теории заговора о фальсификациях на выборах 2020 года, в том числе на платформе FrankSpeech.
Истец, Эрик Кумер, обвинил Линделла в клевете и подрыве его репутации, претензии которого были поддержаны иском. Юридический спор затрагивает не только вопросы доказательств и правовых позиций, но и этические нормы ведения судебных процессов. Несмотря на привлекательность использования ИИ для экономии времени и ресурсов, практика безответственного применения технологий в юридической документации может привести к серьезным негативным последствиям, включая санкции со стороны суда и привлечение к дисциплинарной ответственности. Эксперты призывают к осторожности и обязательной тщательной проверке всех материалов, созданных с помощью ИИ, особенно в сфере права, где ошибки не прощаются и могут стоить репутации и свободы. Этот инцидент служит напоминанием, что технологии сами по себе не гарантируют качество и правдивость информации, а ответственность за итоговый результат лежит на профессионалах.
Необходимо вырабатывать стандарты и регламенты для использования искусственного интеллекта в юриспруденции, чтобы исключить случаи машинного «фабрикаторства» документов и обеспечить безопасность правоприменения. Таким образом, произошедшее с адвокатами Майка Линделла подчеркивает, что внедрение ИИ должно сопровождаться соответствующим контролем и подготовкой специалистов, иначе последствия могут негативно сказаться на всех участниках процесса и подорвать доверие к судебной системе. Для юристов этот кейс – предостережение о том, что важно не только использовать инновации, но и сохранять профессионализм, критический подход и ответственность в каждом этапе работы с документами, особенно когда на кону стоят серьезные обвинения, репутация и права человека. В мире, где искусственный интеллект занимает всё более значимое место, качество и точность правовой документации обязаны оставаться приоритетом, над которым работают не машины, а образованные и ответственные люди.