В последние несколько лет искусственный интеллект (ИИ) стал неотъемлемой частью многих профессиональных направлений, и сфера юриспруденции не стала исключением. Использование ИИ для анализа законов, составления судебных документов и формирования правовой позиции обещает значительно повысить эффективность работы государственных органов и адвокатских контор. Однако вместе с внедрением инновационных технологий возникла и серьезная новая проблема — массовый рост фальшивых юридических цитат, созданных в результате ошибок ИИ, или так называемой «галлюцинации» искусственного интеллекта. Эта тенденция становится особенно ощутимой в судах США и постепенно распространяется по всему миру, вызывая тревогу среди судей, юристов и экспертов в области права. Феномен, при котором ИИ выдает несуществующие правовые нормы, фиктивные дела и поддельные цитаты, становится серьезным камнем преткновения, влияющим на качество судебных решений и доверие к правовой системе.
По данным юридического исследователя Дэмиена Шарлотина и его базы данных, с 2023 года количество зарегистрированных случаев использования искусственного интеллекта, приводящих к ошибочным юридическим цитатам, резко возросло. За последние два года в базе уже более 120 случаев, где суды фиксировали, что в предъявленных документах были допущены ошибки, вызванные неверной интерпретацией данных и созданием вымышленных источников ИИ. Такие ошибки прежде большей частью встречались у лиц, представляющих себя самостоятельно, без юридической поддержки. Сегодня же ситуация изменилась: доля юристов и профессиональных помощников, допустивших подобные промахи, существенно возросла. В 2023 году из всех выявленных случаев три из десяти связаны с ошибками, допущенными юристами, а в 2025 году это уже более половины всех отклонений.
В частности, ведущие юридические фирмы США, такие как K&L Gates и Ellis George, публично признали, что в судебных процессах допускали использование сгенерированных ИИ ложных прецедентов. Эти случаи не остались безнаказанными: в ряде ситуаций на адвокатов были наложены денежные штрафы на сумму более 30 тысяч долларов, а в некоторых спорах размер санкций превышал 10 тысяч долларов. Причины возникновения таких ошибок свойственны особенностям работы с ИИ. Программы, подобные ChatGPT, основываются на огромных объемах текстовой информации и способны производить содержательные формулировки, однако они не всегда имеют возможность перепроверять свои данные на соответствие реальности, что приводит к созданию полностью выдуманных правовых актов и цитат. Часто юристы, особенно не обладающие достаточной практикой или срочно готовящие большие объемы документации, доверяют результатам ИИ без необходимой проверки, что усугубляет ситуацию.
Недостаточная осведомленность о возможных ограничениях и ошибках ИИ-систем является основной причиной появления таких проблем. Аналитики подчёркивают, что юридический поиск — это сложный многоступенчатый процесс, требующий тщательного анализа, сравнения и систематизации различных источников. Простое копирование выводов технологий без квалифицированной проверки ведет к нарушению основных принципов профессиональной этики и юридической точности. Кроме того, распространение подобных ошибок ведет к угрозе подрыва доверия к судебным процессам в целом. Если суды получают документы с несуществующими ссылками, это осложняет процесс вынесения справедливых решений, увеличивает время рассмотрения дел и создает потенциал для злоупотреблений.
В странах мира, включая Великобританию, Южную Африку, Израиль, Австралию и Испанию, уже фиксируют подобные проблемы, что свидетельствует о масштабах явления. Судебные органы начинают применять более жесткие меры по выявлению и наказанию за подобные нарушения. Штрафы и санкции усиливаются — это отражение серьезности проблемы и попытка стимулировать более ответственное обращение с ИИ внутри юриспруденции. Для многих юристов и юридических компаний выходом из сложившейся ситуации является сочетание использования ИИ с традиционными методами работы и квалифицированной проверкой каждого документа. Возникает необходимость в развитии новых стандартов, регламентов и кодексов этики, которые бы ограничивали использование ИИ как самостоятельного источника правовых ссылок, а также обеспечивали комплексный многоуровневый контроль за данными.