Современные технологии стремительно проникают в разные сферы нашей жизни, включая правоохранительные органы. Среди новейших разработок особое внимание привлекает Draft One — продукт компании Axon, использующий генеративный искусственный интеллект для автоматической подготовки полицейских отчётов на основе звуковых записей с камер на теле офицеров. Несмотря на то что такой подход обещает решить проблему чрезмерной бумажной работы и повысить оперативность создания документов, подробный анализ показывает, что система создана с намерением избегать прозрачного контроля и мешает обеспечению общественной ответственности. Draft One использует специальные алгоритмы, основанные на модели, похожей на ChatGPT, для обработки аудио и преобразования услышанного диалога в текст полицейского отчёта. Важным аспектом технологии является то, что она не анализирует видеофайлы, лишь аудио, что ограничивает полноту отображения ситуации и может привести к ошибочным интерпретациям событий.
Генерируемый AI текст содержит шаблонные вставки в квадратных скобках, которые сотрудники полиции должны заполнить или исправить, дополнив информацию со своих наблюдений. После редактирования сотрудник ставит подпись, подтверждая, что отчёт был отредактирован и соответствует его воспоминаниям. Однако возникающие вопросы не об ограничениях AI, а о прозрачности и контроле процесса. Анализ документов и электронных писем из нескольких полицейских департаментов, где используется Draft One, показывает, что нет никакой возможности определить, какие части отчёта созданы искусственным интеллектом, а какие написаны офицером. Отсутствие такой информации не позволяет ни начальству, ни исследователям, ни общественности оценить уровень достоверности данных и возможность ошибок, что серьёзно подрывает общественное доверие к системе.
Одна из ключевых проблем связана с тем, что проектировщики Draft One сознательно отказались сохранять оригинальные AI-черновики. После того как офицер завершает редактирование и закрывает окно редактора, исходный непроверенный генеративный текст исчезает без следа, оставляя только финальную версию, где невозможно отследить происхождение искажённых или некорректных сведений. Такое решение объясняется желанием избежать юридических сложностей и затруднений для правоохранительных органов в предоставлении данных по запросам суда или адвокатов, но это происходит за счёт полной потери прозрачности. Отсутствие истории изменений и черновиков напоминает обычное редактирование документа в текстовом редакторе, но в случае Draft One речь идёт о сложном взаимодействии двух разных процессов — технологического и человеческого. Это делает ситуацию уникальной, поскольку к финальному документу предъявляются требования высокой юридической ответственности, а механизм контроля за вмешательством AI отсутствует.
Если в отчёте содержатся неточности, заведомо ложные, предвзятые формулировки или даже подтасовки, теперь невозможно объективно определить источник этих ошибок — офицер или искусственный интеллект. Поддельные или предвзятые данные в полицейских отчётах могут иметь серьёзные последствия для правосудия. Если AI ошибочно трактует слова подозреваемого как признание вины или неправильно интерпретирует метафоры и сленг, это может привести к необоснованным обвинениям. При этом, если подобные ошибки обнаруживаются, офицеру может быть проще свалить ответственность на технологию, чем признать собственную неправоту. Таким образом, технология создаёт опасный прецедент для подрыва доверия к официальным документам и справедливости судебной системы.
Внутри полицейских структур относятся к Draft One с осторожным энтузиазмом. С одной стороны, возможность автоматизировать бюрократическую рутину привлекательна, сокращая время на оформление документов. С другой — многие специалисты и общественные организации выражают обеспокоенность отсутствием надёжных механизмов контроля и возможности аудита функций AI. Например, сотрудники департамента Фредерика в штате Колорадо прямо назвали систему «новой игрушкой», но признают, что как только общественность узнаёт о ней, вряд ли реакция будет однозначно положительной. Из официальных материалов и переписки также выявлено, что доступ к системным данным о том, кто и когда использовал Draft One, крайне ограничен.
Публичным организациям сложно получить списки созданных AI отчётов или узнать, как часто эта технология применяется на практике. В отличие от очевидного и простого трекинга изменений в текстовом редакторе, в Draft One отсутствуют удобные инструменты для произведения аудита на уровне всей системы. Вполне возможно, что лишь сама компания Axon хранит внутренние логи активности, которые не предоставляются ни полиции, ни гражданским структурам. Это делает невозможным проведение статистического анализа по использованию технологии и оценку её влияния на качество работы правоохранительных органов. Отсутствие стандартных функций, например, хранения и архивирования первоначальных версий отчётов, вызывает вопросы не только с практической, но и с юридической точки зрения.
В США и других странах уже ведутся попытки законодательного регулирования применения искусственного интеллекта в правоохранительной деятельности. В Калифорнии, например, на рассмотрении находится законопроект, который требует обязательного хранения первой AI-версии отчёта наравне с конечным документом и обязательного раскрытия факта использования AI в его создании. Поскольку Draft One по своей конструкции не сохраняет первые версии, он напрямую не может соответствовать такому требованию. Некоторые правоохранительные органы пошли дальше и полностью запретили использование AI для написания официальных документов. Например, прокуратура в округе Кинг на территории штата Вашингтон была вынуждена выпустить официальное предупреждение о недопустимости использования Draft One в полицейских отчётах до момента появления более надёжных технологий и инструментов обеспечения прозрачности.
Такое решение отражает глубокое недоверие к текущему состоянию AI-систем в сфере правосудия и стремление не допустить искажения фактов из-за ошибок или манипуляций. Стоит отметить, что заявления самой компании Axon о том, что отказ от хранения AI-черновиков сравним с практикой офицеров, которые могут не сохранять прежние версии своих отчетов при использовании обычных текстовых редакторов, представляют собой искажение ситуации. В отличие от человеческой работы, где отчет отражает единый мыслительный процесс человека, Draft One представляет собой слияние двух процессов — технологического и человеческого. Каждый из них должен регистрироваться и храниться, чтобы обеспечить ответственность и подотчётность. Отсутствие таких механизмов в Draft One — сознательное решение, которое препятствует созданию прозрачного и доверительного отношения к использованию технологии.
Проведённые исследования и расследования показывают, что даже среди самих правоохранительных органов отношение к Draft One неоднозначно. Разные департаменты отмечают разницу в стиле и формате полицейских отчётов с момента внедрения AI, некоторые из которых вызывают сомнения у прокуроров, что может повлиять на судебные процессы. Вместо того чтобы полностью проработать и утвердить стандарты использования внедряемой технологии, обновления и исправления реализуются на ходу, не всегда с учётом мнения всех заинтересованных сторон. Перед обществом и законодательными органами стоит серьёзная задача — обеспечить, чтобы внедрение искусственного интеллекта в правоохранительную практику сопровождалось строгими гарантиями прозрачности, ответственности и точности. Без этого автоматизация рискует усугубить уже существующие проблемы в системе уголовного правосудия, превратив её в инструмент неэффективности и несправедливости.
Создание единого стандарта, обязательное раскрытие использования AI и сохранение всех черновиков отчётов должны стать минимальными требованиями к технологиям, внедряемым в криминальную сферу. Axon Draft One демонстрирует потенциальные преимущества автоматизации, но в нынешнем виде является тревожным сигналом — технология, которая старается максимально скрыть свою работу от общественного контроля и юридической проверки. Для того чтобы AI действительно приносил пользу правосудию, разработчики должны отказаться от практик сокрытия данных и внедрить открытые и прозрачные процессы, а законодатели обязаны принять меры по регулированию использования подобных систем. В конечном итоге, безопасность общества и доверие к правоохранительным органам не должны уступать место технологическим новинкам. Каждый полицейский отчёт — это официальный документ, способный влиять на судьбы людей, и его подготовка должна быть максимально точной, честной и проверяемой.
В противном случае искусственный интеллект, вместо того чтобы служить обществу, может стать новым источником ошибок и несправедливости.