В последние годы использование искусственного интеллекта (ИИ) в государственных службах приобрело новый импульс, особенно после того, как губернатор Калифорнии Гэвин Ньюсом издал приказ в 2023 году о внедрении ИИ-технологий для повышения эффективности работы государственных агентств. Одним из ярких примеров внедрения таких технологий стал чат-бот, созданный Департаментом лесного хозяйства и противопожарной защиты Калифорнии (Cal Fire). Целью разработки бота было обеспечить жителей штата актуальной информацией о пожарах, ресурсах для предупреждения возгораний и другой релевантной информацией в почти реальном времени. Однако, несмотря на высокие ожидания, опыт взаимодействия с ботом выявил значительные ограничения и проблемы, которые нельзя игнорировать, учитывая важность своевременной и точной информации в условиях угрозы пожара. Разработка чат-бота поручили компании Citibot из Южной Каролины, специализирующейся на поставке AI-решений для местных властей.
Инструмент формирует ответы на основе данных с сайта Cal Fire и портал ReadyForWildfire.org. Он умеет предоставлять основные сведения об активных пожарах, программах агентства и советах по подготовке к огню. Однако, тестирование, проведённое журналистами из CalMatters, показало, что бот не всегда даёт корректные ответы или обновляет данные вовремя. Например, при запросах о степени локализации пожара, информация часто устаревала или неполна.
Также бот дал сбой в предоставлении списка необходимых для эвакуации вещей: если пользователь формулировал свой запрос иначе, отличной от самой простой фразы, ответы были расплывчатыми или отсылали к ссылкам, вместо того чтобы напрямую перечислить элементарные предметы. Крайне важной функцией, которую пока не смог освоить чат-бот Cal Fire, стала информация о приказах на эвакуацию. Несмотря на то, что приказы на эвакуацию – жизненно важный аспект реагирования на чрезвычайные ситуации, бот не умеет стабильно отвечать на вопросы, связанные с их выпуском и статусом. Иногда он мог правильно указать, что такие приказы выдают органы правопорядка, в других случаях – признавать своё незнание. Это несоответствие очень критично, поскольку гражданам в случае угрозы необходима ясная и достоверная информация для принятия решений.
По замыслу разработчиков, при отсутствии эвакуационных приказов бот должен сообщать об этом открыто, чтобы пользователи понимали текущую ситуацию, однако в реальности этого пока нет. Представители Cal Fire заявили, что постоянно работают над улучшением бота и анализируют поступающие запросы с целью улучшения точности и консистентности ответов. При этом акцентируется внимание на том, что проект является пилотным, и к нему необходимо относиться с терпением. Тем не менее эксперты отмечают, что оценка и тестирование подобных систем должны происходить на более ранних этапах разработки, а не после того, как продукт уже запущен в эксплуатацию. Отсутствие прозрачных критериев проверки и оценки работы чат-бота ставит под сомнение его готовность к критичным ситуациям.
Для создания действительно надёжного и информативного ИИ-инструмента крайне важна коллаборация с общественностью. Вовлечение конечных пользователей в тестирование и отбор наиболее часто задаваемых вопросов помогает лучше понять реальные нужды населения. Также необходимо обеспечить, чтобы ответы были не только точными, но и единообразными, чтобы люди могли быстро получать нужную им информацию вне зависимости от формулировки запроса. В случае с пожарной безопасностью это особенно актуально, ведь пользователи не станут экспериментировать с разными вариантами вопросов в критическую минуту. Проблемы, с которыми столкнулся чат-бот Cal Fire, иллюстрируют общие вызовы внедрения искусственного интеллекта в госструктуры, особенно в сферах с высоким уровнем ответственности и рискованности.
Технологии ИИ обладают огромным потенциалом для улучшения доступа к информации, оптимизации коммуникации и повышения уровня безопасности населения. Однако ошибки, неточности и отсутствие системных проверок могут привести к нежелательным последствиям, снижая доверие общества к новым технологиям. Опыт Cal Fire подчёркивает, что слепое доверие к ИИ недопустимо. Внедрение подобных систем должно сопровождаться чёткими стандартами оценки, прозрачным мониторингом и необходимой подготовкой специалистов. Кроме того, важным аспектом остаётся скорость обновления информации, что крайне важно в условии быстро меняющейся ситуации с лесными пожарами.
Постоянное синхронизирование базы данных бота с актуальными данными поможет избегать ошибок и повысит его полезность для конечных пользователей. Будущее применения ИИ в экстренных службах Калифорнии и других регионов несомненно будет масштабироваться и совершенствоваться. Этот процесс требует времени, ресурсов и тщательной проработки каждого этапа — от разработки до эксплуатации. Внедрение искусственного интеллекта в повседневную жизнь населения — это не только вопрос технологий, но и вопрос доверия, ответственности и безопасности. Публичное обсуждение, экспертная оценка и обратная связь станут основой для появления более надёжных и полезных цифровых решений.
Таким образом, создание чат-бота Cal Fire является важным шагом на пути цифровизации пожарной безопасности, но в текущем виде он недостаточно готов к тому, чтобы заменить традиционные источники информации в критических ситуациях. Осознание ограничений и активное участие сообщества в дальнейшей работе над проектом помогут сделать этот инструмент эффективным и действительно помогающим людям принимать правильные решения во время пожаров. Инновации должны служить обществу, особенно когда на кону стоят жизни и благополучие населения.