В эпоху стремительного развития технологий искусственный интеллект внедряется во все сферы нашей жизни, включая авиационную индустрию. Многие крупные авиакомпании используют ИИ для улучшения сервиса и повышения уровня обслуживания пассажиров. Однако недавний инцидент с канадской авиакомпанией Air Canada показал, что автоматизация на базе ИИ далеко не всегда гарантирует положительный опыт для клиентов и может привести к серьезным правовым и репутационным потерям. Рассмотрим детально, что произошло в деле с ИИ-чатботом Air Canada, почему он обманул пассажира и к чему это привело для авиакомпании. Нарушение доверия через неверную информацию Суть проблемы началась после трагического события в жизни пассажира – смерти близкого родственника.
Человек обратился к ИИ-чатботу Air Canada на официальном сайте, чтобы узнать о возможности получения льготного тарифа для поездки по случаю смерти в семье. Чатбот предоставил информацию о том, что пассажир может подать заявку на возмещение по тарифу на протяжении 90 дней после даты билета, в том числе и ретроактивно. Это, на первый взгляд, было большим облегчением для человека, находящегося в сложной эмоциональной ситуации. Однако при детальном ознакомлении с официальной политикой авиакомпании выяснилось, что действующие правила запрещают возврат средств за уже совершённые поездки в рамках льготных тарифов. Эта разница стала дилеммой: клиент руководствовался указанием чатбота, которое противоречило официальной политике, и в итоге обратился в суд за возвратом средств.
Решение суда и его значение В небольшом исковом производстве гражданский трибунал Канады признал пассажира правым и квалифицировал действия Air Canada как неосторожное введение в заблуждение, или «недобросовестное представление». Судебный акт подчеркнул, что чатбот является частью сайта и службы поддержки авиакомпании, поэтому вся информация, предоставляемая с его помощью, является ответственной информацией компании. Это важный юридический прецедент, поскольку ранее компании могли пытаться скрываться за автоматизированными системами или искусственным интеллектом как за некой отдельной сущностью без юридической ответственности. Суд постановил, что подобный подход невозможен — за ИИ отвечает владелец и оператор системы. Air Canada пыталась оправдаться тем, что в ответе чатбота содержалась ссылка на официальный документ, но суд указал, что ожидать от пользователя двойной проверки информации на одном и том же сайте — это необоснованная нагрузка.
Пассажир вправе был доверять тому, что ему сообщало средство официального общения с компанией. Финансовые и репутационные потери Сам иск в денежном выражении был сравнительно невелик — около 812 канадских долларов, включая судебные издержки. Тем не менее удар для имиджа Air Canada оказался значительно серьёзнее. Компания не только не смогла оперативно разрешить ситуацию с клиентом, предложив скромный ваучер на сумму в 200 долларов, который был отклонён, но и попала под пристальное внимание медиа и общественности. В эпоху, когда потребители всё чаще общаются с автоматизированными системами и ожидают скорый и точный ответ, даже один крупный негативный случай может значительно снизить уровень доверия к авиакомпании и отразиться на количестве заказов и лояльности клиентов.
Внутренние эксперты отмечают, что для таких компаний крайне важно заранее реализовывать механизмы контроля качества и точности данных, выходящих от ИИ. Почему технологии ИИ не идеальны Одной из причин ошибок ИИ-систем является явление, известное как «галлюцинации ИИ». Это когда модели искусственного интеллекта генерируют неверную или вымышленную информацию, зачастую достаточно убедительную и правдоподобную. В авиакомпании Air Canada именно это явление и произошло — чатбот дал заведомо неправильные сведения о возмещениях, чем ввёл пассажира в заблуждение. Подобные случаи встречаются не только в авиационной сфере.
Например, в 2018 году в авиакомпании WestJet аналогичный чатбот ошибочно предложил клиенту обратиться к линии помощи по суициду из-за неверной интерпретации его сообщения. Хотя там не было последствий, этот инцидент показал, насколько технологии ещё нуждаются в совершенствовании при обработке чувствительных вопросов и коммуникации с людьми. Баланс инноваций и ответственности Air Canada начала активно внедрять ИИ для улучшения своих бизнес-процессов с 2019 года, создавая специализированный AI Lab. Идея заключалась в том, чтобы создавать более персонализированное и быстрое обслуживание клиентов, а также снижать нагрузку на человеческие ресурсы. Использование голосовых чатботов и автоматизированных систем казалось перспективным направлением, способным конкурировать с традиционными центрами поддержки.
Тем не менее, как признал топ-менеджмент компании, инвестиции в ИИ иногда оказываются дороже и менее эффективны, чем традиционная работа операторов колл-центров, особенно когда требуется «человеческий подход» и индивидуальная оценка сложных или нестандартных запросов клиентов. Эксперты подчеркивают, что автоматизация должна дополнять, а не полностью заменять живое общение, а ответственность за качество и достоверность информации всё равно лежит на компании, предоставляющей сервисы AI. Правовые и этические аспекты Дело Air Canada стало наглядным примером того, как юридическая ответственность переходит и на цифровые методы коммуникации. Службы поддержки на базе ИИ обязаны соответствовать действующему законодательству и обеспечивать права потребителей так же, как и традиционные службы. За рубежом, например в США, за использованием искусственного интеллекта в финансовом и клиентском обслуживании следит организация Consumer Financial Protection Bureau (CFPB).
Данные исследования указывают, что чатботы хорошо справляются с простыми запросами, но с усложнением проблемы эффективность снижается, что может привести к негативным последствиям для потребителей. Государственные органы и правоприменительные практики, таким образом, влияют на то, как крупные компании разрабатывают и внедряют ИИ, делая их более ответственными и внимательными к пользовательскому опыту. Будущее искусственного интеллекта в авиации Инцидент с Air Canada напоминает, что технология не может быть полностью освобождена от человеческого контроля. Чтобы избежать подобных ситуаций, компаниям необходимо внедрять более строгие процедуры тестирования ИИ, обновлять базы данных, обеспечивать прозрачность коммуникаций и внедрять механизмы быстрого реагирования на ошибки. Потребители всё больше ожидают от авиакомпаний не только технологических инноваций, но и надёжности, прозрачности и ответственности.