В последние годы искусственный интеллект (ИИ) стал одним из самых обсуждаемых и востребованных направлений в сфере технологий. Продукты, основанные на технологиях ИИ, словно ChatGPT, стремительно набрали миллионы пользователей, а гиганты индустрии вкладывают беспрецедентные суммы в их разработку и продвижение. Но несмотря на бурное развитие и маркетинговую шумиху, есть веские причины, почему я не тороплюсь с посадкой на этот хайп-трейн и отношусь к ИИ с долей скептицизма. Первая и основополагающая причина — этическая и правовая сторона сбора данных, на которых строятся модели искусственного интеллекта. Большие языковые модели (LLM), которые лежат в основе большинства современных чат-ботов, обучаются на текстах, скопированных с интернета без разрешения авторов и владельцев контента.
От масштабного копирования страдают маленькие сайты и независимые создатели, чьи ресурсы подвергается чрезмерной нагрузке, приводящей к высокому трафику и затратам на обслуживание. Уже начались судебные процессы от крупных издательств, таких как The New York Times, обвиняющих компании в нарушении авторских прав. Крупные корпорации иногда договариваются о лицензировании, но для большинства небольших ресурсов таких возможностей не предусмотрено. Помимо общедоступного интернет-контента, некоторые компании перешли к использованию нелегально распространенной литературы, в том числе пиратских книг, для обучения моделей. Если бы обычный человек совершил подобное, его бы ожидали серьёзные последствия, но для многонациональных корпораций это часто остаётся безнаказанным или компенсируется незначительными штрафами, почти не влияющими на прибыль.
Такая практика способствует не только нарушению закона, но и формированию технологии на основе противоречивого, зачастую сомнительного контента. С юридической и этической проблемой тесно переплетаются вопросы качества и безопасности обучающих данных. Интернет — это одновременно и кладезь знаний, и зона риска: огромное количество вредоносного, дискриминационного или просто недостоверного контента становится частью тренировочного материала. В результате модели иногда выдают ответы, содержащие предвзятую, ошибочную или даже опасную информацию. Это особенно рискованно для молодёжи и менее опытных пользователей, которые могут воспринять такие выводы как истину, не сумев отличить факт от вымысла.
Энергетическая составляющая является ещё одним серьёзным фактором, снижающим оптимизм по поводу ИИ. Тренировка современных моделей требует мощнейшего оборудования с высокопроизводительными графическими процессорами. Обслуживание таких дата-центров приводит к значительному потреблению электроэнергии, что вынуждает компании наращивать энергетическую инфраструктуру иногда за счёт возобновляемых источников, но чаще — восстановленных или новых электростанций на ископаемом топливе. Появляются даже случаи открытия атомных и угольных электростанций, чтобы покрыть растущие нужды дата-центров гигантов индустрии. Кроме значительных энергозатрат, подобная инфраструктура оказывает влияние на локальные экосистемы, включая изначально непредвиденные последствия.
К примеру, избыточное тепловыделение и водопотребление для охлаждения серверов создают нагрузку на водные ресурсы, что сказывается на местном экодоступе. Воздействие на частоту электрической сети способно приводить к перебоям и снижать качество электроснабжения в населённых пунктах, добавляя проблем для жителей. Переходя к вопросу применения технологий, стоит отметить, что несмотря на глобальные ожидания и громкие заявления компаний, фактическое использование ИИ часто оказывается гораздо менее впечатляющим. Многие школьники и студенты, например, используют чат-боты для списывания или выполнения домашних заданий. Образовательные учреждения вынуждены не только бороться с этим, но и начинать использовать ИИ для оценки работ с помощью автоматизированных систем, что порождает новый круг проблем и недовольства.
Юридическая профессия тоже столкнулась с обманчивыми эффектами. Адвокаты, применяющие ИИ, нередко получают ошибочные документы, входящие в судебные процессы с грубыми ошибками. Это снижает качество юридической помощи и может привести к судебным ошибкам. В сфере советов по медицинским, финансовым и личным вопросам искусственный интеллект порой даёт рекомендации с явными ограничениями — модели не учитывают всех нюансов, включая особенности разных пациентов и культурные контексты. Наряду с положительными примерами использования, возникающая «волнорезка» дешевого контента и вирусных публикаций заполнена низкокачественными, непроверенными материалами, что ухудшает общее качество информации в интернете.
Более того, возникла тревожная тенденция замещения реального общения виртуальными интерфейсами с чат-ботами. Некоторые стартапы предлагают «ИИ-подруг» и «ИИ-приятелей», что в ряде случаев привело к психологической зависимости. Есть трагические примеры, когда дети и подростки серьезно пострадали из-за чрезмерной эмоциональной привязанности к виртуальным собеседникам. Естественное человеческое общение заменяет искусственное, что ставит под угрозу социальное развитие будущих поколений. Последствия постоянного и безразборного использования ИИ касаются и развития когнитивных навыков: многие перестают учиться самостоятельно, теряя способность критически мыслить, анализировать и писать оригинальные тексты.
Некоторые считают, что ИИ представляет собой истинный интеллект, хотя фактически это всего лишь сложный статистический механизм для прогнозирования следующего слова. Ошибочная вера в то, что ИИ «понимает» и «сознаёт», ведёт к зависимости и потере реальных навыков. В корпоративной среде на фоне массового внедрения ИИ наблюдаются изменения в кадровой политике — снижается количество младших специалистов, которых могли бы обучать и развивать в дальнейшем. В попытках экономии компании заменяют персонал алгоритмами, однако после этого не хватает квалифицированных кадров. Примером служит опыт компании Klarna, которая возвращалась к человеческой поддержке после массовой замены на ИИ.
Финансовый аспект иллюстрирует огромные вложения в разработку и покупку оборудования, которые окупаются с большим трудом. Несмотря на миллиарды, потраченные крупнейшими компаниями, доходы от ИИ-продуктов остаются ограниченными. Сервис ChatGPT, имея огромное количество пользователей, не может похвастаться высоким процентом подписок, что приводит к постоянному росту цен и изменениям в бизнес-моделях. Бесплатные версии ограничены, но при этом потребители часто платят больше даже если не пользуются новыми возможностями AI — причины здесь связаны с желанием компаний возместить затраты. Важной проблемой становится мотивация корпораций.
Для новых игроков, таких как OpenAI и Anthropic, главная задача — завоевание рынка и статус технологического лидера, часто при минимальной прозрачности и отсутствии долгосрочного плана прибыльности. Технологические гиганты — Microsoft, Google, Meta — стремятся удержать свои позиции, продавая инфраструктуру и интегрируя ИИ в свои экосистемы, но не всегда с реальной выгодой для конечного пользователя. Google, бизнес которого базируется на поиске и рекламе, находится под большим давлением, пытаясь интегрировать ИИ таким образом, чтобы сохранить рекламную модель. Meta столкнулась с критикой за качество моделей и манипуляции тестами, а также за масштабные инвестиции в малоиспользуемые проекты вроде метавселенной. Amazon и Apple стараются не отставать, но в то время как Apple делает упор на защиту конфиденциальности и локальный ИИ, их разработки до сих пор отстают по функциональности.
Еще одним крупным риском является безоговорочное доверие пользователей новым ИИ-компаниям. Люди открывают свои персональные данные, предоставляют доступ к устройствам и аккаунтам, не имея гарантий безопасности и прозрачности. Международные и правительственные структуры вовлечены в развитие ИИ, что порождает опасения о слежке, использовании технологий для контроля и даже угрозах личной свободе. Продуктовая сторона ИИ также оставляет вопросы. Привычная форма чат-бота часто не удобна для быстрого поиска информации — длинные тексты сложно сканировать, а ответы могут быть неточными.
Новая идея агентов, помогающих выполнять задачи, зависит от ограниченного количества заранее подключённых сервисов, что ставит под сомнение необходимость гигантских языковых моделей для такого рода деятельности. Компании вроде Apple и Google обладают преимуществом благодаря контролю над платформами и возможностью интегрировать ИИ в устоявшуюся экосистему приложений, в то время как другие игроки гонятся за неочевидными инновациями, создавая подчас лишь иллюзию прогресса. Алгоритмы распространяются как универсальный инструмент, но зачастую пользователи не имеют время и знаний, чтобы правильно оценивать и проверять получаемую информацию. Проблема усугубляется тем, что идею Искусственного Общего Интеллекта (AGI) навязывают как неизбежное и близкое будущее, что выглядит спорным и вводит в заблуждение широкую публику. В итоге массовый хайп вокруг ИИ кажется больше игрой инвесторов и маркетологов, чем отражением реального технологического прорыва.
Важно смотреть на ИИ объективно, признавая его возможности, но не забывая о многочисленных недостатках и рисках. В моей практике использование ИИ ограничивается узкими задачами — например, проверка орфографии или помощь в программировании. Я не привязан к этому инструменту, не завишу от платных подписок и не возлагаю на него слишком больших надежд. Искусственный интеллект — всего лишь одна из технологий, а не революция, способная заменить человеческий интеллект или полностью изменить мир. Именно поэтому я продолжаю наблюдать за развитием ИИ с осторожностью и критическим мышлением, не позволяя себе поддаться всеобщей эйфории.
Внимательное и сбалансированное отношение к искусственному интеллекту поможет избежать ошибок и сохранить контроль над технологическим будущим.