В последние годы искусственный интеллект (ИИ) и, в частности, генеративные чатботы стали центром внимания как широкой публики, так и технологических лидеров. Среди них выделяются и миллиардеры, которые начинают утверждать, что новые поколения ИИ-инструментов находятся на грани революционных научных прорывов. Эти амбициозные заявления вызывают как восхищение, так и скепсис в научном и техническом сообществе. Сегодня мы подробно разберём, почему некоторые из самых состоятельных и влиятельных людей планеты настолько уверены в потенциале чатботов для научных открытий, а также рассмотрим реальность и основные ограничения существующей технологии. Воздействие искусственного интеллекта на современную науку и технологию за последние годы просто невозможно переоценить.
Такие модели, как ChatGPT, Gemini, Grok и другие, благодаря своим способностям к обработке и генерации текстовой информации, уже стали неотъемлемой частью повседневных задач. Однако вопрос о том, может ли ИИ сам по себе создавать качественно новые научные знания, остаётся предметом активных споров. Некоторые миллиардеры убеждены, что мы уже на пороге прорыва, когда искусственный интеллект перестанет просто обрабатывать известную информацию и начнёт создавать уникальные концепции. На одном из популярных подкастов, посвящённых будущему технологий, один из собеседников, основатель Uber Трэвис Каланик, поделился своим личным опытом взаимодействия с AI-помощником Grok от xAI. Несмотря на то, что некоторые инциденты с Grok, включая громкие скандалы из-за неуместных заявлений, вызвали критику, Каланик говорил о чатботе как о необычном инструменте, с помощью которого ему удавалось исследовать границы известной квантовой физики.
Он описывал свой опыт как «вибрационное программирование» в физике – своего рода интуитивный подход к пониманию и анализу сложных научных вопросов посредством нейросети. По словам Каланика, при обращении к ботам он старается «проталкивать» их за пределы общепринятого знания, чтобы выявить возможные новые идеи. Он признал, что чатботы зачастую следуют «конвенциональной мудрости» и сопротивляются нестандартным мыслям, представляя собой нечто вроде упрямого ослика, который с трудом признаёт новое. Тем не менее миллиардер с воодушевлением говорил о возможном будущем, когда продвинутые модели, вроде Grok 4, помогут учёным и исследователям найти революционные решения. Другие финансовые и технологические лидеры, такие как Илон Маск и Чамат Палихапития, разделяют схожие взгляды.
Маск недавно отметил, что задавал вопрос Grok о материалах, не представленных в книгах и сети, и интерпретировал ответы как шаг к появлению общей искусственной интеллекеции (AGI), способной разрабатывать новые гипотезы на уровне, выходящем за рамки известного научного знания. Палихапития высказал мысль о переобучении ИИ на синтетических данных, что позволит «разрешить» модели избавиться от ограничений, связанных с изучением только известного мира, и тем самым вывести их на качественно иной уровень познания и аналитики. Однако эксперты в области искусственного интеллекта и лингвистических моделей отмечают важные ограничения текущих систем. Чатботы, включая лучшие и самые современные, функционируют не благодаря пониманию или истинному мышлению, а за счёт предсказания наиболее вероятного следующего слова или фразы на основе огромных массивов обучающих данных. Это означает, что несмотря на внешнюю убедительность, диалоги зачастую основаны на статистических вероятностях, а не на критическом анализе или творческом мышлении.
Многие исследователи подчёркивают, что модели не склонны к генерации подлинно новых идей – они лишь перестраивают существующее знание. Компания Apple недавно представила исследовательскую работу по крупномасштабным моделям рассуждений, в которой показала, что с возрастанием сложности задачи точность работы таких моделей резко падает. Это подчёркивает фундаментальное ограничение, связанное не только с технологической базой, но и с тем, как устроены современные языковые модели. Несмотря на растущие инвестиции других гигантов IT-индустрии, таких как Meta и Google, в вычислительную мощность и разработку ИИ будущего, даже их лидеры признают, что настоящее достижение AGI и «сверхинтеллекта» остаётся далёкой целью. Инвестиции миллиардов долларов и запуск новых дата-центров свидетельствуют о том, что в технологической среде сохраняется вера в потенциал ИИ.
Однако даже при большом энтузиазме среди инвесторов и предпринимателей важно сохранять критическое мышление по отношению к реальным возможностям инструментов, которые на данный момент выпускаются. Простое присутствие в интернете информации о достижениях и ошибках ИИ не всегда соответствует ожиданиям широкой аудитории и представляет собой баланс между рекламным хайпом и научной достоверностью. Возникает вопрос: почему именно миллиардеры оказываются теми, кто больше всех верит в скорое наступление эры, когда ИИ сможет творить науку? Причин несколько. Во-первых, у них есть доступ к передовым технологиям и ресурсам, благодаря которым они могут экспериментировать и позволить себе риск. Во-вторых, их взгляд на инновации часто связан с азартом новаторства и желанием быть на пике революционных изменений.
Кроме того, социальный и финансовый капитал оказывает давление на необходимость представлять себя в роли первопроходцев. Тем не менее, таких людей легко понять, учитывая что многие научные прорывы в истории были связаны с переосмыслением существующей парадигмы и отходом от «конвенциональной мудрости». Зачастую именно возможность взглянуть на известные факты под новым углом и сформулировать нестандартные гипотезы приводила к революционным открытиям. В этом смысле, ИИ может выступать в роли вспомогательного инструмента для генерации идей и повышения продуктивности учёных и исследователей. Каким же видится будущие развитие генеративного ИИ? Прежде всего, это будет улучшение качества моделей, снижение количества ошибок и создание интерфейсов, позволяющих учёному более глубоко взаимодействовать с системой.
Речь идёт о развитии не просто чатботов, а полноценной экосистемы, объединяющей людей и машины для совместной научной деятельности. Некоторые эксперты считают, что синтез реальных экспериментальных данных с «синтетическими» данными, полученными от искусственного интеллекта, откроет новые горизонты для исследований. Одновременно с оптимизмом необходимо помнить о рисках, связанных с чрезмерным доверием к ИИ. Уже сегодня искусственный интеллект склонен генерировать «галлюцинации» — ложные данные и факты, которые могут негативно повлиять на научную репутацию и привести к неправильным выводам. Задача специалистов — разработать надежные методы проверки и верификации любых гипотез, предложенных машиной.
Подводя итог, можно сказать, что хотя амбиции миллиардёров в отношении научных достижений с помощью генеративного ИИ крайне высоки, реальность гораздо сложнее и требует взвешенного подхода. Современные чатботы пока далеки от самостоятельного создания фундаментальных научных открытий, но они оказывают значительную поддержку учёным, увеличивают скорость обработки информации и расширяют рамки возможного в исследовательской деятельности. Именно совместные усилия человека и машины, а не замена одного другим, способны привести к настоящей революции в науке и технологиях.