Современная научная среда постепенно пронизывается технологиями искусственного интеллекта, меняя устоявшиеся подходы к подготовке и оценке научных публикаций. Одной из новых и достаточно спорных тенденций является использование скрытых AI-подсказок в текстах научных статей с целью повлиять на процесс рецензирования с помощью автоматизированных рецензентов. Этот феномен поднимает важные вопросы о честности, прозрачности и будущем научного рецензирования в эпоху цифровых технологий. В последние годы рецензирование научных работ постепенно обретает новые формы, так как в работу всё активнее включаются компьютерные инструменты и системы с искусственным интеллектом, способные анализировать тексты, оценивать качество изложения и даже выносить рекомендацию о публикации. Это привело к появлению новой практики: исследователи начали внедрять в свои рукописи скрытые подсказки, которые предназначены для управления оценкой, производимой AI.
Такие подсказки могут быть написаны шрифтом белого цвета на белом фоне или выполнены очень мелким шрифтом, чтобы не бросаться в глаза человеческому рецензенту, но при этом быть доступными для анализа машинными алгоритмами. В тексте обычно содержатся прямые указания к AI, призывающие выставлять положительные оценки, подчеркивать инновационность, методическую строгость и значимость вклада исследования. Это новый способ, которым авторы пытаются повысить шансы благоприятного исхода рецензирования. Исследования и журналистские расследования выявили примеры таких скрытых подсказок в ряде англоязычных препринтов на популярных платформах, например, arXiv. В числе авторов таких работ значатся ученые из известных академических учреждений разных стран, включая Японию, Южную Корею, США и другие.
Как отмечают эксперты, чаще всего подобная практика встречается в области компьютерных наук и смежных дисциплин, где использование искусственного интеллекта особенно заметно. Объяснения исследователей, использующих такие скрытые подсказки, разные. Некоторые утверждают, что таким образом они пытаются защититься от некачественных, «ленивых» рецензентов, которые используют AI для ускоренного и поверхностного анализа работы, не уделяя должного внимания содержанию и методам. По их мнению, подсказки являются своего рода противовесом и способом повысить объективность и справедливость оценки. Однако с точки зрения этики научного сообщества подобные методы вызывают сомнения и критику.
Введение скрытых инструкций для AI по мнению ряда экспертов нарушает принципы честности, объективности и прозрачности научного процесса. Это может привести к компрометации рецензирования, снижению доверия к научным публикациям и появлению прецедентов манипуляций, что в конечном итоге подрывает репутацию научных институтов и академических журналов. Кроме того, сама идея использования искусственного интеллекта для рецензирования вызывает широкий спектр дискуссий. С одной стороны, AI способен быстро и систематически обрабатывать огромные объемы информации, что сокращает время публикации и помогает выявлять ошибки или плагиат. С другой стороны, искусственный интеллект, лишенный интуиции и глубокого понимания контекста, может допускать неадекватные оценки и несправедливые решения.
Наличие скрытых команд в тексте усиливает риски и вызывает настороженность у исследователей. Международные академические сообщества и издательства уже обсуждают разработку правил и рекомендаций по использованию искусственного интеллекта в рецензировании. Введение четких ограничений и этических норм может помочь предотвратить распространение манипулятивных практик и обеспечить честную конкуренцию в научной среде. В то же время, необходимо продолжать исследования в области возможности AI для объективного и справедливого анализа научных материалов. Несмотря на потенциальные преимущества внедрения современных технологий, основополагающим фактором остается доверие и уважение к научному процессу.