Биткойн Стейблкоины

Национальные институты здравоохранения призывают ограничить поток заявок на гранты, созданных с помощью ИИ

Биткойн Стейблкоины
Stop flooding us with AI-based grant applications, begs Health Institute

С ростом количества заявок на гранты, подготовленных с использованием генеративного искусственного интеллекта, Национальные институты здравоохранения США сталкиваются с проблемой качества и оригинальности научных предложений, что вызвало озабоченность и новые правила для исследовательского сообщества.

В последние годы искусственный интеллект стремительно внедряется в различные сферы науки и бизнеса, открывая новые возможности для автоматизации и повышения эффективности. Однако его повсеместное использование в подготовке заявок на научные гранты внезапно стало причиной серьезного беспокойства в научном сообществе, особенно в Национальных институтах здравоохранения США (NIH). Организация, отвечающая за финансирование биомедицинских исследований, в июле 2025 года выпустила официальное заявление с просьбой к исследователям ограничить использование генеративных ИИ-инструментов при создании заявок на гранты. Это связано с резко возросшим числом заявок, которые либо частично, либо полностью разработаны при помощи искусственного интеллекта, что ставит под сомнение их оригинальность и качество. NIH подчеркнул, что заявки, существенно подготовленные с помощью ИИ, не будут рассматриваться как оригинальные научные предложения.

В случае обнаружения такого использования уже после присуждения гранта возможны серьезные последствия, включая отозвание финансирования, приостановку проектов или даже увольнение исследователей. Подобная жесткая позиция объясняется не только необходимостью поддержки честности и профессионализма в научной деятельности, но и значительным увеличением нагрузки на сотрудников NIH, отвечающих за рассмотрение заявок. Стремительный рост числа заявок, порожденных генеративным ИИ, угрожает перегрузить систему экспертизы, снизить качество оценки и затруднить справедливое распределение грантов. Уникальность, авторский вклад и глубокая научная проработка — ключевые критерии, на которые опирается NIH при оценке заявок. Однако массовое использование ИИ позволяет отдельным исследователям подать десятки и даже более сорока проектов за один раунд подачи, что далеко выходит за пределы обычных шести заявок в год на ученого.

Такая тенденция не только нагружает службу экспертизы, но и создает угрозу научной экосистеме в целом. Более того, появление подобных программных продуктов создало новые вызовы, связанные с возможностью плагиата, подделкой ссылочных данных и вообще фальсификацией научных идей, что NIH также подчеркнуло в своих предписаниях. Помимо внутренних сложностей, NIH сталкивается с проблемой кадрового дефицита и политическими изменениями в структуре научного управления, что дополнительно осложняет эффективное реагирование на новые вызовы. Важно отметить, что запрет NIH касается исключительно заявок, существенная часть которых создана генеративными ИИ-инструментами. Использование искусственного интеллекта в ограниченных задачах, например для подготовки технической документации или помощи с форматированием, допускается.

Главное, чтобы финальная исследовательская идея и научный подход принадлежали непосредственно заявителю. Такая позиция свидетельствует о желании сохранить научную этику и качество исследований, не отказываясь при этом от положительных возможностей, которые предлагает ИИ при грамотном и частичном применении. Аналогичные проблемы с генеративным ИИ сегодня испытывают не только государственные исследовательские учреждения, но и множество других отраслей, где требуется оценка большого объема креативного контента. Открытые проекты с открытым исходным кодом, академические издательства, журналистика, веб-поиск и социальные сети также сталкиваются с наплывом низкокачественной информации, созданной массово автораматизированными системами. Эту проблему сложно решить, поскольку человеческие ресурсы и время на контроль материала ограничены, а качество автоматической генерации далеко от идеала.

В ответ некоторые компании, работающие с искусственным интеллектом, уже внедряют рекомендации и правила, ограничивающие использование ИИ в процессе подачи заявок или претендентных материалов. Например, известный разработчик ИИ Anthropic первоначально запрещал использование генеративного ИИ при подаче заявок на работу, стремясь проверить подлинность навыков и коммуникаций кандидатов. Позже компания смягчила свои требования и предложила использовать ИИ лишь там, где это оправдано, для раскрытия уникальной личности соискателя. Возвращаясь к ситуации в NIH, четко прослеживается стремление организации не потерять автентичность и научное реноме, поддерживая при этом баланс между инновациями и строгими требованиями к оригинальности. Во многом это отражает настороженное отношение к чрезмерному распространению генеративного ИИ, которое может снизить качество и достоверность научных исследований.

Автоматическая торговля на криптовалютных биржах Покупайте и продавайте криптовалюты по лучшим курсам Privatejetfinder.com (RU)

Далее
Obsolescence Guaranteed
Пятница, 31 Октябрь 2025 Обеспеченная устареванием: Возрождение классических компьютеров с Obsolescence Guaranteed

История и современное развитие проектов Obsolescence Guaranteed - уникальных реплик и симуляторов легендарных вычислительных машин прошлого века, вдохновляющих новое поколение инженеров и энтузиастов.

Show HN: Jeopardy Maker – Create Jeopardy Games Using AI
Пятница, 31 Октябрь 2025 Создайте Интерактивные Игры Джепарди с Помощью Искусственного Интеллекта: Платформа Factile

Откройте для себя платформу Factile — уникальный онлайн конструктор игр в стиле Jeopardy, который позволяет быстро создавать увлекательные образовательные викторины с использованием ИИ. Узнайте, как интерактивные игры повышают мотивацию и эффективность обучения как в классе, так и при дистанционном обучении.

Wikipedia threatens to limit UK access to website
Пятница, 31 Октябрь 2025 Википедия угрожает ограничить доступ к своему сайту в Великобритании: возможные причины и последствия

Обсуждение причин возможного ограничения доступа к Википедии в Великобритании, анализ влияния данного шага на пользователей, информационное пространство и цифровую культуру страны.

About 700M years ago, the Earth froze over – now we may know why
Пятница, 31 Октябрь 2025 Почему Земля замерзла 700 миллионов лет назад: разгадка снежного глобального похолодания

Ученые раскрывают причины глобального оледенения Земли около 700 миллионов лет назад, связывая его с масштабными извержениями вулканов и отсутствием растительности, что привело к сильному снижению углекислого газа в атмосфере и создало состояние «Снежной Земли».

Deep Researcher with Test-Time Diffusion
Пятница, 31 Октябрь 2025 Глубокое исследование с помощью Test-Time Diffusion: революция в генерации научных отчетов

Подробный обзор инновационного подхода Test-Time Diffusion, который трансформирует процесс создания сложных и объемных исследовательских отчетов с помощью больших языковых моделей. Рассмотрены ключевые особенности, преимущества и примеры использования технологии.

Anthropic researchers: Thinking longer makes models dumber
Пятница, 31 Октябрь 2025 Почему длительное обдумывание снижает эффективность ИИ: исследование Anthropic

В статье рассматриваются результаты исследования Anthropic, которое показывает, что увеличение продолжительности анализа и обдумывания моделей искусственного интеллекта может приводить к снижению их производительности. Анализируются причины этого феномена и его влияние на будущее развития ИИ.

Show HN: Accelerate AI Image and Video Generation Using API
Пятница, 31 Октябрь 2025 Ускорение генерации изображений и видео с помощью API в эпоху ИИ

Обзор современных технологий и платформ для быстрой генерации высококачественного визуального контента на базе искусственного интеллекта, особенности популярных моделей и советы для эффективного использования AI API.