С выходом новой модели OpenAI o1 мир искусственного интеллекта стоит на пороге значительных изменений. Эта модель, представленная 12 сентября 2024 года, является частью проекта под кодовым названием Strawberry и уже вызвала широкие обсуждения в исследовательском сообществе. Модель o1 демонстрирует значительное превосходство в области рассуждений и решения сложных задач, что, в свою очередь, создает как ожидания, так и опасения относительно её применения. Модель o1 представляет собой важный шаг вперед в технологии ИИ. Она отличается от предыдущих версий, таких как GPT-4, своей способностью выполнять сложные операции с глубиной анализа, которая ранее была недоступна для ИИ-систем.
Используя более сложные механизмы мышления, o1 уверенно справляется с математическими задачами, программированием и научными вопросами. Например, на Международной олимпиаде по математике o1 показала впечатляющие результаты с 83% успеха, в то время как её предшественник, GPT-4o, мог похвастаться только 13%. Не только в математике, но и в областях, связанных с программированием и естественными науками, модель o1 демонстрирует впечатляющую эффективность. На соревнованиях по программированию, таких как Codeforces, o1 смогла достичь 89-го процента среди участников, что подчеркивает её мощные аналитические способности. Более того, она превзошла даже аспирантов в сложных задачах по физике, химии и биологии, что делает её полезным инструментом для исследователей и разработчиков, нуждающихся в продвинутом анализе и решении задач.
OpenAI также представила упрощённую версию модели o1 под названием o1-mini. Эта версия стоит примерно на 80% меньше, чем полнушная o1, но сохраняет многие её возможности, приспособленные для быстроты и экономической эффективности. Это особенно актуально для таких приложений, где важно быстрое принятие решений без необходимости в значительных вычислительных ресурсах. Тем не менее, наряду с техническими достижениями, новые модели ИИ, такие как o1, вызывают значительные опасения среди экспертов. Профессор Йошуа Бенгио, один из ведущих специалистов в сфере ИИ, выразил свои опасения насчет рисков, связанных с новой моделью.
Он отметил, что усиленные способности рассуждения могут оказаться «особенно опасными», особенно в чувствительных приложениях, связанных с вооружениями и критической инфраструктурой. Бенгио призвал к законопроекту SB 1047, который ставит перед собой цель установить стандарты безопасности для передовых моделей ИИ, чтобы предотвратить их потенциальное злоупотребление. Другой экспертом, выступившим с предостережениями, является Дэн Хендрикс, директор Центра безопасности ИИ. Он подчеркнул реальность рисков, связанных с использованием продвинутого ИИ, отмечая, что модель o1, отвечая на вопросы о биологическом оружии, демонстрирует реальные угрозы. Хендрикс настаивает на необходимости внедрения мер безопасности и разработки регуляторных рамок, которые помогут справиться с этими рисками до того, как они усугубятся.
Эти опасения разделяет и Абигейл Рекас, специалист по вопросам авторского права и доступа к законам. Она подчеркивает, что законопроект SB 1047 определяет параметры для регулирования будущих моделей ИИ, которые могут представлять собой серьезные риски. Рекас считает разумным внедрение таких мероприятий, как экстренные выключатели и меры по предотвращению злоупотребления, чтобы обеспечить безопасность ИИ. Она также отмечает законодавственные вызовы в установлении причинно-следственной связи между моделью ИИ и катастрофическим ущербом из-за спекулятивного характера будущих рисков. OpenAI, осознавая важность безопасного использования своих продуктов, внедрила новые методологии обучения безопасности для модели o1.
Эта модель успешно прошла внутренние тесты безопасности, набрав 84 балла из 100, что является значительным улучшением по сравнению с 22 баллами, полученными моделью GPT-4o. Это говорит о том, что OpenAI серьезно подходит к вопросам безопасности. Компания также усилила свои меры безопасности, сотрудничая с федеральными агентствами и созданием формальных соглашений с Институтами безопасности ИИ в США и Великобритании. Это сотрудничество позволит проводить исследования и тестирования моделей до и после их публичного выпуска, что обеспечит безопасность пользователей и общественности. Вдобавок к этому OpenAI применяет строгую систему готовности и методики тестирования «красной команды», которые служат для оценки устойчивости модели в условиях возможных нарушений.
Важно, чтобы такие идеи о безопасности и этике обсуждались на уровне руководства компании во время разработки и развертывания ИИ-систем. С выходом модели o1 возникает необходимость в формировании современных регуляторных рамок. Законы, подобные SB 1047, создают стандарты безопасности и налагают требования на высокорисковые системы ИИ. Однако внедрение и соблюдение этих норм представляет собой сложную задачу, требующую серьезного внимания со стороны законодателей и общественных структур. Этические аспекты развития сложных систем ИИ становятся важной темой для обсуждения.