Ставка на безопасность. OpenAI вводит новые уровни защиты, поскольку возможности ИИ в киберсфере стремительно растут
OpenAI объявила о расширении систем безопасности и запуске новых инструментов для усиления цифровой защиты. Это связано с тем, что современные модели ИИ приближаются к значительно более высоким кибервозможностям.
by Дарья Позняковская · NV | nv.ua | Радіо NV | Новини України | Аналітика | Відео | НВ | · ПодписатьсяСделать резюме статьи:
ChatGPT
Компания сообщает, что результаты ее специализированных моделей в соревнованиях CTF (тестах на кибервзлом в контролируемых условиях) выросли с 27% в GPT-5 в августе 2025 года до 76% в GPT-5.1-Codex-Max в ноябре 2025 года. Это свидетельствует о быстром росте технических навыков моделей в сфере безопасности.
В OpenAI ожидают, что будущие модели могут достичь уровня «High» по внутренней системе Preparedness Framework — то есть получить возможности, которые потенциально позволяют создавать рабочие zero-day эксплойты или помогать в сложных кибератаках на крупные компании.
Именно поэтому OpenAI готовит систему защиты так, будто каждая следующая модель уже может достичь такого уровня. Речь идет о сочетании развития моделей с постоянным усилением контроля рисков.
OpenAI увеличивает инвестиции в модели, которые помогают в защитной работе — например, в проверке кода или массовом поиске уязвимостей.
В компании объясняют, что хотят предоставить специалистам по кибербезопасности больше инструментов, ведь они часто «имеют меньше ресурсов и оказываются в меньшинстве».
Поскольку знания, необходимые для атаки и для защиты, одинаковы, OpenAI выбирает многоуровневый подход вместо зависимости от одного механизма безопасности. Компания подчеркивает, что управляет тем, как именно модели получают доступ к возможностям, как их направляют и как они применяются, чтобы ИИ работал на усиление безопасности, а не упрощал злоупотребления.
В OpenAI подчеркивают, что это — долгосрочная работа, а не единичный проект. Цель — постоянно укреплять оборонные инструменты вместе с ростом возможностей моделей.
На техническом уровне OpenAI использует несколько слоев безопасности:
- контроль доступа,
- укрепленную инфраструктуру,
- ограничение исходящего трафика,
- полный мониторинг.
Эти механизмы дополнены системами выявления угроз, реагирования и внутренней аналитикой рисков.
Компания также обучает свои модели отказываться или безопасно отвечать на запросы, которые могут привести к киберзлоупотреблениям, но при этом оставаться полезными для легальных образовательных и защитных задач.
OpenAI отслеживает возможное злоупотребление в режиме реального времени. Если действия выглядят опасными, компания может блокировать ответы модели, перенаправлять пользователя на другую модель или передавать ситуацию команде по контролю. Решения принимаются автоматическими системами и людьми — в зависимости от серьезности и повторяемости нарушений.
Еще один элемент — полное внешнее «red teaming». Эксперты по безопасности намеренно пытаются «взломать» все уровни защиты, «как настоящий мотивированный и хорошо оснащенный нападающий», чтобы выявить слабые места заранее.
Параллельно с внутренними защитными системами OpenAI запускает более широкие инициативы в сфере кибербезопасности. В частности, готовится программа контролируемого доступа, которая позволит проверенным специалистам по киберзащите использовать расширенные возможности моделей.
Компания также тестирует Aardvark — агентную систему для выявления уязвимостей в больших кодовых базах и предложения готовых исправлений. По словам OpenAI, Aardvark уже нашел новые типы уязвимостей (CVE) и будет предоставлять бесплатную помощь отдельным некоммерческим open-source проектам.
Для усиления управления рисками создается Frontier Risk Council — совещательная группа специалистов по кибербезопасности, которая будет определять границу между ответственным развитием возможностей и риском злоупотреблений.
Через Frontier Model Forum компания сотрудничает с другими лабораториями, чтобы создать общую модель угроз для передовых систем ИИ. Цель — понять, как такие модели могут быть использованы неправильно, где есть слабые места и как отрасль может координировать оборону.
Все эти инициативы, по словам компании, соответствуют ее долгосрочной цели: сделать так, чтобы растущая сила ИИ работала на защиту, была полезной специалистам и применялась осторожно и ответственно.