ChatGPT (Фото: REUTERS/Dado Ruvic)

Ставка на безопасность. OpenAI вводит новые уровни защиты, поскольку возможности ИИ в киберсфере стремительно растут

OpenAI объявила о расширении систем безопасности и запуске новых инструментов для усиления цифровой защиты. Это связано с тем, что современные модели ИИ приближаются к значительно более высоким кибервозможностям.

by · NV | nv.ua | Радіо NV | Новини України | Аналітика | Відео | НВ | · Подписаться

Сделать резюме статьи:
ChatGPT

Компания сообщает, что результаты ее специализированных моделей в соревнованиях CTF (тестах на кибервзлом в контролируемых условиях) выросли с 27% в GPT-5 в августе 2025 года до 76% в GPT-5.1-Codex-Max в ноябре 2025 года. Это свидетельствует о быстром росте технических навыков моделей в сфере безопасности.

В OpenAI ожидают, что будущие модели могут достичь уровня «High» по внутренней системе Preparedness Framework — то есть получить возможности, которые потенциально позволяют создавать рабочие zero-day эксплойты или помогать в сложных кибератаках на крупные компании.

Именно поэтому OpenAI готовит систему защиты так, будто каждая следующая модель уже может достичь такого уровня. Речь идет о сочетании развития моделей с постоянным усилением контроля рисков.

OpenAI увеличивает инвестиции в модели, которые помогают в защитной работе — например, в проверке кода или массовом поиске уязвимостей.

В компании объясняют, что хотят предоставить специалистам по кибербезопасности больше инструментов, ведь они часто «имеют меньше ресурсов и оказываются в меньшинстве».

Поскольку знания, необходимые для атаки и для защиты, одинаковы, OpenAI выбирает многоуровневый подход вместо зависимости от одного механизма безопасности. Компания подчеркивает, что управляет тем, как именно модели получают доступ к возможностям, как их направляют и как они применяются, чтобы ИИ работал на усиление безопасности, а не упрощал злоупотребления.

В OpenAI подчеркивают, что это — долгосрочная работа, а не единичный проект. Цель — постоянно укреплять оборонные инструменты вместе с ростом возможностей моделей.

На техническом уровне OpenAI использует несколько слоев безопасности:

  • контроль доступа,
  • укрепленную инфраструктуру,
  • ограничение исходящего трафика,
  • полный мониторинг.

Эти механизмы дополнены системами выявления угроз, реагирования и внутренней аналитикой рисков.

Компания также обучает свои модели отказываться или безопасно отвечать на запросы, которые могут привести к киберзлоупотреблениям, но при этом оставаться полезными для легальных образовательных и защитных задач.

OpenAI отслеживает возможное злоупотребление в режиме реального времени. Если действия выглядят опасными, компания может блокировать ответы модели, перенаправлять пользователя на другую модель или передавать ситуацию команде по контролю. Решения принимаются автоматическими системами и людьми — в зависимости от серьезности и повторяемости нарушений.

Еще один элемент — полное внешнее «red teaming». Эксперты по безопасности намеренно пытаются «взломать» все уровни защиты, «как настоящий мотивированный и хорошо оснащенный нападающий», чтобы выявить слабые места заранее.

Параллельно с внутренними защитными системами OpenAI запускает более широкие инициативы в сфере кибербезопасности. В частности, готовится программа контролируемого доступа, которая позволит проверенным специалистам по киберзащите использовать расширенные возможности моделей.

Компания также тестирует Aardvark — агентную систему для выявления уязвимостей в больших кодовых базах и предложения готовых исправлений. По словам OpenAI, Aardvark уже нашел новые типы уязвимостей (CVE) и будет предоставлять бесплатную помощь отдельным некоммерческим open-source проектам.

Для усиления управления рисками создается Frontier Risk Council — совещательная группа специалистов по кибербезопасности, которая будет определять границу между ответственным развитием возможностей и риском злоупотреблений.

Через Frontier Model Forum компания сотрудничает с другими лабораториями, чтобы создать общую модель угроз для передовых систем ИИ. Цель — понять, как такие модели могут быть использованы неправильно, где есть слабые места и как отрасль может координировать оборону.

Все эти инициативы, по словам компании, соответствуют ее долгосрочной цели: сделать так, чтобы растущая сила ИИ работала на защиту, была полезной специалистам и применялась осторожно и ответственно.