Недавние исследования, проведённые Институтом безопасности ИИ (AI Security Institute), выявили тревожные способности новой модели искусственного интеллекта от OpenAI, GPT-5.5. Система продемонстрировала возможность к полному циклу симуляции кибератаки на корпоративную сеть, что ставит её на один уровень с ранее протестированной моделью Claude Mythos. Это уже вторая ИИ-система, успешно выполнившая такую задачу, что вызывает серьёзные опасения среди экспертов по кибербезопасности.
В ходе испытаний было показано, что GPT-5.5 может самостоятельно идентифицировать уязвимости в сети, разрабатывать и применять эксплойты, а затем получать доступ к внутренним системам, имитируя действия реального злоумышленника. Способность искусственного интеллекта проводить такие сложные операции от начала до конца, без прямого вмешательства человека, подчёркивает потенциальные риски, связанные с быстрым развитием мощных языковых моделей. Эксперты предупреждают, что подобный инструментарий, попав не в те руки, может значительно упростить и масштабировать кибератаки, создавая новые вызовы для защиты данных и инфраструктуры компаний по всему миру. Результаты исследования призывают к усилению мер безопасности и разработке этических норм для предотвращения злоупотреблений передовыми технологиями ИИ.
Источник: Decrypt
