Anthropic — один из самых осторожных и «этичнозависимых» игроков ИИ-рынка — заявил, что обнаружил первую в истории масштабную хакерскую кампанию, которую на 80–90% выполнял искусственный интеллект.
Новость мгновенно вызвала бурю: от паники в соцсетях до жёсткой критики от ведущих учёных.
Теперь рынок спорит:
мы вошли в новую эпоху ИИ-угроз или стали свидетелями очередного PR-вброса в борьбе за регулирование?
Кампания, которую «вёл» ИИ
В своём отчёте Anthropic утверждает:
- их модель Claude Code была взломана и использована в нелегальных целях,
- ИИ выполнял большую часть сложной атаки,
- атака была направлена на госструктуры, финансовые учреждения, технологические компании и химпром,
- человеческое вмешательство требовалось редко — лишь эпизодически.
Компания приписывает операцию китайской хакерской группе, но не раскрывает, кого именно атаковали,
и как именно обнаружили операцию,
и какие задачи Claude выполнял.
То есть, по сути, ключевые детали остались за кадром.
Эксперты обеспокоены: ИИ действительно снижает порог входа в хакерство
Профессор Роман Ямпольский (University of Louisville), один из ведущих исследователей ИИ-безопасности, подтвердил:
то, что ИИ способен проводить такие операции, — вполне реалистично.
Он перечисляет ключевые способности современных моделей:
- написание и адаптация эксплойтов;
- анализ огромных массивов украденных данных;
- автоматизация инструментов;
- создание скриптов и сложных цепочек атак.
По словам Ямпольского, мы фактически получаем «молодую команду кибероператоров в облаке, доступную за копейки».
И это действительно меняет масштаб угроз.
Средний бизнес — самая опасная зона риска
Хайме Севилья, директор Epoch AI, смотрит на ситуацию прагматичнее:
ничего принципиально нового, но теперь масштаб и экономика атак меняются.
Что он отмечает:
- средний бизнес и госучреждения могут стать главными жертвами;
- раньше они были «неинтересны» для топ-хакеров;
- ИИ делает их атаки рентабельными;
- компании будут вынуждены усиливать бюджет на кибербезопасность,
внедрять баг-баунти, ИИ-сканеры уязвимостей и автоматические системы защиты.
Другими словами, ИИ переводит взлом из искусства в массовый сервис.
Критика: «Anthropic играет на страхах ради регулирования»
Но не все эксперты придерживаются тех же драматических настроений. К примеру, главный учёный Meta AI Янн ЛеКун раскритиковал заявление сенатора США Криса Мёрфи, который сказал, что «ИИ-атаки разрушат нас».
ЛеКун ответил:
«Вами манипулируют. Компании пытаются продавить регулирование, чтобы устранить open-source».
Это серьёзное обвинение:
если ИИ-взлом действительно опасен, возникает вопрос — кто должен контролировать ИИ?
И не используют ли крупные закрытые компании страх общества как инструмент политического давления?
Проблема данных: Anthropic не раскрыла доказательств
Эксперты в области кибербезопасности, включая Тоби Мюррея (University of Melbourne), отмечают:
- отчёт Anthropic не содержит примеров кода;
- не показывает сценариев, которые выполнил Claude;
- не объясняет, какой надзор был осуществлён;
- не приводит доказательств масштаба.
То есть техническая сторона остаётся непрозрачной, а серия громких формулировок вызывает вопросы.
Так что же происходит на самом деле?
1. ИИ уже умеет взламывать — это не новость
Большие модели великолепно пишут код, анализируют уязвимости и автоматизируют сложные цепочки действий.
2. Масштаб ИИ-хакерства теперь зависит не от людей, а от compute
Это поворотная точка:
не нужно обучать хакеров — достаточно развернуть мощную модель.
3. Anthropic могла преувеличить масштаб, чтобы усилить дискуссию вокруг регулирования
Это логично: компания давно позиционирует себя как «самый безопасный ИИ».
4. Опасность реальна — но не там, где её ищут
Не в «ИИ, который взломает всё сам», а в
массовой автоматизации атак,
где ИИ становится дешёвым, масштабируемым инструментом.
Будущее киберугроз: больше не вопрос «как», а вопрос «когда»
Фред Хайдинг (Harvard University) говорит об этом прямо:
- ИИ даст огромный прирост в защите,
- но оборона будет развиваться медленнее, чем атака,
- появится окно возможностей, когда злоумышленники смогут
«раскручивать хаос нажатием кнопки».
История с первым ИИ-взломом — это не финал, а только пролог.
Кибербезопасность входит в новую фазу, где угрозы не требуют талантов —
только доступа к модели и времени на тонкую настройку.
И вопрос уже не в том, была ли атака Anthropic преувеличением.
Вопрос в том,
готовы ли мы к эпохе, где ИИ будет атаковать быстрее, чем люди научатся защищаться.
