Администрация США готовится к радикальному шагу в сфере регулирования технологий: в Белом доме обсуждают введение обязательной государственной проверки наиболее мощных моделей искусственного интеллекта. Поводом для резкой смены курса стали опасения, что преждевременный релиз продвинутых систем может открыть двери для беспрецедентных кибератак.
Фактор Mythos и противостояние с Anthropic
В центре обсуждений оказалась новая модель Mythos от компании Anthropic.
Конфликт интересов: Anthropic планировала расширить доступ к своей разработке примерно для 120 структур, однако администрация выступила против такого широкого распространения.
Статус угрозы: Ситуация накалилась до того, что Anthropic фактически была обозначена как потенциальный риск для государственных органов (чему способствовала риторика президента в социальных сетях).
«Вращающаяся дверь» кадров: Перестановки в надзорных органах напоминают шпионский триллер. Прежний руководитель института безопасности ИИ эпохи Байдена теперь работает в Anthropic, а его преемник — исследователь из Anthropic — продержался на посту главы обновленного центра лишь месяц, прежде чем его заменили чиновником из первого срока Трампа.
Новая архитектура надзора: Кто принимает решения?
Координацию новой политики взял на себя национальный киберкоординатор Шон Кэрнкросс. В обсуждениях участвуют ключевые фигуры администрации:
Джей Ди Вэнс: Вице-президент США вовлечен в процесс формирования стандартов для «самых мощных моделей».
Скотт Бессент: Министр финансов уже начал предупреждать руководителей финансового сектора о системных рисках, которые несут в себе бесконтрольные ИИ-системы.
Рассматривается возможность издания президентского указа, который формализует надзорную группу и установит жесткие стандарты безопасности.
Политический разворот: От дерегуляции к проверкам
Этот шаг выглядит особенно неожиданным на фоне предыдущих действий администрации Трампа:
Ранее команда Трампа активно демонтировала инициативы Байдена по безопасности ИИ и критиковала штаты за попытки самостоятельного регулирования.
Советник по ИИ Дэвид Сакс продолжает публично выступать против «избыточного регулирования», что создает внутреннее напряжение в Белом доме.
Тем не менее, Center for AI Standards and Innovation (бывший AI Safety Institute) сейчас активно переформатируется под новые задачи контроля за киберрисками.
Защита бизнеса или тормоз инноваций?
Основная цель готовящихся мер — защитить потребителей и бизнес от кибератак, которые могут быть организованы с помощью ИИ. Однако вопрос остается открытым: не станет ли обязательная госпроверка «фильтром», который замедлит развитие американских технологий в пользу конкурентов?
В 2026 году мы видим, как безопасность окончательно берет верх над идеологией свободного рынка в сфере высоких технологий.