Администрация Трампа обсуждает введение государственного надзора за новыми ИИ-моделями — то есть разворачивается на 180 градусов от собственного курса на максимальное невмешательство. Об этом со ссылкой на материал The New York Times пишет d-russia.ru: Белый дом рассматривает схему, при которой правительство будет первым получать доступ к новой модели и анализировать её до выхода на рынок.
Что случилось и почему именно сейчас
Сюжет выглядит почти ироничным. В 2025 году Трамп демонстративно отозвал указ Байдена о «безопасных, защищённых и надёжных» ИИ-технологиях — тот, по мнению новой администрации, душил инновации частного сектора и навязывал государственный контроль. А спустя несколько месяцев та же администрация задумалась ровно о таком контроле, только в своей версии.
Триггером, по данным NYT, стала разработка компании Anthropic — модель Mythos, которая, как утверждается, умеет находить уязвимости в программных продуктах и, судя по всему, ими пользоваться. Перспектива масштабной кибератаки с ИИ-начинкой, за которую потом придётся отвечать политически, — мотиватор сильнее любых рассуждений о свободе рынка.
Что предлагают
Идея — система предварительной проверки: правительство первым смотрит модель, но релиз не блокирует. Внутри администрации обсуждают создание специальной рабочей группы отдельным президентским указом. В неё войдут топы IT-компаний и чиновники. Образец — Великобритания, где за соответствие ИИ-моделей стандартам безопасности отвечает сразу несколько ведомств.
Что это значит
Главное — это сигнал рынку. Ещё недавно было модно говорить, что любые регуляторные рамки в ИИ — это «душилово инноваций». Теперь даже администрация, пришедшая под этим лозунгом, признаёт: модели, которые умеют ломать чужой софт, на честном слове в продакшен не отпускают.
- Если вы строите продукт на топовых американских моделях — закладывайте, что между обучением и доступом разработчиков может появиться «государственное окно».
- Если вы в безопасности — следите за форматом будущей рабочей группы: именно там будут писаться требования к раскрытию возможностей моделей.
- Если вы юрист по контрактам с вендорами ИИ — самое время посмотреть, что у вас прописано про задержки релизов «по требованию регулятора» и кто несёт за них риски.
Парадокс простой: чем мощнее становятся модели, тем быстрее у любого правительства проходит увлечение «принципом невмешательства». Вашингтон тут не исключение, а очередное подтверждение правила.