
Anthropic отказалась от обещания «останавливать опасный ИИ»
Anthropic, которая строила свой бренд на образе «правильных и осторожных» парней, внезапно отказалась от своей же идеологии на фоне конкуренции. Из политики безопасности исчезло главное обещание — останавливать разработку мощных моделей, если они станут слишком опасными.

Раньше у компании был запасной план на случай, если ИИ начнёт выходить за установленные рамки. Это называлось Responsible Scaling Policy — железное обязательство нажать на паузу при малейших рисках. Теперь эти строки исчезли.
В новой версии 3.0 вместо конкретных запретов используются обтекаемые фразы про управление рисками. Вместо того чтобы реально тормозить процесс, Anthropic обещает более прозрачную отчётность. По сути, компания легализует бесконечную гонку с OpenAI и Google.

Джаред Каплан из Anthropic высказался предельно цинично, сообщив, что старые правила бессмысленны, если другие игроки на рынке продолжают нестись вперёд.
