Новости ИИ от Anthropic

Новости ИИ от Anthropic


Компания Anthropic, создатель чатбота Claude, изначально мечтала устроить в индустрии искусственного интеллекта не гонку вооружений, а «гонку наверх» — где разработчики соревнуются не в скорости выпуска моделей любой ценой, а в том, кто сделает технологии безопаснее. Но мечты, как это часто бывает в мире высоких технологий, разбились о суровую реальность.

Несколько лет назад Anthropic разработала собственный набор принципов безопасности — строгих, местами даже избыточных. Логика была простая: если мы покажем пример, другие подхватят. По словам компании, частично это сработало — некоторые практики действительно переняли такие гиганты, как Google и OpenAI. Но дальше дело не пошло. Массовой «гонки за безопасностью» так и не случилось.

И теперь, как призналась Anthropic в новом блоге, компании приходится менять правила игры. Потому что мир не замер в ожидании, когда все участники рынка согласуют идеальные стандарты — наоборот, конкуренты выкатывают новые модели с бешеной скоростью. А вместе с ними растёт давление сохрани́ть темп.

Главное изменение — Anthropic больше не будет автоматически останавливать разработку своих моделей, если они потенциально могут быть опасны. Раньше компания обязалась снижать абсолютный риск, независимо от того, что делают другие разработчики. Теперь же будет смотреть на действия конкурентов и учитывать, выходят ли на рынок модели сходного уровня.

В блоге прямо сказано: политическая и экономическая среда изменилась.

Интерес государства сместился в сторону конкурентоспособности ИИ и экономического роста, в то время как разговоры о безопасности буксуют на федеральном уровне. Anthropic подчёркивает, что по‑прежнему считает участие правительства в регулировании ИИ необходимым — но признаёт, что процесс будет долгим и не случится «естественным образом», даже если технологии станут гораздо мощнее.

На фоне этих признаний обострились и отношения Anthropic с Пентагоном. Министерство обороны США, по данным СМИ, требует предоставить военным полный доступ к инструментам ИИ — в том числе для массовой слежки и автономного применения оружия без участия человека. Anthropic пока отказывается. И это якобы вызвало недовольство главы Пентагона Pete Hegseth, который пригрозил разорвать сотрудничество.

Сейчас Anthropic участвует в пилотной программе анализа военных изображений вместе с Google, OpenAI и xAI. Claude остаётся единственным чатботом, допущенным к работе на закрытых правительственных системах, но, как признал один из чиновников, при необходимости компанию могут заменить.

Отдельно упоминается, что медиахолдинг Ziff Davis, владелец издания Mashable, подал в 2025 году в суд на OpenAI за нарушение авторских прав при обучении ИИ‑моделей. Это не связано напрямую с ситуацией вокруг Anthropic, но подчёркивает общую напряжённость в индустрии.

Подробнее на
Anthropic меняет курс безопасности

Report Page