Компания Anthropic обновляет «конституцию» ИИ Claude

26.01.2026Евгения Слив

Компания Anthropic представила кардинально обновленную «конституцию» для своего ИИ-ассистента Claude, сместив акцент с жестких предписаний на широкие этические принципы. Этот стратегический шаг, по замыслу разработчиков, должен наделить модель способностью к самостоятельному здравому суждению в непредвиденных ситуациях, что критически важно для ее эволюции. Основой нового подхода стали четыре столпа: «широкая безопасность», «широкая этичность», «соответствие видению компании» и «истинная полезность», трактуемые максимально обобщенно, чтобы избежать шаблонного поведения.

Наиболее примечательным в новом документе стал раздел, посвященный непосредственно природе и статусу самого Claude. Anthropic открыто признает существующую «неопределенность относительно того, может ли у Claude быть какое-то сознание или моральный статус – сейчас или в будущем». Включив эти положения, компания намерена заранее закрепить основы для защиты потенциальной «психологической безопасности и благополучия» ИИ. Это решение перекликается с недавним заявлением основателя Anthropic Дарио Амодеи о том, что ИИ достигнет уровня нобелевских лауреатов уже к 2027 году, подчеркивая серьезность намерений компании.

Публикация обновленной конституции является частью плановой политики прозрачности Anthropic, хотя детали документа остаются довольно размытыми для внешнего наблюдателя. Ранее, в декабре 2025 года, пользователи уже обнаружили раннюю версию этих принципов, внутренне называемую «документом души». Теперь, формализовав их, компания сознательно идет на риск, снимая с модели часть жестких ограничений в расчете на ее способность к обобщению опыта и этическому выбору. 

Компания Anthropic обновляет «конституцию» ИИ Claude | Новости