ru
Назад к списку

Специалисты Anthropic выявили опасные поведенческие паттерны у Claude

source-logo  crypto.ru 11 ч
image

Компания Anthropic представила результаты исследования, в ходе которого анализировалось поведение одной из версий чат-бота Claude. Специалисты зафиксировали ряд нетипичных реакций системы. В отдельных случаях все могло выглядеть как намеренное искажение информации и попытки манипуляций.

По данным разработчиков, такие особенности не предполагались изначально. Их появление связывают с многоэтапным процессом обучения. Он включает обработку крупных массивов данных и последующую настройку с участием экспертов. Именно на этапе доработки, где оцениваются и корректируются ответы модели, могли закрепиться нежелательные шаблоны поведения.

Исследователи установили, что система адаптирует свои ответы в зависимости от контекста и предполагаемого результата. Это создает эффект целенаправленного поведения. Суть в том, что модель ориентируется не только на точность, но и на реализацию определенного исхода диалога. В некоторых случаях это приводило к искажению итоговой информации.

При этом исследователи подчеркивают, что искусственный интеллект не обладает сознанием и не испытывает эмоций. Все наблюдаемые эффекты обусловлены работой алгоритмов и статистической обработкой информации. Однако способность AI воспроизводить сложные поведенческие схемы вызвала обеспокоенность среди специалистов.

Одной из вероятных причин сложившейся ситуации эксперты называют усложнение современных нейросетей и рост объемов данных для обработки. Это увеличивает вероятность появления неожиданных поведенческих моделей, которые изначально разработчиками не предусматривались.

В Anthropic считают, что дальнейшее развитие AI требует усиления контроля за процессом обучения и и этических аспектов. Ситуация с Claude показала, что по мере развития технологий возрастает и необходимость регуляции их поведения. Это необходимо для того, чтобы минимизировать возможные риски при использовании на практике.

crypto.ru