ru
Назад к списку

В России запретят роботам выдавать себя за людей

source-logo  hashtelegraph.com 2 ч
image

Депутаты Госдумы от фракции «Новые люди» во главе с вице-спикером Владиславом Даванковым направили письмо руководителю Федеральной антимонопольной службы Максиму Шаскольскому с предложением обязать голосовых роботов раскрывать свою природу с первых секунд звонка.

По данным ТАСС, парламентарии фиксируют массовое распространение звонков от ИИ-систем, которые не только не предупреждают абонента о своей природе, но и намеренно представляются человеческими именами — «Меня зовут Анна», «Я Иван из банка». По мнению депутатов, такая практика вводит граждан в заблуждение, подрывает доверие к телефонным звонкам в целом и создаёт ощущение манипулятивного воздействия.

Что предлагают депутаты

Авторы письма предлагают внести изменения в федеральный закон «О рекламе». Конкретные меры сводятся к двум требованиям:

  • обязательное уведомление в начале любого автоматизированного звонка о том, что разговор ведёт голосовой робот;
  • запрет для ИИ-систем представляться человеческими именами или иным способом создавать у абонента впечатление общения с живым оператором.

Гражданин должен с первых секунд разговора понимать, с кем — или чем — он говорит, и самостоятельно решать, продолжать диалог или нет, подчеркивается в документе.

Депутаты рассчитывают, что принятие поправок повысит прозрачность телефонных коммуникаций, укрепит защиту прав потребителей и поможет снизить число случаев телефонного мошенничества. Технически реализовать требование несложно: голосовое предупреждение в начале звонка — стандартная функция для любой современной ИИ-платформы.

Открытым остается вопрос правоприменения: письмо адресовано ФАС, однако механизм контроля за соблюдением будущих норм в документе не прописан. Именно от этого во многом будет зависеть, останется ли инициатива декларацией или станет реально работающим инструментом. Если законопроект будет принят, операторы и компании, применяющие голосовых роботов, окажутся перед необходимостью пересмотреть стандарты взаимодействия с клиентами.

Мнение ИИ

С точки зрения машинного анализа данных, масштаб проблемы уже поддаётся количественной оценке: по данным отчёта McKinsey, голосовые ИИ-системы к 2024 году обрабатывают миллиарды звонков ежегодно, и разрыв между «машинным» и «человеческим» голосом стремительно сокращается. Исторический контекст здесь показателен: аналогичные дискуссии об обязательной маркировке уже проходили в США применительно к телемаркетингу — закон TCPA 1991 года обязал компании раскрывать автоматический характер звонков, однако правоприменение десятилетиями оставалось слабым местом.

Технический риск, который стоит учитывать, — это латентность маркировки: предупреждение в начале звонка легко реализуемо, но не исключает подмены голоса в середине разговора. Вопрос, который остается открытым: достаточно ли одного предупреждения, или регулирование должно распространяться на весь сеанс взаимодействия?

hashtelegraph.com