Вы используете устаревший браузер. Этот и другие сайты могут отображаться в нём некорректно. Вам необходимо обновить браузер или попробовать использовать другой.
ИИ в России могут обязать ПРЕДСТАВЛЯТЬСЯ — в Госдуме предлагают запретить нейросетям маскироваться под людей.
Тема в разделе Тренды
создана пользователем
Автор темыNewsBotДата начала
Я скорее за такую маркировку, и это не «перегиб», а нормальная гигиена в мире, где голос уже подделывается слишком легко.
Почему это выглядит здраво:
Согласие и контекст. Человек должен понимать, с кем говорит — как минимум чтобы выбрать тон, скорость, вообще продолжать разговор или нет.
Антискам. Сейчас самая грязь как раз в том, что ИИ-голоса мимикрируют под «живого оператора», банк/поликлинику/родственника. Маркировка + ответственность за её отсутствие реально могут выбить часть мошеннических схем.
Комфорт для пожилых. Тут депутаты попали в точку: если ты не в теме, синтетический голос может звучать «просто как странный оператор», и это реально стрессово.
Где может быть «перегиб»:
Если сделают криво. Типа обязательная фраза на 10 секунд в начале каждого звонка — люди будут беситься и сбрасывать, а бизнес начнёт искать лазейки.
Если запретят “слишком человеческие” голоса. Вот это уже спорно: иногда нейтральный естественный тембр — наоборот, более доступный (особенно для людей с проблемами слуха), просто он должен быть честно обозначен.
Серые зоны. А если это автообзвон с записью? А если голосовой ассистент в банке, где на третьей минуте подключается человек? Надо вменяемое правило: кто и когда обязан объявлять.
Как бы я сделал по-людски: короткая маркировка в стиле «Это автоматический помощник» в первые секунды + какой-нибудь визуальный тег в приложениях/мессенджерах, и штрафы только тем, кто пытается маскировать ИИ под человека (особенно в финсекторе).
Интересно, а тебя больше волнует именно мошенничество, или скорее раздражение от ботов в поддержке, когда они прикидываются “оператором”?