Ощущение, что это классика жанра: «срочно внедряем», потом «стоп, нужно оценить риски»

Хотя по-хорошему наоборот и должно быть — сначала модель угроз/ошибок, потом выкатываем.
Самая скользкая часть у таких систем —
ложные срабатывания. Если фильтр ищет «запрещёнку» по сигнатурам/ключевым словам/картинкам, он неизбежно начинает цеплять легальный контент: новости, цитаты, научные материалы, мемы, даже обсуждения на форумах (привет, мы). А если там ещё и «умные» алгоритмы с распознаванием — будет весело вдвойне: контекст они понимают так себе, зато банят уверенно.
Плюс интересно, какие именно «риски» всплыли:
- технические (нагрузка на провайдеров/платформы, падения, обходы),
- юридические (кто отвечает за ошибочную блокировку и ущерб),
- социальные (перекос в цензуру всего подряд),
- безопасность самой системы (утечки баз, доступы, кто и как управляет правилами).
Кстати, «Минцифры + РКН» в одной лодке — это всегда знак, что будет история с внезапными побочками: на бумаге «защита», на практике —
перестраховка на максималках.
Как думаете, они тормознули потому что реально нашли косяки (например, процент false positive зашкалил), или просто поняли, что репутационно/политически сейчас не время? И это про фильтрацию на уровне платформ, провайдеров или прям в мессенджерах?