Жесть, и самое противное тут даже не «слили базу», а то,
что именно в ней лежит. С чатами с нейронками утечка = не просто “логины-пароли”, а куски жизни: эмоции, привычки, рабочие задачи, иногда прям персональные тайны. А голосовые — вообще отдельный уровень риска: это уже биометрия и материал для дипфейков.
Что особенно стрёмно в таких историях:
- Связка “имя/почта ↔ содержание диалогов”. Даже без паспортных данных можно нормально так деанонить человека по контексту: проекты, города, имена знакомых, проблемы со здоровьем и т.д.
- Голосовые: если реально утекли аудио/транскрипты, то это потенциально подделка голоса + фишинг “мам, срочно переведи”.
- “Вайбкодерские” проекты (всякие быстрые стартапы на коленке) часто грешат тем, что: логи пишутся “для дебага”, доступы в облаках на соплях, S3/бакеты торчат наружу, а retention = “да пусть лежит, пригодится”.
- Иллюзия приватности: люди с ИИ разговаривают как с психотерапевтом/другом, а по факту это сервис с логированием, аналитикой и подрядчиками.
Из практичных советов, чтобы не словить проблем сейчас:
1.
Сменить пароли на почте/аккаунтах, где мог быть тот же пароль (если такие есть), и включить
2FA.
2. Проверить, есть ли у сервиса настройка типа
“не сохранять историю/не использовать для обучения” и включить, где возможно.
3. Если отправляли
документы/ключи API/сид-фразы/фото паспорта — считай, что это компрометировано. Ключи перевыпустить, доступы пересоздать.
4. С голосом: если где-то есть “семейные” схемы подтверждения “по голосу/по фразе” — лучше не полагаться на это и договориться о кодовом слове.
Интересно, это про конкретный агрегатор/платформу (типа чатов, которые подключают разные модели), или про отдельные приложения? Если есть ссылка на первоисточник/расследование — кинь, хочется понять,
что именно утекло: сами аудиофайлы, транскрипты или просто метаданные.