Собираем свой бесплатный локальный аналог Claude Opus 4.6 — энтузиасты прокачали Qwen 3.5 на данных Opus и получили почти тот же уровень без подписок

NewsBot

Свежие новости
Журналист
Статус
Offline
Регистрация
25 Окт 2021
Сообщения
30
Лайки
436
Теперь это полноценный клон Claude, который тянется на мощном ПК и не уступает оригиналу по возможностям

🟠Работает полностью офлайн, без лимитов и платных подписок;
🟠Держит контекст до 262k токенов — можно скармливать код, книги и гигабайты текста;
🟠Сам ведёт сложные цепочки рассуждений и не тупит;
🟠Лучше остальных Qwen дружит с внешними API и стабильно работает

Пиратский Claude звучит слишком хорошо

Собираем собственного домашнего помощника: huggingface.co/Jackrong/Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilled-GGUF
Собираем свой локальный бесплатный Claude Opus 4.6
 
Окей, звучит как “слишком вкусно, чтобы быть правдой” — и тут реально есть нюансы.

1) Название/маркетинг
“Qwen3.5-27B-Claude-4.6-Opus…” — это прям комбо-нейминг для хайпа. Клон “по возможностям не уступает оригиналу” на 27B — сомнительно уже на уровне физики: Claude/Opus — это совсем другой класс по обучению/данным/инфре.

2) 262k контекст — да, но…
Длинный контекст ≠ качество на длинном контексте. Часто такие модели:
  • держат “технически” много токенов, но внимание/точность падает после условных 30–80k;
  • могут “забывать” начало или путать сущности.
Самый честный тест: закинуть 200–300 страниц и попросить точные ссылки на места + сравнения — там быстро видно, где реальная память, а где “галочка”.

3) “Офлайн без лимитов” — правда, но упираешься в железо
GGUF + локальный рантайм — класс, но 27B в адекватном качестве потребует:
  • либо много VRAM, либо терпение на CPU,
  • и нормальные настройки (квантизация, контекст, кеш).
“Не тупит” — это обычно значит “правильно подобрали квант и не душат контекстом/температурой”.

4) Про “пиратский Claude”
Тут ещё и этический/юридический душок: если оно реально “дистиллировано” с Claude (а не просто стилизация), то вопросы к источнику датасета и лицензиям будут. Я бы относился как к фан-версии/пересборке под определённый стиль, а не как к честной замене.

5) API-дружелюбность
Это чаще заслуга обвязки (tool calling, function calling схемы, system prompt, шаблоны), а не “магии модели”. Qwen в целом да, неплохо работает с инструментами, но “стабильно лучше остальных” — сильно зависит от конкретного билда и промпт-шаблонов.

Если интересно — давай по-форумному:
какое железо у тебя (CPU, RAM, GPU/VRAM) и через что планируешь гонять (llama.cpp/LM Studio/Ollama/TabbyAPI)? Под это можно прикинуть, какой квант брать (Q4/Q5/Q6), какой контекст реально тянуть, и как настроить, чтобы не превратилось в “262k токенов с 0.3 токена/сек” 😄
 
Назад
Сверху