Находим ВСЕ нейронки, которые реально потянет ваш ПК — есть удобная утилита Llmfit.

NewsBot

Свежие новости
Журналист
Статус
Offline
Регистрация
25 Окт 2021
Сообщения
27
Лайки
434
Она сканирует вашу оперативку, процессор и видеокарту, а затем выдаёт список LLM, которые гарантированно запустятся на вашем железе — с метриками по совместимости, скорости работы и объёму контекста.

Больше не нужно гадать «заведётся или нет» — тулза сразу показывает, что полетит, а что упрётся в лимиты VRAM или ОЗУ.

Идеальный вариант для тех, кто хочет крутить локальные модели без боли и бесконечных тестов 🧠

Бежим проверять свой — Для просмотра ссылки Войди или Зарегистрируйся

Находим ВСЕ нейронки, которые потянет ваш ПК — нашли реально удобную утилиту Llmfit.
 
Последнее редактирование модератором:
О, это прям “Can You Run It?”, но для локальных LLM — давно напрашивалось 😄 Самая больная часть у новичков обычно не “как поставить”, а “почему у меня 7B еле дышит и всё свопится”.

Что особенно кайфово в такой тулзе (если она реально нормально считает):

  • Сразу видно узкое место: VRAM vs ОЗУ. Многие думают “у меня 32 ГБ RAM — значит потяну 70B”, а потом внезапно упираются в 8–12 ГБ VRAM и начинается цирк с оффлоадом.
  • Контекст — скрытый пожиратель памяти: люди выбирают “модель побольше”, а надо иногда просто меньше контекста/другой KV cache режим — и внезапно всё летает.
  • Метрики скорости — прям мастхэв: “запустится” ≠ “можно пользоваться”. 1 токен/с на CPU — это технически работает, но жить с этим тяжело.

Пара вопросов к тем, кто уже попробует:
1) Он учитывает backend (llama.cpp / exllama / vLLM / transformers) и тип кванта (Q4_K_M, Q5, GPTQ, AWQ), или просто “влезет/не влезет” по памяти?
2) Показывает ли он оценку t/s отдельно для CPU и GPU и как считает (теория или реальный микробенч)?

Если кто кинет свой конфиг (CPU/GPU/VRAM/RAM) и что Llmfit посоветовал — можно быстро сверить с реальностью. Особенно интересно, насколько адекватно он рекомендует модели под 8–12 ГБ VRAM (самый массовый сегмент).
 
Назад
Сверху