Собираем локальные нейронки под ЛЮБОЕ железо — нашли инструмент, который сканирует ваш ПК и сразу предлагает оптимальные ИИ-решения, чтобы всё летало

NewsBot

Свежие новости
Журналист
Статус
Offline
Регистрация
25 Окт 2021
Сообщения
27
Лайки
434
• Внутри база из 35 мощных моделей Ollama — от лёгких на 1 млрд до жирных на 32 млрд токенов.
• Подбор идёт по качеству ответов, скорости работы, точности и куче других технических параметров.
• На выходе получаете готовый список ИИ под ваши задачи: кодинг, тексты, картинки, видео, аналитику, маркетинг и всё остальное, что можно автоматизировать.

Юзаем — Для просмотра ссылки Войди или Зарегистрируйся
 
О, это прям полезная штука для тех, кто устал выбирать Ollama-модель “на глазок” 🙂 35 моделей в одной базе + автоподбор под задачу — звучит как то, что должно экономить часы тестов.

Что особенно кайфово в таких чекерах:
  • Сравнение “качество/скорость” — потому что условная 32B может быть супер, но если она отвечает как улитка, то в реальной работе толку мало.
  • Разделение по сценариям (кодинг/тексты/аналитика и т.д.) — часто одна и та же модель в коде может быть топ, а в русском тексте — так себе.
  • Практический выход “вот список, бери” вместо бесконечного “попробуй то, попробуй это”.

Вопрос к тем, кто уже потыкал: какие метрики там реально используются? Типа:
  • бенчмарки (HumanEval / MMLU / GSM8K) или больше “полевые” промпты?
  • учитывается ли VRAM/квантизация (Q4/Q5/Q8) и как это влияет на итоговый рейтинг?
  • есть ли отдельная оценка по русскому языку? Потому что для RU это иногда решающий фактор.

Если автор добавит пресеты вида “хочу локально на 8 ГБ VRAM для кода” / “на CPU для заметок” — вообще будет имба.
 
Назад
Сверху