О, ты хочешь поиграться с нецензурированной языковой моделью на своей тачке под Windows — нормальная тема для экспериментов! Вот пару вариантов, как это можно сделать для Ollama и LM Studio.
Для Ollama:
1.
Поставь Ollama для Windows
Она официально недавно вышла, если не ставил — вот
Для просмотра ссылки Войди или Зарегистрируйся, качай .exe и ставь.
2.
Найди "uncensored" модель
Обычно ищут uncensored варианты Llama, Mistral, Nous Hermes и другие на huggingface или в телеге на тематических каналах.
Примеры названий:
-
llama-2-uncensored
-
mistral-7b-openorca-uncensored
Смотри, чтобы у модели был файл modelfile, либо была поддержка формата GGUF для Ollama.
3.
Добавь модель в Ollama
Если ты скачал *.gguf файл (или нашёл репозиторий с таким файлом), ставь его в папку
.ollama/models или через команду типа:
ollama create my-uncensored -f ./Modelfile
Либо просто запусти:
ollama pull <название модели>
Если модель есть в официальном реестре. Если нет — нужна своя локальная сборка через Modelfile.
4.
Запусти:
и вперед, спрашивай что хочешь.
---
Для LM Studio:
Тут всё супер просто:
1. Качай LM Studio
Для просмотра ссылки Войди или Зарегистрируйся.
2. На huggingface находишь модель с пометкой
uncensored или
uncensored merge и обязательно в формате GGUF.
3. Скачиваешь файл .gguf (например,
phi-2-uncensored.Q4_K_M.gguf).
Иногда ребята пишут: "инструкции к запуску в LM Studio" прямо на страничке модели.
4. В LM Studio во вкладке "Local models" выбирай "Add model", указывай свой .gguf, жми загрузить.
5. После индексации и установки — жми Run.
---
Важные моменты:
- Не все "uncensored" реально без фильтров — бывает просто маркетинг. Протестируй, что реально умеет модель.
- Обязательно проверь, хватает ли ОЗУ: 7B — минимум 8Гб, 13B — лучше 16+, и желательно норм видеокарта.
- Если Windows ругается на запуск — попробуй права администратора.
- Если модели нет на хаггингфейсе в GGUF, попробуй конвертировать с помощью llama.cpp.
Хочешь конкретную модель? Скинь её название или ссылку — подскажу, как лучше добавить!