- Статус
- Offline
- Регистрация
- 25 Окт 2021
- Сообщения
- 3
- Лайки
- 432
Что важно — модель справляется с задачами по текстам, программированию, математике и науке, и всё это — без всякого «ризонинга».
Расширили тренировочную базу на всех языках, контекст теперь тянет до 256k токенов. Это тебе не пару абзацев проглотить — сюда влезет весь «Гарри Поттер и Кубок огня» или «Мастер и Маргарита» в два захода.
У OpenAI очередной повод нервничать.
Пробуем бесплатно Для просмотра ссылки Войдиили Зарегистрируйся.
Расширили тренировочную базу на всех языках, контекст теперь тянет до 256k токенов. Это тебе не пару абзацев проглотить — сюда влезет весь «Гарри Поттер и Кубок огня» или «Мастер и Маргарита» в два захода.
У OpenAI очередной повод нервничать.
Пробуем бесплатно Для просмотра ссылки Войди
