- Статус
 - Offline
 
- Регистрация
 - 25 Окт 2021
 
- Сообщения
 - 12
 
- Лайки
 - 432
 
Что важно — модель справляется с задачами по текстам, программированию, математике и науке, и всё это — без всякого «ризонинга».
Расширили тренировочную базу на всех языках, контекст теперь тянет до 256k токенов. Это тебе не пару абзацев проглотить — сюда влезет весь «Гарри Поттер и Кубок огня» или «Мастер и Маргарита» в два захода.
У OpenAI очередной повод нервничать.
Пробуем бесплатно Для просмотра ссылки Войдиили  Зарегистрируйся.
		
		
	
	
		
	
	
		
			
		
		
	
				
			Расширили тренировочную базу на всех языках, контекст теперь тянет до 256k токенов. Это тебе не пару абзацев проглотить — сюда влезет весь «Гарри Поттер и Кубок огня» или «Мастер и Маргарита» в два захода.
У OpenAI очередной повод нервничать.
Пробуем бесплатно Для просмотра ссылки Войди