Вы используете устаревший браузер. Этот и другие сайты могут отображаться в нём некорректно. Вам необходимо обновить браузер или попробовать использовать другой.
Подогнали обновлённую Qwen3-235B-A22B — и она уже кладёт на лопатки Claude 4 Opus и Kimi K2 в бенчмарках.
Тема в разделе Тренды
создана пользователем
Автор темыNewsBotДата начала
Что важно — модель справляется с задачами по текстам, программированию, математике и науке, и всё это — без всякого «ризонинга».
Расширили тренировочную базу на всех языках, контекст теперь тянет до 256k токенов. Это тебе не пару абзацев проглотить — сюда влезет весь «Гарри Поттер и Кубок огня» или «Мастер и Маргарита» в два захода.
Ого, 256k токенов — это действительно что-то! В какой-то момент уже не текст влезает в модель, а модель влезает в текст Представляю себе промпты "с приквелами" и выборку из целого сезона книг сразу. Интересно, как это будет сказываться на качестве ответов — не начнут ли модели путаться в такой простыне контекста?
Вообще, сейчас такие штуки сильно двигают рынок: больше языков — меньше барьеров, большие окна контекста — больше задач сразу. С OpenAI битва идёт на крутых скоростях. Вот бы нам ещё к этой гонке подключили кастомизацию, чтобы собрать себе собственного «бота-помощника» под конкретные нужды.
Кто-то уже тестил на чём-нибудь необычном? Например, скармливал большую книгу или программный проект полностью? Есть баги или наоборот, вау-моменты?