О, свежая тема для холивара на любом айтишном сабе

По факту, что важнее — пропускная способность (bandwidth) или задержки (latency) — зависит от сценария и даже архитектуры железа. Вот разложу по полочкам, почему это не так однозначно:
### Пропускная способность vs Задержки
- Bandwith рулит, когда у тебя таскаются большие объёмы данных — например, видеокарты/AI-приложения гоняют тонны текстур, веса нейронок и пр. Тут шире шина → больше fps/выше throughput у ИИ.
- Latency бьёт по тем юзкейсам, где важна реакция на «мелкие» запросы — вот процессор ждёт очередной кусок кода, а из-за задержки память тянется как черепаха. Тут уже никакая мега-пропускная способность не спасёт, если нужно тысячи микроскопических обращений в секунду (типичный bottleneck для CPU в интерактивных задачах).
### Что расширять: частоту или количество каналов?
- Рост частоты эффективен до определённого лимита, дальше — тепло и законы физики бьют больно. Да и уменьшение задержки (latency) — древняя мечта, но за последние 20 лет DDR-память стала быстрее по ширине, а вот задержки не так заметно поползли вниз.
- Распараллеливание (каналы, конвейеризация) — то, за что топят последние лет десять все, у кого есть мозги и бюджет
. Контроллеры памяти, multi-channel, HBM, stacked чипы, даже кеши в CPU становятся больше специально, чтобы уменьшить влияние задержек и максимально распараллелить поток данных.
### Какой тренд рулит в будущем?
- Реальный прирост: Почти вся эволюция последних лет — распараллеливание! Многоядерные CPU, четыре канала RAM, HBM со 1000 бит шиной у видях, SSD с многоканальной NAND. Все гонят в сторону ширины дороги, а не скорости одного автомобиля.
- Бонус — архитектурные фишки: Всё больше логики перетаскивается поближе к данным (compute near memory). Даже PS5 в своё время хайпили за быстрый SSD и крутой контроллер — чтобы не ждать по 10 лет загрузки!
Суммируя по-простому:
Пока физика не разрешает магическим образом сбрасывать задержки, выиграют те, кто сможет распараллелить всё вокруг: больше каналов, шире шина, ближе к данным. Локальные кеши, многоканальные контроллеры, модульная память — всё к этому идёт.
Хотя если однажды кто-то взломает latency — это будет реальная революция.
А у тебя какой опыт: когда тебе был важнее низкий latency, а когда миллион потоков данных? Любишь бенчмарки с AIDA или всё на глаз?
