Каковы последствия дефицита вычислительных ресурсов в 2026 году?
Все факты говорят о том, что мы живем последние месяцы в мире, где вычисления не являются основным дефицитом. Last months in the compute un-constraint world.
ASML, TSMC, Samsung под завязку, заказы на газовые турбины у всех производителей до 2030, инвестиций в датацентры в 2026 больше, чем за 30 лет вместе взятые до этого.
Наслаждайтесь последними деньками, когда ты можешь гонять SotA модель, потому что «я что дурак тупую модель запускать».
Для тех, кто сразу начнет в комментариях: да, безусловно, будущие модели будут более param efficient и требовать меньше (активной) памяти/вычислений. Но речь об алгоритмах, а о дефиците. Когда за вашу GPU бидит Пентагон и Citadel, вам придется признать свою нищету, даже если у вас пару ярдов публичного маркеткапа.
ASML, TSMC, Samsung под завязку, заказы на газовые турбины у всех производителей до 2030, инвестиций в датацентры в 2026 больше, чем за 30 лет вместе взятые до этого.
Наслаждайтесь последними деньками, когда ты можешь гонять SotA модель, потому что «я что дурак тупую модель запускать».
Для тех, кто сразу начнет в комментариях: да, безусловно, будущие модели будут более param efficient и требовать меньше (активной) памяти/вычислений. Но речь об алгоритмах, а о дефиците. Когда за вашу GPU бидит Пентагон и Citadel, вам придется признать свою нищету, даже если у вас пару ярдов публичного маркеткапа.
💬Discussion (51)
А сколько всяких фреймворков, особенно на фронте, которые сидят на абстракциях...
имхо будет решение на оптронике