group-telegram.com/gonzo_ML/3275
Last Update:
DeepSeek продолжает знатно всех будоражить. Спасибо китайцам, что всех расшевелили!
Дарио Амодеи написал эссе про экспортный контроль:
https://darioamodei.com/on-deepseek-and-export-controls
Но мне там не про экспортный контроль понравилось, а вот это вот:
"In 2020, my team published a paper suggesting that the shift in the curve due to algorithmic progress is ~1.68x/year. That has probably sped up significantly since; it also doesn't take efficiency and hardware into account. I'd guess the number today is maybe ~4x/year."
Оценка алгоритмического прогресса в 4x за год — это очень интересно.
И в целом раздел про динамику ИИ разработки любопытен. Там упоминаются три разные динамики:
1. Scaling laws. Вбухиваешь больше compute, получаешь лучше качество (при прочих равных).
2. Shifting the curve. Те самые алгоритмические улучшения, которые 4x за год.
3. Shifting the paradigm. Изменяем то, что скейлится. В 2020-2023 были предобученные модели, в 2024 появился RL и цепочки рассуждений, теперь скейлят их.
Прямо сейчас в 3-ю динамику вкладывают мало, единицы миллионов, это уже даёт хороший результат, но все работают над тем, чтобы отскейлить этот этап до сотен миллионов и миллиардов.
Ещё из интересных цифр есть стоимость обучения Claude 3.5 Sonnet: "Claude 3.5 Sonnet is a mid-sized model that cost a few $10M's to train (I won't give an exact number)."
А типа с трендом про 4x/год они как раз и ожидали модель уровня 3.5 Sonnet/GPT-4o и дешевле в 3-4 раза примерно сейчас. Ну, предсказывать прошлое легко.
"All of this is to say that DeepSeek-V3 is not a unique breakthrough or something that fundamentally changes the economics of LLM’s; it’s an expected point on an ongoing cost reduction curve. What’s different this time is that the company that was first to demonstrate the expected cost reductions was Chinese."
Основной месседж про DeepSeek в духе, что V3 был реально инновацией, в основном инженерной, "и мы за ними следили!", а R1 типо вообще не инновация. Просто реплицировали o1. А про то, что они сделали это в опенсорсе и без какого-либо опубликованного OpenAI рецепта, молчат. По словам Амодеи, переход от V3 к R1 был простым и дешёвым (важна хорошая базовая модель, здесь это V3), и теперь можно ожидать хорошие модели с ризонингом от разных компаний.
В целом, сквозит в последних сообщениях OpenAI, Антропика и некоторых других относительно DeepSeek какое-то лёгкое обесценивание и попытка оправдаться, что мы не хуже. За Гуглом, к слову, такого пока не заметил.
Основная часть про экспортный контроль уже не очень интересная. Она о том, что DeepSeek глобально ничего не изменил, все и так туда идут, находки DeepSeek будут инкорпорированы в обучение несколько-миллиардо-долларовых моделей, которые получатся получше, чем ожидалось изначально, но всё равно потребуют миллионы GPU. AI умнее большинства людей ожидается в 2026-27 годах. И там вопрос, сумеет ли Китай собрать миллионы чипов — от этого зависит, будет мир униполярным или биполярным. И чтобы хорошие победили плохих, нужны экспортные ограничения.
Такие дела. Mixed feelings от всего эссе.
BY gonzo-обзоры ML статей
![](https://photo.group-telegram.com/u/cdn4.cdn-telegram.org/file/UJ9xjixSW15YuoQl8USKWo4sPpaGuaOYCrEKZKydr80HlQmCldfsx1_9PeDvX_xydMyZnwdggsLS7mr0KA4x6ArD_HIQmpDKnRawR9AwwQ8Qt0lrhRiPhv0b3zRW7mPatb9olCfVqeXkT99cLr7FRx2UWu0RsM41M5xwqXSNBQVt5JwvKV-REcFclJ1mo770A5JqRmHCX6zVasQwnVxpT2IKe6pwzJwTNCoB2X3dO8MM-DoElp31I-eZSC1tadkERi2Op9AOdFUg5f_JHA8mAEj4gmf2AQORpAC069_uqGpX4jD5koxSLuaOpr2F_sCBg8LjwMqsP5ti9s9LxPFTIg.jpg)
Share with your friend now:
group-telegram.com/gonzo_ML/3275