group-telegram.com/ai_newz/2986
Last Update:
GPT-2 (1.6B) за 24 часа и всего $672
Карпатый затвитил, что примерно 5 лет назад анонсировали GPT-2. Тогда на тренировку этой модели у OpenAI ушло целых ~$100,000.
Сейчас же, чтобы воспроизвести те результаты потребуется одна нода 8XH100 на 24 часа, что обойдется вам в районе $500-$672.
Карпатый показывает как это легко и дешево сделать на его минималистичном llm.c в 5000 строк кода:
https://github.com/karpathy/llm.c/discussions/677
Далее у Андрея в планах заимплементировать операции в fp8, файнтюнинг, мультимодальность и заонбордить на llm.c более современные архитектуры вроде LLama и Gemma.
Приятно наблюдать, как за 5 лет стоимость обучения модели упала аж в 150-200 раз, благодаря улучшению технологий и, конечно, ускорению железа. Так и до GPT-3 на рисоварке действительно недалеко!
@ai_newz
BY эйай ньюз
![](https://photo.group-telegram.com/u/cdn4.cdn-telegram.org/file/exUPy2totdnHjDKWTGOmgIcqsO_g8E6mchxpIouHm12NnVvJTrkEPbwqfNUTAMAJjNzN-3i9AgVp0TGchW9b3fnMw11o3PIW-6S3pu8vqyD-lyo1O-z7YkuX3MK9_kR2_kMHEsiAH1DqzhnyY13aJzLasvilxxtUlUTZ5mSDgJr5OTvf0wEGxlyitxayveumOmQEOR45tFphn1Nr4b6Y4UV1NK0qCRg-OpP4cZrm26SbvKzw-fob7wWr9dvz7kZhCo45J2dNDfpuCWWYa2J--NoaO-l9uZxGPxUwrq1NtDRRu5n3a61Nq2J9t8-zqgdkqkOl9kUXJjX65UdpGt5jLw.jpg)
Share with your friend now:
group-telegram.com/ai_newz/2986