group-telegram.com/ai_newz/2136
Last Update:
🔥Сегодня вышла просто гигантская модель Falcon 180B!
Иновационный Институт Технологий Абу-Даби удивляет. Их новая модель Falcon 180B теперь заняла первое место на открытом лидерборде HF. По качеству ответов она где-то между GPT-3.5 и GPT.4, примерно на уровне PaLM-2.
Параметры модели Falcon-180B:
- 180 млрд параметров! Напомню, что предыдущая самая мощная открытая модель была LLaMa-2 70B.
- Контекст 2048 токенов (но можно расширить с попощью RoPE scaling)
- Тренили 2.5 месяца на 4096 GPU на Amazon SageMaker.
- Модель видела 3.5 триллионов токенов (против 2 триллиона у LLaMa 2). То есть Falcon прочитала почти в 2 раза больше текстов.
- Multi-query attention (MQA) для скорости инференса и чтобы не раздувать количество параметров.
- Есть базовая и чатовая версии.
Забавно, что для инференса этой модели в int4 вам потребуется 8x A100 видеокарт (удачи!).
Лицензия позволяет очень ограниченное коммерческое использование.
❱❱ Веса и код доступны на HuggingFace HUB.
❱❱ Демо (жестко педалит).
@ai_newz
BY эйай ньюз
![](https://photo.group-telegram.com/u/cdn4.cdn-telegram.org/file/jgBXTntFUUudv3DQryxl-xs-eYqe18Rfk9QP0hOyIHWz-euavxcNiHQnVfWXNo18mfh99aUCYnda_6TGPHXs2I9eWiEwA1A7Vxb7gWHDjsFIvw5HLifnCMn2C4XNOC5fAYQFtk2H3E_tfnYA29e6ccNZwj-gCG5tExXcXU4JzSYkm45m7ITx1LI8mEDs2jM9sgTvWOgxHOoDxmtzBM2_AJNbXjSzoFHN4LMwE3CzTMylFBfHZToMM92jNby2c2RMSRgL4REUAjA0r0vKWEs5rIMsyMpEpQVYmBEi_-bn8ouaI9T-byL3zBVpeh5t1Ly2NdNsfXLV6NnAJRSB5y4nyg.jpg)
Share with your friend now:
group-telegram.com/ai_newz/2136