⚡А вот и наша статья подоспела - Cache Me if You Can: Accelerating Diffusion Models through Block Caching
Как я уже упоминал, наша команда в Meta GenAI занимается ускорением диффузии. В этой статье мы ускоряем генерацию изображений до x1.8 раза без потери качества с помощью умного кеширования во время инференса.
Как?
Для генерации одной картинки обычно требуется сделать много прогонов через модель Unet, например 50 DDIM шагов. Мы тут подметили, что активации Spatial-Attention блоков довольно гладко меняются от шага к шагу, и паттерн их изменения не зависит от промпта. Естественно, мы подумали, почему бы не кешировать фичи тех блоков, которые меняются наиболее медленно и пересчитывать их только раз в несколько шагов. Понт в том, что львиная доля всех вычислений происходит именно в attention блоках, поэтому пропуская их вычисления хотя бы на некоторых шагах, мы сильно ускоряем генерацию.
Все блоки разные, и их активации меняются с разной скоростью. Поэтому мы построили графики изменений активаций для каждого блока (усреднили по 64 запросам) и использовали их чтобы автоматически найти когда и какие блоки можно кешировать, и как долго должен жить кеш для каждого из блоков.
Чтобы убрать мелкие артифакты после кеширования, мы дополнительно обучаем time-dependent scale и shift параметры для каждого выходнрго канала кешируемых блоков. Это помогает сгладить разницу распределений между "честно посчитанными" фичами и закеширвоанными.
В итоге, получили x1.5-1.8 ускорение, причем FID скор даже улучшился после применения кеширования. А результаты Human Eval показали, что при фиксированном времени генерации модель с кешированием выдает более качественные картинки чем бейзлайн.
На каких архитектурах тестировали:
- LDM 512x512 (та же архитектура как у SD 1.5, но натренированная нами внутри GenAI)
- Наша Emu 768x768 с 2.7B параметров.
То есть метод гибок и может подстраиваться под модели разных размеров, причем расписание кеширования разных блоков строится автоматически. Взлетит и на SDXL тоже.
Статья на Arxiv
@ai_newz
Как я уже упоминал, наша команда в Meta GenAI занимается ускорением диффузии. В этой статье мы ускоряем генерацию изображений до x1.8 раза без потери качества с помощью умного кеширования во время инференса.
Как?
Для генерации одной картинки обычно требуется сделать много прогонов через модель Unet, например 50 DDIM шагов. Мы тут подметили, что активации Spatial-Attention блоков довольно гладко меняются от шага к шагу, и паттерн их изменения не зависит от промпта. Естественно, мы подумали, почему бы не кешировать фичи тех блоков, которые меняются наиболее медленно и пересчитывать их только раз в несколько шагов. Понт в том, что львиная доля всех вычислений происходит именно в attention блоках, поэтому пропуская их вычисления хотя бы на некоторых шагах, мы сильно ускоряем генерацию.
Все блоки разные, и их активации меняются с разной скоростью. Поэтому мы построили графики изменений активаций для каждого блока (усреднили по 64 запросам) и использовали их чтобы автоматически найти когда и какие блоки можно кешировать, и как долго должен жить кеш для каждого из блоков.
Чтобы убрать мелкие артифакты после кеширования, мы дополнительно обучаем time-dependent scale и shift параметры для каждого выходнрго канала кешируемых блоков. Это помогает сгладить разницу распределений между "честно посчитанными" фичами и закеширвоанными.
В итоге, получили x1.5-1.8 ускорение, причем FID скор даже улучшился после применения кеширования. А результаты Human Eval показали, что при фиксированном времени генерации модель с кешированием выдает более качественные картинки чем бейзлайн.
На каких архитектурах тестировали:
- LDM 512x512 (та же архитектура как у SD 1.5, но натренированная нами внутри GenAI)
- Наша Emu 768x768 с 2.7B параметров.
То есть метод гибок и может подстраиваться под модели разных размеров, причем расписание кеширования разных блоков строится автоматически. Взлетит и на SDXL тоже.
Статья на Arxiv
@ai_newz
group-telegram.com/ai_newz/2333
Create:
Last Update:
Last Update:
⚡А вот и наша статья подоспела - Cache Me if You Can: Accelerating Diffusion Models through Block Caching
Как я уже упоминал, наша команда в Meta GenAI занимается ускорением диффузии. В этой статье мы ускоряем генерацию изображений до x1.8 раза без потери качества с помощью умного кеширования во время инференса.
Как?
Для генерации одной картинки обычно требуется сделать много прогонов через модель Unet, например 50 DDIM шагов. Мы тут подметили, что активации Spatial-Attention блоков довольно гладко меняются от шага к шагу, и паттерн их изменения не зависит от промпта. Естественно, мы подумали, почему бы не кешировать фичи тех блоков, которые меняются наиболее медленно и пересчитывать их только раз в несколько шагов. Понт в том, что львиная доля всех вычислений происходит именно в attention блоках, поэтому пропуская их вычисления хотя бы на некоторых шагах, мы сильно ускоряем генерацию.
Все блоки разные, и их активации меняются с разной скоростью. Поэтому мы построили графики изменений активаций для каждого блока (усреднили по 64 запросам) и использовали их чтобы автоматически найти когда и какие блоки можно кешировать, и как долго должен жить кеш для каждого из блоков.
Чтобы убрать мелкие артифакты после кеширования, мы дополнительно обучаем time-dependent scale и shift параметры для каждого выходнрго канала кешируемых блоков. Это помогает сгладить разницу распределений между "честно посчитанными" фичами и закеширвоанными.
В итоге, получили x1.5-1.8 ускорение, причем FID скор даже улучшился после применения кеширования. А результаты Human Eval показали, что при фиксированном времени генерации модель с кешированием выдает более качественные картинки чем бейзлайн.
На каких архитектурах тестировали:
- LDM 512x512 (та же архитектура как у SD 1.5, но натренированная нами внутри GenAI)
- Наша Emu 768x768 с 2.7B параметров.
То есть метод гибок и может подстраиваться под модели разных размеров, причем расписание кеширования разных блоков строится автоматически. Взлетит и на SDXL тоже.
Статья на Arxiv
@ai_newz
Как я уже упоминал, наша команда в Meta GenAI занимается ускорением диффузии. В этой статье мы ускоряем генерацию изображений до x1.8 раза без потери качества с помощью умного кеширования во время инференса.
Как?
Для генерации одной картинки обычно требуется сделать много прогонов через модель Unet, например 50 DDIM шагов. Мы тут подметили, что активации Spatial-Attention блоков довольно гладко меняются от шага к шагу, и паттерн их изменения не зависит от промпта. Естественно, мы подумали, почему бы не кешировать фичи тех блоков, которые меняются наиболее медленно и пересчитывать их только раз в несколько шагов. Понт в том, что львиная доля всех вычислений происходит именно в attention блоках, поэтому пропуская их вычисления хотя бы на некоторых шагах, мы сильно ускоряем генерацию.
Все блоки разные, и их активации меняются с разной скоростью. Поэтому мы построили графики изменений активаций для каждого блока (усреднили по 64 запросам) и использовали их чтобы автоматически найти когда и какие блоки можно кешировать, и как долго должен жить кеш для каждого из блоков.
Чтобы убрать мелкие артифакты после кеширования, мы дополнительно обучаем time-dependent scale и shift параметры для каждого выходнрго канала кешируемых блоков. Это помогает сгладить разницу распределений между "честно посчитанными" фичами и закеширвоанными.
В итоге, получили x1.5-1.8 ускорение, причем FID скор даже улучшился после применения кеширования. А результаты Human Eval показали, что при фиксированном времени генерации модель с кешированием выдает более качественные картинки чем бейзлайн.
На каких архитектурах тестировали:
- LDM 512x512 (та же архитектура как у SD 1.5, но натренированная нами внутри GenAI)
- Наша Emu 768x768 с 2.7B параметров.
То есть метод гибок и может подстраиваться под модели разных размеров, причем расписание кеширования разных блоков строится автоматически. Взлетит и на SDXL тоже.
Статья на Arxiv
@ai_newz
BY эйай ньюз
![](https://photo.group-telegram.com/u/cdn4.cdn-telegram.org/file/FgwEucf20P9kDEIFHKY9lNxyG6B52z73qyMyIuagc5cQ8RxEI-qQFtcOkSe-VgjKah3ZSRRaRgFOy2fJySQfRaxGebS7xggGav1r_Ua-ddrKFM3aKNRyXWp1M2A1UXByETT6LG5TRIpz2RNFWSFyKHb2hV2CFFi0JZFcp993ldwwQ1mQBOb5mURvu48Vd9iTxq93xrrIkY4MYHsPOUckkypJkWkbi1alK4vN7QkY6HT7RZYlQduhyk7CzDJLQ7RMMeOSBe9alDRZEjsV62Fl3n2QV6hcSc1Xsol_rg4MN18ezXkY4u6a91f_H0HQEJMrYAAeg_l3L-VHAhPJSC1ujg.jpg)
![](https://photo.group-telegram.com/u/cdn4.cdn-telegram.org/file/mEGUEOArJL9Nmp_X2PxvfQXG36v2pUSWphQVyWPIhz-JYIQtiwcmLoUMYZavOqN6SpEHXkOHhKzqKrRK7HTcJb6oTBphnLJ9hbUlOSn-OCbaD2mwYo-xopoR6x7Yy0xsTNusGt_jIDOewp3YwiKKkIJk8X_iRGbGkJ0nyXxSgKQ2_p3UAtIHwzsZMipLb8CWqUv5Yx5K9y2NWdWn8MSrCwh2v7KZybgBiLOleHLzR_reWP2aZt25NgBljKKxAT2goskFmlJ8mgT_AAFD-6KyM7PON38x7aRwujEUBLse5X76XTd57UmPJM3E0AOaoxjrji1gorTELqNsvwFRXWOdzw.jpg)
![](https://photo.group-telegram.com/u/cdn4.cdn-telegram.org/file/GJ6w8alSvCz9vsCCiWb-S5Ij96twzTxHoEk7t8W3wf2XY5J57o7880xfFcebOeTgEvtySdR00PyEAHqjunzvGTeiKr61j3GuiIVod9ml-c4KKWSPioQGSpk4ShODRmlpzuQ4q7xkn6-E97PH8iVejFgF3QHBRrHNIpA5LWP0_xhCDrZl5dRkrxH8YDa3I90T3NOa05XVOTPm8h54FofWQlAZ44OKTw3XOVRxDpRW34hFDvJZOSGT9ghUaSCBrHHjGd50uKnl_F-D48clr4hRCJgqdcjgI2svtH7a6MgpJP_dPhE0ds797EVbkaNl9e6YSFa3cfzy1dcQ34e1u9n_NA.jpg)
![](https://photo.group-telegram.com/u/cdn4.cdn-telegram.org/file/jd3r8UyZOPiP9qOQgKSi02ddiWl_q4URFx-ubGUV0YaFdN00yV6Y1u63MjZnh4r452IiXGTQhI5oNH3Bno63sIlCS_lM1CT9U18mHVu5DSkS6l_2c2TMWTN_tlfgX-Dgj92vqUB0_OX3v2a-ZNkUKuPlGcOIiVbEzVTfqVZ9t8nFBp_C0Up3YrIKnr7g2mKxJJhQTyBC_5tUi6pmadkmpkfYtKZ8-a51MSAG4LenUpMYq6nflzGTV1R73Tke_haf6Xki_-F8l043HJzaMXEotEvf37-CcRC3kUtKDJUjOSq5vQ2uO0v2Zb0dd3x4VqchguoKOnZDE8C9o6d2tmJnvg.jpg)
Share with your friend now:
group-telegram.com/ai_newz/2333