🔥Consistency Models [OpenAI]
Что там по ускорению диффузионных моделей?
Чтобы сгенерить нормальный арт нужны десятки шагов диффузионной модели. Можнно, конечно, дистиллировать жирную модель в более легкую, но все равно более-менее хороший результат будет требовать нескольких итераций вычисления нейронки.
Челики из OpenAI дальше пытаются ускорять синтез. И в этой статье предложили новый тип генеративных моделей — Consistency Models, которые в целом связаны диффузионными моделями через фомулировку с помощью ОДУ (Обыкновенные Дифференциальные Уравнения), вот только Consistency Models могут работать за один шаг.
Новая модель достигает FID = 3.55 on CIFAR-10 и FID=6.20 на ImageNet 64x64 за один шаг. Что лучше чем все предыдущие методы дистиляции. Но все еще слабее чем самые толстые Ганы типа StyleGAN-XL и BigGAN-deep.
Прогресс идет и, думаю, скоро последуют дальнейшие улучшения. Статью читать стоит.
❱❱ ArXiv
@ai_newz
Что там по ускорению диффузионных моделей?
Чтобы сгенерить нормальный арт нужны десятки шагов диффузионной модели. Можнно, конечно, дистиллировать жирную модель в более легкую, но все равно более-менее хороший результат будет требовать нескольких итераций вычисления нейронки.
Челики из OpenAI дальше пытаются ускорять синтез. И в этой статье предложили новый тип генеративных моделей — Consistency Models, которые в целом связаны диффузионными моделями через фомулировку с помощью ОДУ (Обыкновенные Дифференциальные Уравнения), вот только Consistency Models могут работать за один шаг.
Новая модель достигает FID = 3.55 on CIFAR-10 и FID=6.20 на ImageNet 64x64 за один шаг. Что лучше чем все предыдущие методы дистиляции. Но все еще слабее чем самые толстые Ганы типа StyleGAN-XL и BigGAN-deep.
Прогресс идет и, думаю, скоро последуют дальнейшие улучшения. Статью читать стоит.
❱❱ ArXiv
@ai_newz
group-telegram.com/ai_newz/1787
Create:
Last Update:
Last Update:
🔥Consistency Models [OpenAI]
Что там по ускорению диффузионных моделей?
Чтобы сгенерить нормальный арт нужны десятки шагов диффузионной модели. Можнно, конечно, дистиллировать жирную модель в более легкую, но все равно более-менее хороший результат будет требовать нескольких итераций вычисления нейронки.
Челики из OpenAI дальше пытаются ускорять синтез. И в этой статье предложили новый тип генеративных моделей — Consistency Models, которые в целом связаны диффузионными моделями через фомулировку с помощью ОДУ (Обыкновенные Дифференциальные Уравнения), вот только Consistency Models могут работать за один шаг.
Новая модель достигает FID = 3.55 on CIFAR-10 и FID=6.20 на ImageNet 64x64 за один шаг. Что лучше чем все предыдущие методы дистиляции. Но все еще слабее чем самые толстые Ганы типа StyleGAN-XL и BigGAN-deep.
Прогресс идет и, думаю, скоро последуют дальнейшие улучшения. Статью читать стоит.
❱❱ ArXiv
@ai_newz
Что там по ускорению диффузионных моделей?
Чтобы сгенерить нормальный арт нужны десятки шагов диффузионной модели. Можнно, конечно, дистиллировать жирную модель в более легкую, но все равно более-менее хороший результат будет требовать нескольких итераций вычисления нейронки.
Челики из OpenAI дальше пытаются ускорять синтез. И в этой статье предложили новый тип генеративных моделей — Consistency Models, которые в целом связаны диффузионными моделями через фомулировку с помощью ОДУ (Обыкновенные Дифференциальные Уравнения), вот только Consistency Models могут работать за один шаг.
Новая модель достигает FID = 3.55 on CIFAR-10 и FID=6.20 на ImageNet 64x64 за один шаг. Что лучше чем все предыдущие методы дистиляции. Но все еще слабее чем самые толстые Ганы типа StyleGAN-XL и BigGAN-deep.
Прогресс идет и, думаю, скоро последуют дальнейшие улучшения. Статью читать стоит.
❱❱ ArXiv
@ai_newz
BY эйай ньюз
Share with your friend now:
group-telegram.com/ai_newz/1787