Telegram Group & Telegram Channel
LoRA vs Full Fine-Tuning: an illusion of equivalence #paper

Статья трёхнедельной давности, в которой обсуждается разницу между fine-tuning с помощью LoRA и full fine-tuning (FFT). Авторы задаются вопросом: являются ли решения полученные с помощью LoRA и FFT одинаковыми, при условии, что показывают схожее качество. Выясняется, что не всё так просто.

Оказывается, что LoRA и FFT выдают разные на структурном уровне решения, в частности внутри весов LoRA возникают intruder dimensionsсингулярные векторы при больших сингулярных числах, которые примерно ортогональны сингулярным векторам весов оригинальной модели, что приводит к затиранию информации содержащейся в изначальных весах. Это выполняется даже в тех случаях, когда обученные с помощью LoRA модели показывают хорошее (сопоставимое) качество с FFT на downstream task. Наконец, чем выше ранг LoRA, тем меньше возникает проблем описанных выше.

Проблему intruder dimensions авторы связывают с использованием матриц низкого ранга. Для того чтобы бороться с ней предлагается использовать технику rank-stabilization (домножать результат произведения матриц LoRA на γ = α / rank ** 0.5) вместе с увеличением ранга обучаемой LoRA, либо использовать FFT. Для первого случая авторы советуют использовать α = 2 * rank.

📜Paper

@gentech_lab



group-telegram.com/gentech_lab/78
Create:
Last Update:

LoRA vs Full Fine-Tuning: an illusion of equivalence #paper

Статья трёхнедельной давности, в которой обсуждается разницу между fine-tuning с помощью LoRA и full fine-tuning (FFT). Авторы задаются вопросом: являются ли решения полученные с помощью LoRA и FFT одинаковыми, при условии, что показывают схожее качество. Выясняется, что не всё так просто.

Оказывается, что LoRA и FFT выдают разные на структурном уровне решения, в частности внутри весов LoRA возникают intruder dimensionsсингулярные векторы при больших сингулярных числах, которые примерно ортогональны сингулярным векторам весов оригинальной модели, что приводит к затиранию информации содержащейся в изначальных весах. Это выполняется даже в тех случаях, когда обученные с помощью LoRA модели показывают хорошее (сопоставимое) качество с FFT на downstream task. Наконец, чем выше ранг LoRA, тем меньше возникает проблем описанных выше.

Проблему intruder dimensions авторы связывают с использованием матриц низкого ранга. Для того чтобы бороться с ней предлагается использовать технику rank-stabilization (домножать результат произведения матриц LoRA на γ = α / rank ** 0.5) вместе с увеличением ранга обучаемой LoRA, либо использовать FFT. Для первого случая авторы советуют использовать α = 2 * rank.

📜Paper

@gentech_lab

BY Gentech Lab






Share with your friend now:
group-telegram.com/gentech_lab/78

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

"This time we received the coordinates of enemy vehicles marked 'V' in Kyiv region," it added. As a result, the pandemic saw many newcomers to Telegram, including prominent anti-vaccine activists who used the app's hands-off approach to share false information on shots, a study from the Institute for Strategic Dialogue shows. Such instructions could actually endanger people — citizens receive air strike warnings via smartphone alerts. Artem Kliuchnikov and his family fled Ukraine just days before the Russian invasion. The Dow Jones Industrial Average fell 230 points, or 0.7%. Meanwhile, the S&P 500 and the Nasdaq Composite dropped 1.3% and 2.2%, respectively. All three indexes began the day with gains before selling off.
from us


Telegram Gentech Lab
FROM American