Telegram Group & Telegram Channel
LoRA vs Full Fine-Tuning: an illusion of equivalence #paper

Статья трёхнедельной давности, в которой обсуждается разницу между fine-tuning с помощью LoRA и full fine-tuning (FFT). Авторы задаются вопросом: являются ли решения полученные с помощью LoRA и FFT одинаковыми, при условии, что показывают схожее качество. Выясняется, что не всё так просто.

Оказывается, что LoRA и FFT выдают разные на структурном уровне решения, в частности внутри весов LoRA возникают intruder dimensionsсингулярные векторы при больших сингулярных числах, которые примерно ортогональны сингулярным векторам весов оригинальной модели, что приводит к затиранию информации содержащейся в изначальных весах. Это выполняется даже в тех случаях, когда обученные с помощью LoRA модели показывают хорошее (сопоставимое) качество с FFT на downstream task. Наконец, чем выше ранг LoRA, тем меньше возникает проблем описанных выше.

Проблему intruder dimensions авторы связывают с использованием матриц низкого ранга. Для того чтобы бороться с ней предлагается использовать технику rank-stabilization (домножать результат произведения матриц LoRA на γ = α / rank ** 0.5) вместе с увеличением ранга обучаемой LoRA, либо использовать FFT. Для первого случая авторы советуют использовать α = 2 * rank.

📜Paper

@gentech_lab



group-telegram.com/gentech_lab/76
Create:
Last Update:

LoRA vs Full Fine-Tuning: an illusion of equivalence #paper

Статья трёхнедельной давности, в которой обсуждается разницу между fine-tuning с помощью LoRA и full fine-tuning (FFT). Авторы задаются вопросом: являются ли решения полученные с помощью LoRA и FFT одинаковыми, при условии, что показывают схожее качество. Выясняется, что не всё так просто.

Оказывается, что LoRA и FFT выдают разные на структурном уровне решения, в частности внутри весов LoRA возникают intruder dimensionsсингулярные векторы при больших сингулярных числах, которые примерно ортогональны сингулярным векторам весов оригинальной модели, что приводит к затиранию информации содержащейся в изначальных весах. Это выполняется даже в тех случаях, когда обученные с помощью LoRA модели показывают хорошее (сопоставимое) качество с FFT на downstream task. Наконец, чем выше ранг LoRA, тем меньше возникает проблем описанных выше.

Проблему intruder dimensions авторы связывают с использованием матриц низкого ранга. Для того чтобы бороться с ней предлагается использовать технику rank-stabilization (домножать результат произведения матриц LoRA на γ = α / rank ** 0.5) вместе с увеличением ранга обучаемой LoRA, либо использовать FFT. Для первого случая авторы советуют использовать α = 2 * rank.

📜Paper

@gentech_lab

BY Gentech Lab






Share with your friend now:
group-telegram.com/gentech_lab/76

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

In the United States, Telegram's lower public profile has helped it mostly avoid high level scrutiny from Congress, but it has not gone unnoticed. However, the perpetrators of such frauds are now adopting new methods and technologies to defraud the investors. He adds: "Telegram has become my primary news source." WhatsApp, a rival messaging platform, introduced some measures to counter disinformation when Covid-19 was first sweeping the world. The channel appears to be part of the broader information war that has developed following Russia's invasion of Ukraine. The Kremlin has paid Russian TikTok influencers to push propaganda, according to a Vice News investigation, while ProPublica found that fake Russian fact check videos had been viewed over a million times on Telegram.
from it


Telegram Gentech Lab
FROM American