TransformerFAM: Feedback attention is working memory
еще одна попытка заново изобрести рнн в контексте трансформера
как сейчас принято обрабатывать длинные последовательности - через скользящее окно и по блокам (хардвейрный аспект), информация передается по предыдущим токенам для каузального аттна и по предыдущим слоям. однако авторы немножечко знают за нейробиологию, где есть концепция рабочей памяти (working memory)
на уровне биологического нейрона она описывается как что-то вроде импульса, который периодически возвращается к этому самому нейрону, отчего появляется связь, которая постоянно фигурирует в нашей голове по необходимости. как только необходимость уходит, этот сигнал тоже пропадает
авторы почерпнули эту идею и решили воспроизвести это через связь токенов на том же уровне глубины в сетке. сделали это через обучаемые токены, которые вбирают в себя поблочно информацию о предыдущих токенах ⇒ блок компрессится в токены и таким образом контекст предыдущих блоков подается в трансформер в счет нескольких токенов
однако, псевдокод как будто немного противоречит основной концепции воркинг мемори. эти самые токены представляют из себя память с предыдущих блоков, при том последующие воркинг мемори токены могут обращаться к таким же токенам с предыдущих блоков (напоминает рнн с хидден стейтами, не так ли? прям то же самое). отсюда возникает интуиция, что на вход операции внимания мы можем подавать эти мемори токены и токены с данного блока, но в алгоритме к этому добавляются обычные инпут токены с предыдущих блоков. то есть 2х истории подается аттеншну - появляется послевкусие костыльности, but if it works let it work
так же на ощущение костыльности намекает тот факт, что если увеличивать количество мемори токенов (64 → 256), то перформанс ухудшается. связывают с нейробиологией, но это забавно. неужели в 64 токенах может скрываться вся необходимая воркинг мемори, почему не 52, или скорее перформанс ухудшился из-за жесткой нестабильности?
и есть кстати подозрения, что воркинг мемори работает из-за обильного количества резидуал коннекшнов + так же авторы пишут, что не нужны дополнительные веса (кроме как новых обучаемых токенов) для операции аттеншна, что странно, тк по сути эти самые токены проходят дважды через один и тот же слой (хотя тут я могу ошибаться но судя по операциям так оно и есть) ⇒ при бекворде проекция из одного пространства в другое или вотевер ослабевает (что бы это ни значило)
имхо идея вряд ли в долгосрок работает. она лучше block-wise sliding window attention (и в принципе с ним авторы и сравниваются), но есть много других вопросов
кстати есть очень классные пункты в аппендиксе о том, что они пробовали и не сработало + вывод они начали с описания фильма Нолана Мементо. за это прям респект
👀LINK
еще одна попытка заново изобрести рнн в контексте трансформера
как сейчас принято обрабатывать длинные последовательности - через скользящее окно и по блокам (хардвейрный аспект), информация передается по предыдущим токенам для каузального аттна и по предыдущим слоям. однако авторы немножечко знают за нейробиологию, где есть концепция рабочей памяти (working memory)
на уровне биологического нейрона она описывается как что-то вроде импульса, который периодически возвращается к этому самому нейрону, отчего появляется связь, которая постоянно фигурирует в нашей голове по необходимости. как только необходимость уходит, этот сигнал тоже пропадает
авторы почерпнули эту идею и решили воспроизвести это через связь токенов на том же уровне глубины в сетке. сделали это через обучаемые токены, которые вбирают в себя поблочно информацию о предыдущих токенах ⇒ блок компрессится в токены и таким образом контекст предыдущих блоков подается в трансформер в счет нескольких токенов
однако, псевдокод как будто немного противоречит основной концепции воркинг мемори. эти самые токены представляют из себя память с предыдущих блоков, при том последующие воркинг мемори токены могут обращаться к таким же токенам с предыдущих блоков (напоминает рнн с хидден стейтами, не так ли? прям то же самое). отсюда возникает интуиция, что на вход операции внимания мы можем подавать эти мемори токены и токены с данного блока, но в алгоритме к этому добавляются обычные инпут токены с предыдущих блоков. то есть 2х истории подается аттеншну - появляется послевкусие костыльности, but if it works let it work
так же на ощущение костыльности намекает тот факт, что если увеличивать количество мемори токенов (64 → 256), то перформанс ухудшается. связывают с нейробиологией, но это забавно. неужели в 64 токенах может скрываться вся необходимая воркинг мемори, почему не 52, или скорее перформанс ухудшился из-за жесткой нестабильности?
и есть кстати подозрения, что воркинг мемори работает из-за обильного количества резидуал коннекшнов + так же авторы пишут, что не нужны дополнительные веса (кроме как новых обучаемых токенов) для операции аттеншна, что странно, тк по сути эти самые токены проходят дважды через один и тот же слой (хотя тут я могу ошибаться но судя по операциям так оно и есть) ⇒ при бекворде проекция из одного пространства в другое или вотевер ослабевает (что бы это ни значило)
имхо идея вряд ли в долгосрок работает. она лучше block-wise sliding window attention (и в принципе с ним авторы и сравниваются), но есть много других вопросов
кстати есть очень классные пункты в аппендиксе о том, что они пробовали и не сработало + вывод они начали с описания фильма Нолана Мементо. за это прям респект
👀LINK
group-telegram.com/rizzearch/349
Create:
Last Update:
Last Update:
TransformerFAM: Feedback attention is working memory
еще одна попытка заново изобрести рнн в контексте трансформера
как сейчас принято обрабатывать длинные последовательности - через скользящее окно и по блокам (хардвейрный аспект), информация передается по предыдущим токенам для каузального аттна и по предыдущим слоям. однако авторы немножечко знают за нейробиологию, где есть концепция рабочей памяти (working memory)
на уровне биологического нейрона она описывается как что-то вроде импульса, который периодически возвращается к этому самому нейрону, отчего появляется связь, которая постоянно фигурирует в нашей голове по необходимости. как только необходимость уходит, этот сигнал тоже пропадает
авторы почерпнули эту идею и решили воспроизвести это через связь токенов на том же уровне глубины в сетке. сделали это через обучаемые токены, которые вбирают в себя поблочно информацию о предыдущих токенах ⇒ блок компрессится в токены и таким образом контекст предыдущих блоков подается в трансформер в счет нескольких токенов
однако, псевдокод как будто немного противоречит основной концепции воркинг мемори. эти самые токены представляют из себя память с предыдущих блоков, при том последующие воркинг мемори токены могут обращаться к таким же токенам с предыдущих блоков (напоминает рнн с хидден стейтами, не так ли? прям то же самое). отсюда возникает интуиция, что на вход операции внимания мы можем подавать эти мемори токены и токены с данного блока, но в алгоритме к этому добавляются обычные инпут токены с предыдущих блоков. то есть 2х истории подается аттеншну - появляется послевкусие костыльности, but if it works let it work
так же на ощущение костыльности намекает тот факт, что если увеличивать количество мемори токенов (64 → 256), то перформанс ухудшается. связывают с нейробиологией, но это забавно. неужели в 64 токенах может скрываться вся необходимая воркинг мемори, почему не 52, или скорее перформанс ухудшился из-за жесткой нестабильности?
и есть кстати подозрения, что воркинг мемори работает из-за обильного количества резидуал коннекшнов + так же авторы пишут, что не нужны дополнительные веса (кроме как новых обучаемых токенов) для операции аттеншна, что странно, тк по сути эти самые токены проходят дважды через один и тот же слой (хотя тут я могу ошибаться но судя по операциям так оно и есть) ⇒ при бекворде проекция из одного пространства в другое или вотевер ослабевает (что бы это ни значило)
имхо идея вряд ли в долгосрок работает. она лучше block-wise sliding window attention (и в принципе с ним авторы и сравниваются), но есть много других вопросов
кстати есть очень классные пункты в аппендиксе о том, что они пробовали и не сработало + вывод они начали с описания фильма Нолана Мементо. за это прям респект
👀LINK
еще одна попытка заново изобрести рнн в контексте трансформера
как сейчас принято обрабатывать длинные последовательности - через скользящее окно и по блокам (хардвейрный аспект), информация передается по предыдущим токенам для каузального аттна и по предыдущим слоям. однако авторы немножечко знают за нейробиологию, где есть концепция рабочей памяти (working memory)
на уровне биологического нейрона она описывается как что-то вроде импульса, который периодически возвращается к этому самому нейрону, отчего появляется связь, которая постоянно фигурирует в нашей голове по необходимости. как только необходимость уходит, этот сигнал тоже пропадает
авторы почерпнули эту идею и решили воспроизвести это через связь токенов на том же уровне глубины в сетке. сделали это через обучаемые токены, которые вбирают в себя поблочно информацию о предыдущих токенах ⇒ блок компрессится в токены и таким образом контекст предыдущих блоков подается в трансформер в счет нескольких токенов
однако, псевдокод как будто немного противоречит основной концепции воркинг мемори. эти самые токены представляют из себя память с предыдущих блоков, при том последующие воркинг мемори токены могут обращаться к таким же токенам с предыдущих блоков (напоминает рнн с хидден стейтами, не так ли? прям то же самое). отсюда возникает интуиция, что на вход операции внимания мы можем подавать эти мемори токены и токены с данного блока, но в алгоритме к этому добавляются обычные инпут токены с предыдущих блоков. то есть 2х истории подается аттеншну - появляется послевкусие костыльности, but if it works let it work
так же на ощущение костыльности намекает тот факт, что если увеличивать количество мемори токенов (64 → 256), то перформанс ухудшается. связывают с нейробиологией, но это забавно. неужели в 64 токенах может скрываться вся необходимая воркинг мемори, почему не 52, или скорее перформанс ухудшился из-за жесткой нестабильности?
и есть кстати подозрения, что воркинг мемори работает из-за обильного количества резидуал коннекшнов + так же авторы пишут, что не нужны дополнительные веса (кроме как новых обучаемых токенов) для операции аттеншна, что странно, тк по сути эти самые токены проходят дважды через один и тот же слой (хотя тут я могу ошибаться но судя по операциям так оно и есть) ⇒ при бекворде проекция из одного пространства в другое или вотевер ослабевает (что бы это ни значило)
имхо идея вряд ли в долгосрок работает. она лучше block-wise sliding window attention (и в принципе с ним авторы и сравниваются), но есть много других вопросов
кстати есть очень классные пункты в аппендиксе о том, что они пробовали и не сработало + вывод они начали с описания фильма Нолана Мементо. за это прям респект
👀LINK
BY rizzearch
![](https://photo.group-telegram.com/u/cdn4.cdn-telegram.org/file/LJTUdtc9WXG5ioAnW2GzMahxSh4-yn_LnYoZzjfx3dhfb915mh9MRlaQu7dfEntOF6n6o_aeGdrqUf26x0kebHnhYSYdtekbuSDuqub3r0vNjYmFVHoaEP7DxMU-t42MOyoe9-lEMEGbpC0t4TTlVP5CJlxbj7hcv13pAdjj-DdeGoi95oBQFC-SUygSxW09rknwbiwsYaTHzVSZXk7nL1FeohEFfcnSjMumkiEKMEbUZ7i8CUqlFH3iKpCd00ffRTxkqCHLb7uuw9XtJ2wF4eKkb0XtUJCB8VEJ4Esc7oAB5aHIdLQTLNU0Kc8eClSyxmEwyAy4BAfa6o6FJ8iJCw.jpg)
![](https://photo.group-telegram.com/u/cdn4.cdn-telegram.org/file/Hxe6oWywxpmdB2NqFHllnsEErbiApSgMIxUYQyBos2r8TfIAZREUGRfzbeaEDaaeAH7ShZ-QzUqo2f4iTqp0AhPKMny4zhurymN49mUumS6I-qknPh4eQ3RZZFFdUBPXoGEf1csrsDFaWAIqDIcw4_pRex7h9mQ_3BjzYfYCcynD84Fn6qISLjR6O831hwNOpDekoVbb9T8UJk5zze6MoAt3N6SVf8LZG8Dg3fmXX0SzVf-5dPEI5ZqO7DOxZCOVHqDpH7qRxmrd_MQjNE9VrU6nQBeR7ol6cLjgOMjilXGvKBBf9-1nbs4DQGQAqBstts7_KoNECNTgZE0sq1-OlQ.jpg)
![](https://photo.group-telegram.com/u/cdn4.cdn-telegram.org/file/srdcyX71h__kxXz09J81tWUU1AokllVH2-Rm2VJzMJF2Xu2lrdJ4zRkNrw7kc7qVMOTMFtn6gLKfxs4BTxO9RPzt5S6_V3U0lLcdhBGtAQykPkDqSDV1GbnJ1Ittg6hiIV-mPiFHqwiO0DEddmVARU_a7WRh3tljIf3tgQ6DURifyc21TFHpFrnjxXlvRbQpSCiMYPdUcsfcK2AS1KzuIpRb91UxsBVzY5wK08RvN_Eb5nMi8goyJidFLspvKl2JXEn3N5jabwzXVAytPJmQrQb--EkpVornqkjP3w6aNKKI882O-Iav05u5dd_z3W0jUiaW60hZmXwW2sOtbg2Q6A.jpg)
![](https://photo.group-telegram.com/u/cdn4.cdn-telegram.org/file/o7MsrCCz7jK2E-_qlr8AVl2HHYQCYQ2A6XKc4Gh1b2PItbgC92x5F7JpV3fLxKPAnMXgvo06q6f9XLcrMPPWAeLW0gYjlEc1gZ7QCHo5ACwzri0uaUPv8_BEeL0od2UULdOiu5PBD3U1sPSSvMDwKmO4eUY1z__Vjtb0UhZ902INVAluXpcuTvORXPOXtaAYd0GhZou_dhzLm3uNSF4YXLjyZ2MwdV-C4SMmiVnYFq2Pf4DCoTsPTqZ5PQNBChCnsDwMwhvMieERRbGY93ITWL7eSiuHP1tYT0LGM2gbrF5EPrQOj3oyADzHBRNKOu1tDTAefYNPFBADVCMGC2DZ3A.jpg)
![](https://photo.group-telegram.com/u/cdn4.cdn-telegram.org/file/iTiMyUKRF_9C163neE72j-jojt3mejcbUKSbhIYJS9cN_7iGKw76OSM4bn2g3plezJDp3ypg-mJxXu_j1_scK-aJSZARaDa6rg7mGTuaXL2mykKEjvLRZbCjV_CTkxb1IQC4_LIzlIb4kN3AiX0bdaYfSFCydu-ZnuokqFfsI_Iks48K-akX6QPxAES6WY98JeL8PP7VoX1X_5iuyZKZ-osznI9CoABW7AL1spZtAQ2I88ITM-jJXMwsAsu_Smr6bvlO-RMt4TvodtActSJP4istWSK1KGOswhlWgqs5LSFpP-1oBqbFr2FVa3bK46IljdX0N4g9F7NwdMV8ZzSH2g.jpg)
Share with your friend now:
group-telegram.com/rizzearch/349