Telegram Group & Telegram Channel
#nlp #про_nlp #ai_alignment #длиннопост

🌸Какие ценности у языковых моделей?🌸

Часть 2. Базовые модели, SFT — продолжение

🟣BLOOM — самая большая мультиязычная языковая модель в опен-сорсе. Обучалась на готовом корпусе OSCAR, плюс еще несколько источников — которые вместе прошли дедупликацию и автоматическую чистку от спама + персональных данных. Все вместе назвали новым названием — ROOTS Corpus.
Проведено сравнение с другими языковыми моделями (наконец-то!) по критериям "непредвзятость" (Fairness) и "смещенность" (Bias) из бенчмарка HELM. В среавнении с другими языковыми моделями, BLOOM показывает себя хорошо — лучше только результаты Anthropic, InstructGPT, OPT.
Статья
🟣LaMDa — закрытая языковая модель от Google, виновница новостей о "сознании" нейросетей. В рамках автмоатичсекой оценки качества и общей цели создания модели введена метрика качества SSI — sensibleness, specificity, and interestingness. То есть цель ответов модели — быть разумными, конкретными и интересными.
Отдельно большое внимание уделено безопасности — полная разметка диалогов по более чем 50 категориям возможных нежелательных тематик, плюс привдеена статистика по сбалансированности социодемфакторов самих разметчиков. Метрики по фактологичности и безопасности у модели вышли высокими (около 80%), а вот "интересность" пока проседает в районе 20-30%
Минус: в работе отсутствуют замеры на классических датасетах и бенчмарках (ну конечно, зачем, когда ввели новую метрику и на ней померились)
В работе приводится крайне интересный вывод: (а) масштабирование модели само по себе улучшает качество, но его улучшения в плане безопасности и обоснованности намного отстают от возможностей человека, и (б) сочетание масштабирования и дообучения с помощью качественных данных по SSI значительно улучшает прирост качества по всем показателям безопасности и фактологичности.
Статья

🟣OPT — языковая модель от Мета с масштабом до 175 млрд параметров. Модель оценивается на детекции хейтспича, а также уже известном нам датасете стереотипов CrowS-Pairs и StereoSet (добавляет категорию профессии). авторы приводят честное сравнение: модель показывает себя хуже по почти всем показателям, чем GPT-3, но лучше, чем первая версия BlenderBot.
Статья

🟣BlenderBot 3 — языковая модель с дообучением на диалогах диалоговых задачах. Модель улучшает качество за счет дообучения на специфичных датасетах, для нетоксичности — SaFeRDialogues. Сверху работает классификатор токсичных сообщений, обученный на Википедии (да, если вы не знали, это отличный источник токсичных обсжудений), который не пропускает небезопасные ответы модели.
Оценку на классических датасетах в основном проводили в сравнении с OPT, на собственном датасете: BB лучше справляется на категории возраста, политики, экономики, внешности, но хуже, чем OPT, показывает себя на культурных биасах, половой ориентации.
Своим же классификатором токсичности авторы оценили другие модели на тех же затравках. Тогда как у BlenderBot 6% токсичности, у некоторых вариаций OPT до 70% срабатываний. Подловили!
Статья

Краткий итог:
— пока что общего замера моделей на этических тестах, тестах на безопасность нет.
— все измеряются на разных датасетах, и к тому же, сложно не отметить, что по уму все сделано только у проприетарных моделей, которым более релевантно доказывать свою безопасность — Anthropic, LaMDa, OPT
— у опенсорсных Pythia, CerebrasGPT, OpenLLaMa метрики так себе, а у GPT-J, StableLM даже нет замеров.
Please open Telegram to view this post
VIEW IN TELEGRAM



group-telegram.com/rybolos_channel/673
Create:
Last Update:

#nlp #про_nlp #ai_alignment #длиннопост

🌸Какие ценности у языковых моделей?🌸

Часть 2. Базовые модели, SFT — продолжение

🟣BLOOM — самая большая мультиязычная языковая модель в опен-сорсе. Обучалась на готовом корпусе OSCAR, плюс еще несколько источников — которые вместе прошли дедупликацию и автоматическую чистку от спама + персональных данных. Все вместе назвали новым названием — ROOTS Corpus.
Проведено сравнение с другими языковыми моделями (наконец-то!) по критериям "непредвзятость" (Fairness) и "смещенность" (Bias) из бенчмарка HELM. В среавнении с другими языковыми моделями, BLOOM показывает себя хорошо — лучше только результаты Anthropic, InstructGPT, OPT.
Статья
🟣LaMDa — закрытая языковая модель от Google, виновница новостей о "сознании" нейросетей. В рамках автмоатичсекой оценки качества и общей цели создания модели введена метрика качества SSI — sensibleness, specificity, and interestingness. То есть цель ответов модели — быть разумными, конкретными и интересными.
Отдельно большое внимание уделено безопасности — полная разметка диалогов по более чем 50 категориям возможных нежелательных тематик, плюс привдеена статистика по сбалансированности социодемфакторов самих разметчиков. Метрики по фактологичности и безопасности у модели вышли высокими (около 80%), а вот "интересность" пока проседает в районе 20-30%
Минус: в работе отсутствуют замеры на классических датасетах и бенчмарках (ну конечно, зачем, когда ввели новую метрику и на ней померились)
В работе приводится крайне интересный вывод: (а) масштабирование модели само по себе улучшает качество, но его улучшения в плане безопасности и обоснованности намного отстают от возможностей человека, и (б) сочетание масштабирования и дообучения с помощью качественных данных по SSI значительно улучшает прирост качества по всем показателям безопасности и фактологичности.
Статья

🟣OPT — языковая модель от Мета с масштабом до 175 млрд параметров. Модель оценивается на детекции хейтспича, а также уже известном нам датасете стереотипов CrowS-Pairs и StereoSet (добавляет категорию профессии). авторы приводят честное сравнение: модель показывает себя хуже по почти всем показателям, чем GPT-3, но лучше, чем первая версия BlenderBot.
Статья

🟣BlenderBot 3 — языковая модель с дообучением на диалогах диалоговых задачах. Модель улучшает качество за счет дообучения на специфичных датасетах, для нетоксичности — SaFeRDialogues. Сверху работает классификатор токсичных сообщений, обученный на Википедии (да, если вы не знали, это отличный источник токсичных обсжудений), который не пропускает небезопасные ответы модели.
Оценку на классических датасетах в основном проводили в сравнении с OPT, на собственном датасете: BB лучше справляется на категории возраста, политики, экономики, внешности, но хуже, чем OPT, показывает себя на культурных биасах, половой ориентации.
Своим же классификатором токсичности авторы оценили другие модели на тех же затравках. Тогда как у BlenderBot 6% токсичности, у некоторых вариаций OPT до 70% срабатываний. Подловили!
Статья

Краткий итог:
— пока что общего замера моделей на этических тестах, тестах на безопасность нет.
— все измеряются на разных датасетах, и к тому же, сложно не отметить, что по уму все сделано только у проприетарных моделей, которым более релевантно доказывать свою безопасность — Anthropic, LaMDa, OPT
— у опенсорсных Pythia, CerebrasGPT, OpenLLaMa метрики так себе, а у GPT-J, StableLM даже нет замеров.

BY Kali Novskaya


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/rybolos_channel/673

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Founder Pavel Durov says tech is meant to set you free As such, the SC would like to remind investors to always exercise caution when evaluating investment opportunities, especially those promising unrealistically high returns with little or no risk. Investors should also never deposit money into someone’s personal bank account if instructed. "We're seeing really dramatic moves, and it's all really tied to Ukraine right now, and in a secondary way, in terms of interest rates," Octavio Marenzi, CEO of Opimas, told Yahoo Finance Live on Thursday. "This war in Ukraine is going to give the Fed the ammunition, the cover that it needs, to not raise interest rates too quickly. And I think Jay Powell is a very tepid sort of inflation fighter and he's not going to do as much as he needs to do to get that under control. And this seems like an excuse to kick the can further down the road still and not do too much too soon." Since its launch in 2013, Telegram has grown from a simple messaging app to a broadcast network. Its user base isn’t as vast as WhatsApp’s, and its broadcast platform is a fraction the size of Twitter, but it’s nonetheless showing its use. While Telegram has been embroiled in controversy for much of its life, it has become a vital source of communication during the invasion of Ukraine. But, if all of this is new to you, let us explain, dear friends, what on Earth a Telegram is meant to be, and why you should, or should not, need to care. This provided opportunity to their linked entities to offload their shares at higher prices and make significant profits at the cost of unsuspecting retail investors.
from ye


Telegram Kali Novskaya
FROM American