Telegram Group & Telegram Channel
#nlp #про_nlp #ai_alignment #длиннопост

🌸Какие ценности у языковых моделей?🌸

Часть 2. Базовые модели, SFT — продолжение

🟣BLOOM — самая большая мультиязычная языковая модель в опен-сорсе. Обучалась на готовом корпусе OSCAR, плюс еще несколько источников — которые вместе прошли дедупликацию и автоматическую чистку от спама + персональных данных. Все вместе назвали новым названием — ROOTS Corpus.
Проведено сравнение с другими языковыми моделями (наконец-то!) по критериям "непредвзятость" (Fairness) и "смещенность" (Bias) из бенчмарка HELM. В среавнении с другими языковыми моделями, BLOOM показывает себя хорошо — лучше только результаты Anthropic, InstructGPT, OPT.
Статья
🟣LaMDa — закрытая языковая модель от Google, виновница новостей о "сознании" нейросетей. В рамках автмоатичсекой оценки качества и общей цели создания модели введена метрика качества SSI — sensibleness, specificity, and interestingness. То есть цель ответов модели — быть разумными, конкретными и интересными.
Отдельно большое внимание уделено безопасности — полная разметка диалогов по более чем 50 категориям возможных нежелательных тематик, плюс привдеена статистика по сбалансированности социодемфакторов самих разметчиков. Метрики по фактологичности и безопасности у модели вышли высокими (около 80%), а вот "интересность" пока проседает в районе 20-30%
Минус: в работе отсутствуют замеры на классических датасетах и бенчмарках (ну конечно, зачем, когда ввели новую метрику и на ней померились)
В работе приводится крайне интересный вывод: (а) масштабирование модели само по себе улучшает качество, но его улучшения в плане безопасности и обоснованности намного отстают от возможностей человека, и (б) сочетание масштабирования и дообучения с помощью качественных данных по SSI значительно улучшает прирост качества по всем показателям безопасности и фактологичности.
Статья

🟣OPT — языковая модель от Мета с масштабом до 175 млрд параметров. Модель оценивается на детекции хейтспича, а также уже известном нам датасете стереотипов CrowS-Pairs и StereoSet (добавляет категорию профессии). авторы приводят честное сравнение: модель показывает себя хуже по почти всем показателям, чем GPT-3, но лучше, чем первая версия BlenderBot.
Статья

🟣BlenderBot 3 — языковая модель с дообучением на диалогах диалоговых задачах. Модель улучшает качество за счет дообучения на специфичных датасетах, для нетоксичности — SaFeRDialogues. Сверху работает классификатор токсичных сообщений, обученный на Википедии (да, если вы не знали, это отличный источник токсичных обсжудений), который не пропускает небезопасные ответы модели.
Оценку на классических датасетах в основном проводили в сравнении с OPT, на собственном датасете: BB лучше справляется на категории возраста, политики, экономики, внешности, но хуже, чем OPT, показывает себя на культурных биасах, половой ориентации.
Своим же классификатором токсичности авторы оценили другие модели на тех же затравках. Тогда как у BlenderBot 6% токсичности, у некоторых вариаций OPT до 70% срабатываний. Подловили!
Статья

Краткий итог:
— пока что общего замера моделей на этических тестах, тестах на безопасность нет.
— все измеряются на разных датасетах, и к тому же, сложно не отметить, что по уму все сделано только у проприетарных моделей, которым более релевантно доказывать свою безопасность — Anthropic, LaMDa, OPT
— у опенсорсных Pythia, CerebrasGPT, OpenLLaMa метрики так себе, а у GPT-J, StableLM даже нет замеров.
Please open Telegram to view this post
VIEW IN TELEGRAM



group-telegram.com/rybolos_channel/673
Create:
Last Update:

#nlp #про_nlp #ai_alignment #длиннопост

🌸Какие ценности у языковых моделей?🌸

Часть 2. Базовые модели, SFT — продолжение

🟣BLOOM — самая большая мультиязычная языковая модель в опен-сорсе. Обучалась на готовом корпусе OSCAR, плюс еще несколько источников — которые вместе прошли дедупликацию и автоматическую чистку от спама + персональных данных. Все вместе назвали новым названием — ROOTS Corpus.
Проведено сравнение с другими языковыми моделями (наконец-то!) по критериям "непредвзятость" (Fairness) и "смещенность" (Bias) из бенчмарка HELM. В среавнении с другими языковыми моделями, BLOOM показывает себя хорошо — лучше только результаты Anthropic, InstructGPT, OPT.
Статья
🟣LaMDa — закрытая языковая модель от Google, виновница новостей о "сознании" нейросетей. В рамках автмоатичсекой оценки качества и общей цели создания модели введена метрика качества SSI — sensibleness, specificity, and interestingness. То есть цель ответов модели — быть разумными, конкретными и интересными.
Отдельно большое внимание уделено безопасности — полная разметка диалогов по более чем 50 категориям возможных нежелательных тематик, плюс привдеена статистика по сбалансированности социодемфакторов самих разметчиков. Метрики по фактологичности и безопасности у модели вышли высокими (около 80%), а вот "интересность" пока проседает в районе 20-30%
Минус: в работе отсутствуют замеры на классических датасетах и бенчмарках (ну конечно, зачем, когда ввели новую метрику и на ней померились)
В работе приводится крайне интересный вывод: (а) масштабирование модели само по себе улучшает качество, но его улучшения в плане безопасности и обоснованности намного отстают от возможностей человека, и (б) сочетание масштабирования и дообучения с помощью качественных данных по SSI значительно улучшает прирост качества по всем показателям безопасности и фактологичности.
Статья

🟣OPT — языковая модель от Мета с масштабом до 175 млрд параметров. Модель оценивается на детекции хейтспича, а также уже известном нам датасете стереотипов CrowS-Pairs и StereoSet (добавляет категорию профессии). авторы приводят честное сравнение: модель показывает себя хуже по почти всем показателям, чем GPT-3, но лучше, чем первая версия BlenderBot.
Статья

🟣BlenderBot 3 — языковая модель с дообучением на диалогах диалоговых задачах. Модель улучшает качество за счет дообучения на специфичных датасетах, для нетоксичности — SaFeRDialogues. Сверху работает классификатор токсичных сообщений, обученный на Википедии (да, если вы не знали, это отличный источник токсичных обсжудений), который не пропускает небезопасные ответы модели.
Оценку на классических датасетах в основном проводили в сравнении с OPT, на собственном датасете: BB лучше справляется на категории возраста, политики, экономики, внешности, но хуже, чем OPT, показывает себя на культурных биасах, половой ориентации.
Своим же классификатором токсичности авторы оценили другие модели на тех же затравках. Тогда как у BlenderBot 6% токсичности, у некоторых вариаций OPT до 70% срабатываний. Подловили!
Статья

Краткий итог:
— пока что общего замера моделей на этических тестах, тестах на безопасность нет.
— все измеряются на разных датасетах, и к тому же, сложно не отметить, что по уму все сделано только у проприетарных моделей, которым более релевантно доказывать свою безопасность — Anthropic, LaMDa, OPT
— у опенсорсных Pythia, CerebrasGPT, OpenLLaMa метрики так себе, а у GPT-J, StableLM даже нет замеров.

BY Kali Novskaya


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/rybolos_channel/673

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Again, in contrast to Facebook, Google and Twitter, Telegram's founder Pavel Durov runs his company in relative secrecy from Dubai. Founder Pavel Durov says tech is meant to set you free False news often spreads via public groups, or chats, with potentially fatal effects. "Russians are really disconnected from the reality of what happening to their country," Andrey said. "So Telegram has become essential for understanding what's going on to the Russian-speaking world." In the past, it was noticed that through bulk SMSes, investors were induced to invest in or purchase the stocks of certain listed companies.
from tr


Telegram Kali Novskaya
FROM American