Telegram Group & Telegram Channel
Мем “stack more layers” и горький урок Ричарда Саттона
#ml #meme_story

Есть пара идей про истории, стоящие за некоторыми мемами. Но не как “know your meme”, где кто-то что-то ляпнул и понеслось, а именно про большие идеи, воплотившиеся в мемы.

Наверняка все знают мем “stack more layers” (см. картинку ниже). Суть его в том, что не обязательно разбираться во всяких сложных теориях, VC-размерностях и structural risk minimization. Достаточно накатить больше слоев – и оно работает. Это верно, конечно, только частично. Из интересных рассуждений на этот счет – мнение Ричарда Саттона.

Рич Саттон – один из авторитетов в AI, автор книги “Reinforcement Learning: An Introduction”, носитель гордого звания Distinguished Research Scientist DeepMind. Его блог носит скромное имя “незаконченные идеи”, а оформление – пешком из 80-ых, суровый HTML. Поначалу заставляешь себя продираться через такое полотно букв, как это http://www.incompleteideas.net/IncIdeas/BitterLesson.html. Но уже на 5-ой строке считываешь идею и продолжаешь читать.

Если сделать пересказ поста всего в 3 словах, то будет действительно “staсk more layers”. Но хочется развернуть мысль.
Саттон топит за то, что самый большой урок за 70 лет развития AI – это то, что относительно простые методы, подкрепленные масштабными вычислениями и законом Мура, выигрывают. То есть они бьют специализированные системы с тщательно заложенными в них экспертными знаниями из соответствующей предметной области.

Горький урок в том, что исследователи очень уж хотят вложить свои знания в AI-систему. Во-первых, на короткой дистанции это приносит результат. Во-вторых, очень приятно таким образом потешить свое самолюбие и сказать, что без нас, кожаных мешком, и наших уникальных знаний сий корабль бы не полетел. Но раз за разом приходит топливо в виде огромных объемов данных и терафлопсов вычислений – и как-то экспертам становится некомфортно. Судите сами:

- Шахматы. Эксперты говорили, что без человеческих знаний компьютеры никогда не победят человека. Deep Blue в 1997-ом победил Каспарова, а подход был самый общий – “massive deep search”. Шахматные эксперты даже после этого заявляли, что брутфорс победил разок, и надо возвращаться к шахматным правилам. Неправда. Шахматы изменились навсегда;
- Go. То же самое с Go 20 лет спустя, только на сей раз это была комбинация поиска и обучения;
- Распознавание речи. В 70-ых первые статистические методы, основанные на скрытых марковских цепях, обогнали специализированные методы в соревнованиях, спонсированных DARPA. Ученые еще долго продолжали закладывать свои экспертные знания в системы распознавания речи, полагая, что они должны работать примерно как человек. Но Саттон набрасывает, обзывая такие исследовательские активности контрпродуктивными;
- Компьютерное зрение. Тут все знают, что произошло в 2012 году. Старые-добрые методы на SIFT-признаках ушли на свалку, сверточные сети, GPU и данные навсегда изменили компьютерное зрение;
- NLP. Саттон как-то скромно упоминает NLP всего один раз и не приводит примеров. Тогда я приведу: одна из величайших побед машинного обучения и, в частности, NLP – это машинный перевод и трансформеры. Кто помнит, как Google Translate резко улучшился сначала в 2016 с переходом от statistical machine translation к NMT и позже с переходом на трансформеры. Ходят слухи, что NMT сразу заработали end-to-end лучше, чем огромные системы из сотен подсистем SMT, учитывающих экспертные знания лингвистов. Например, “выравнивание” (alignment – понять, какие слова в исходном языке каким словам соответствуют) в машинном переводе – непростая тема, а attention сам выучивает выравнивание. Сюда же, конечно, и вся история с LLM.

Саттон делает вывод, что мы продолжаем спотыкаться раз за разом, наступать на все те же грабли наших экспертных знаний. Мы должны продолжать работать над системами, у которых есть потенциал на масштабирование. И это поиск и обучение (search & learning, все как в AlphaGo, но тут надо сделать оговорку, что на момент написание поста Саттон уже давно был Distinguished Research Scientist DeepMind).

Продолжение ⬇️



group-telegram.com/new_yorko_times/102
Create:
Last Update:

Мем “stack more layers” и горький урок Ричарда Саттона
#ml #meme_story

Есть пара идей про истории, стоящие за некоторыми мемами. Но не как “know your meme”, где кто-то что-то ляпнул и понеслось, а именно про большие идеи, воплотившиеся в мемы.

Наверняка все знают мем “stack more layers” (см. картинку ниже). Суть его в том, что не обязательно разбираться во всяких сложных теориях, VC-размерностях и structural risk minimization. Достаточно накатить больше слоев – и оно работает. Это верно, конечно, только частично. Из интересных рассуждений на этот счет – мнение Ричарда Саттона.

Рич Саттон – один из авторитетов в AI, автор книги “Reinforcement Learning: An Introduction”, носитель гордого звания Distinguished Research Scientist DeepMind. Его блог носит скромное имя “незаконченные идеи”, а оформление – пешком из 80-ых, суровый HTML. Поначалу заставляешь себя продираться через такое полотно букв, как это http://www.incompleteideas.net/IncIdeas/BitterLesson.html. Но уже на 5-ой строке считываешь идею и продолжаешь читать.

Если сделать пересказ поста всего в 3 словах, то будет действительно “staсk more layers”. Но хочется развернуть мысль.
Саттон топит за то, что самый большой урок за 70 лет развития AI – это то, что относительно простые методы, подкрепленные масштабными вычислениями и законом Мура, выигрывают. То есть они бьют специализированные системы с тщательно заложенными в них экспертными знаниями из соответствующей предметной области.

Горький урок в том, что исследователи очень уж хотят вложить свои знания в AI-систему. Во-первых, на короткой дистанции это приносит результат. Во-вторых, очень приятно таким образом потешить свое самолюбие и сказать, что без нас, кожаных мешком, и наших уникальных знаний сий корабль бы не полетел. Но раз за разом приходит топливо в виде огромных объемов данных и терафлопсов вычислений – и как-то экспертам становится некомфортно. Судите сами:

- Шахматы. Эксперты говорили, что без человеческих знаний компьютеры никогда не победят человека. Deep Blue в 1997-ом победил Каспарова, а подход был самый общий – “massive deep search”. Шахматные эксперты даже после этого заявляли, что брутфорс победил разок, и надо возвращаться к шахматным правилам. Неправда. Шахматы изменились навсегда;
- Go. То же самое с Go 20 лет спустя, только на сей раз это была комбинация поиска и обучения;
- Распознавание речи. В 70-ых первые статистические методы, основанные на скрытых марковских цепях, обогнали специализированные методы в соревнованиях, спонсированных DARPA. Ученые еще долго продолжали закладывать свои экспертные знания в системы распознавания речи, полагая, что они должны работать примерно как человек. Но Саттон набрасывает, обзывая такие исследовательские активности контрпродуктивными;
- Компьютерное зрение. Тут все знают, что произошло в 2012 году. Старые-добрые методы на SIFT-признаках ушли на свалку, сверточные сети, GPU и данные навсегда изменили компьютерное зрение;
- NLP. Саттон как-то скромно упоминает NLP всего один раз и не приводит примеров. Тогда я приведу: одна из величайших побед машинного обучения и, в частности, NLP – это машинный перевод и трансформеры. Кто помнит, как Google Translate резко улучшился сначала в 2016 с переходом от statistical machine translation к NMT и позже с переходом на трансформеры. Ходят слухи, что NMT сразу заработали end-to-end лучше, чем огромные системы из сотен подсистем SMT, учитывающих экспертные знания лингвистов. Например, “выравнивание” (alignment – понять, какие слова в исходном языке каким словам соответствуют) в машинном переводе – непростая тема, а attention сам выучивает выравнивание. Сюда же, конечно, и вся история с LLM.

Саттон делает вывод, что мы продолжаем спотыкаться раз за разом, наступать на все те же грабли наших экспертных знаний. Мы должны продолжать работать над системами, у которых есть потенциал на масштабирование. И это поиск и обучение (search & learning, все как в AlphaGo, но тут надо сделать оговорку, что на момент написание поста Саттон уже давно был Distinguished Research Scientist DeepMind).

Продолжение ⬇️

BY New Yorko Times


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/new_yorko_times/102

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Telegram does offer end-to-end encrypted communications through Secret Chats, but this is not the default setting. Standard conversations use the MTProto method, enabling server-client encryption but with them stored on the server for ease-of-access. This makes using Telegram across multiple devices simple, but also means that the regular Telegram chats you’re having with folks are not as secure as you may believe. Russians and Ukrainians are both prolific users of Telegram. They rely on the app for channels that act as newsfeeds, group chats (both public and private), and one-to-one communication. Since the Russian invasion of Ukraine, Telegram has remained an important lifeline for both Russians and Ukrainians, as a way of staying aware of the latest news and keeping in touch with loved ones. The regulator said it had received information that messages containing stock tips and other investment advice with respect to selected listed companies are being widely circulated through websites and social media platforms such as Telegram, Facebook, WhatsApp and Instagram. Apparently upbeat developments in Russia's discussions with Ukraine helped at least temporarily send investors back into risk assets. Russian President Vladimir Putin said during a meeting with his Belarusian counterpart Alexander Lukashenko that there were "certain positive developments" occurring in the talks with Ukraine, according to a transcript of their meeting. Putin added that discussions were happening "almost on a daily basis." I want a secure messaging app, should I use Telegram?
from id


Telegram New Yorko Times
FROM American