Telegram Group & Telegram Channel
Мем “stack more layers” и горький урок Ричарда Саттона
#ml #meme_story

Есть пара идей про истории, стоящие за некоторыми мемами. Но не как “know your meme”, где кто-то что-то ляпнул и понеслось, а именно про большие идеи, воплотившиеся в мемы.

Наверняка все знают мем “stack more layers” (см. картинку ниже). Суть его в том, что не обязательно разбираться во всяких сложных теориях, VC-размерностях и structural risk minimization. Достаточно накатить больше слоев – и оно работает. Это верно, конечно, только частично. Из интересных рассуждений на этот счет – мнение Ричарда Саттона.

Рич Саттон – один из авторитетов в AI, автор книги “Reinforcement Learning: An Introduction”, носитель гордого звания Distinguished Research Scientist DeepMind. Его блог носит скромное имя “незаконченные идеи”, а оформление – пешком из 80-ых, суровый HTML. Поначалу заставляешь себя продираться через такое полотно букв, как это http://www.incompleteideas.net/IncIdeas/BitterLesson.html. Но уже на 5-ой строке считываешь идею и продолжаешь читать.

Если сделать пересказ поста всего в 3 словах, то будет действительно “staсk more layers”. Но хочется развернуть мысль.
Саттон топит за то, что самый большой урок за 70 лет развития AI – это то, что относительно простые методы, подкрепленные масштабными вычислениями и законом Мура, выигрывают. То есть они бьют специализированные системы с тщательно заложенными в них экспертными знаниями из соответствующей предметной области.

Горький урок в том, что исследователи очень уж хотят вложить свои знания в AI-систему. Во-первых, на короткой дистанции это приносит результат. Во-вторых, очень приятно таким образом потешить свое самолюбие и сказать, что без нас, кожаных мешком, и наших уникальных знаний сий корабль бы не полетел. Но раз за разом приходит топливо в виде огромных объемов данных и терафлопсов вычислений – и как-то экспертам становится некомфортно. Судите сами:

- Шахматы. Эксперты говорили, что без человеческих знаний компьютеры никогда не победят человека. Deep Blue в 1997-ом победил Каспарова, а подход был самый общий – “massive deep search”. Шахматные эксперты даже после этого заявляли, что брутфорс победил разок, и надо возвращаться к шахматным правилам. Неправда. Шахматы изменились навсегда;
- Go. То же самое с Go 20 лет спустя, только на сей раз это была комбинация поиска и обучения;
- Распознавание речи. В 70-ых первые статистические методы, основанные на скрытых марковских цепях, обогнали специализированные методы в соревнованиях, спонсированных DARPA. Ученые еще долго продолжали закладывать свои экспертные знания в системы распознавания речи, полагая, что они должны работать примерно как человек. Но Саттон набрасывает, обзывая такие исследовательские активности контрпродуктивными;
- Компьютерное зрение. Тут все знают, что произошло в 2012 году. Старые-добрые методы на SIFT-признаках ушли на свалку, сверточные сети, GPU и данные навсегда изменили компьютерное зрение;
- NLP. Саттон как-то скромно упоминает NLP всего один раз и не приводит примеров. Тогда я приведу: одна из величайших побед машинного обучения и, в частности, NLP – это машинный перевод и трансформеры. Кто помнит, как Google Translate резко улучшился сначала в 2016 с переходом от statistical machine translation к NMT и позже с переходом на трансформеры. Ходят слухи, что NMT сразу заработали end-to-end лучше, чем огромные системы из сотен подсистем SMT, учитывающих экспертные знания лингвистов. Например, “выравнивание” (alignment – понять, какие слова в исходном языке каким словам соответствуют) в машинном переводе – непростая тема, а attention сам выучивает выравнивание. Сюда же, конечно, и вся история с LLM.

Саттон делает вывод, что мы продолжаем спотыкаться раз за разом, наступать на все те же грабли наших экспертных знаний. Мы должны продолжать работать над системами, у которых есть потенциал на масштабирование. И это поиск и обучение (search & learning, все как в AlphaGo, но тут надо сделать оговорку, что на момент написание поста Саттон уже давно был Distinguished Research Scientist DeepMind).

Продолжение ⬇️



group-telegram.com/new_yorko_times/102
Create:
Last Update:

Мем “stack more layers” и горький урок Ричарда Саттона
#ml #meme_story

Есть пара идей про истории, стоящие за некоторыми мемами. Но не как “know your meme”, где кто-то что-то ляпнул и понеслось, а именно про большие идеи, воплотившиеся в мемы.

Наверняка все знают мем “stack more layers” (см. картинку ниже). Суть его в том, что не обязательно разбираться во всяких сложных теориях, VC-размерностях и structural risk minimization. Достаточно накатить больше слоев – и оно работает. Это верно, конечно, только частично. Из интересных рассуждений на этот счет – мнение Ричарда Саттона.

Рич Саттон – один из авторитетов в AI, автор книги “Reinforcement Learning: An Introduction”, носитель гордого звания Distinguished Research Scientist DeepMind. Его блог носит скромное имя “незаконченные идеи”, а оформление – пешком из 80-ых, суровый HTML. Поначалу заставляешь себя продираться через такое полотно букв, как это http://www.incompleteideas.net/IncIdeas/BitterLesson.html. Но уже на 5-ой строке считываешь идею и продолжаешь читать.

Если сделать пересказ поста всего в 3 словах, то будет действительно “staсk more layers”. Но хочется развернуть мысль.
Саттон топит за то, что самый большой урок за 70 лет развития AI – это то, что относительно простые методы, подкрепленные масштабными вычислениями и законом Мура, выигрывают. То есть они бьют специализированные системы с тщательно заложенными в них экспертными знаниями из соответствующей предметной области.

Горький урок в том, что исследователи очень уж хотят вложить свои знания в AI-систему. Во-первых, на короткой дистанции это приносит результат. Во-вторых, очень приятно таким образом потешить свое самолюбие и сказать, что без нас, кожаных мешком, и наших уникальных знаний сий корабль бы не полетел. Но раз за разом приходит топливо в виде огромных объемов данных и терафлопсов вычислений – и как-то экспертам становится некомфортно. Судите сами:

- Шахматы. Эксперты говорили, что без человеческих знаний компьютеры никогда не победят человека. Deep Blue в 1997-ом победил Каспарова, а подход был самый общий – “massive deep search”. Шахматные эксперты даже после этого заявляли, что брутфорс победил разок, и надо возвращаться к шахматным правилам. Неправда. Шахматы изменились навсегда;
- Go. То же самое с Go 20 лет спустя, только на сей раз это была комбинация поиска и обучения;
- Распознавание речи. В 70-ых первые статистические методы, основанные на скрытых марковских цепях, обогнали специализированные методы в соревнованиях, спонсированных DARPA. Ученые еще долго продолжали закладывать свои экспертные знания в системы распознавания речи, полагая, что они должны работать примерно как человек. Но Саттон набрасывает, обзывая такие исследовательские активности контрпродуктивными;
- Компьютерное зрение. Тут все знают, что произошло в 2012 году. Старые-добрые методы на SIFT-признаках ушли на свалку, сверточные сети, GPU и данные навсегда изменили компьютерное зрение;
- NLP. Саттон как-то скромно упоминает NLP всего один раз и не приводит примеров. Тогда я приведу: одна из величайших побед машинного обучения и, в частности, NLP – это машинный перевод и трансформеры. Кто помнит, как Google Translate резко улучшился сначала в 2016 с переходом от statistical machine translation к NMT и позже с переходом на трансформеры. Ходят слухи, что NMT сразу заработали end-to-end лучше, чем огромные системы из сотен подсистем SMT, учитывающих экспертные знания лингвистов. Например, “выравнивание” (alignment – понять, какие слова в исходном языке каким словам соответствуют) в машинном переводе – непростая тема, а attention сам выучивает выравнивание. Сюда же, конечно, и вся история с LLM.

Саттон делает вывод, что мы продолжаем спотыкаться раз за разом, наступать на все те же грабли наших экспертных знаний. Мы должны продолжать работать над системами, у которых есть потенциал на масштабирование. И это поиск и обучение (search & learning, все как в AlphaGo, но тут надо сделать оговорку, что на момент написание поста Саттон уже давно был Distinguished Research Scientist DeepMind).

Продолжение ⬇️

BY New Yorko Times


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/new_yorko_times/102

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Sebi said data, emails and other documents are being retrieved from the seized devices and detailed investigation is in progress. "We as Ukrainians believe that the truth is on our side, whether it's truth that you're proclaiming about the war and everything else, why would you want to hide it?," he said. Telegram users are able to send files of any type up to 2GB each and access them from any device, with no limit on cloud storage, which has made downloading files more popular on the platform. Since its launch in 2013, Telegram has grown from a simple messaging app to a broadcast network. Its user base isn’t as vast as WhatsApp’s, and its broadcast platform is a fraction the size of Twitter, but it’s nonetheless showing its use. While Telegram has been embroiled in controversy for much of its life, it has become a vital source of communication during the invasion of Ukraine. But, if all of this is new to you, let us explain, dear friends, what on Earth a Telegram is meant to be, and why you should, or should not, need to care. Additionally, investors are often instructed to deposit monies into personal bank accounts of individuals who claim to represent a legitimate entity, and/or into an unrelated corporate account. To lend credence and to lure unsuspecting victims, perpetrators usually claim that their entity and/or the investment schemes are approved by financial authorities.
from us


Telegram New Yorko Times
FROM American