Telegram Group & Telegram Channel
Мем “stack more layers” и горький урок Ричарда Саттона
#ml #meme_story

Есть пара идей про истории, стоящие за некоторыми мемами. Но не как “know your meme”, где кто-то что-то ляпнул и понеслось, а именно про большие идеи, воплотившиеся в мемы.

Наверняка все знают мем “stack more layers” (см. картинку ниже). Суть его в том, что не обязательно разбираться во всяких сложных теориях, VC-размерностях и structural risk minimization. Достаточно накатить больше слоев – и оно работает. Это верно, конечно, только частично. Из интересных рассуждений на этот счет – мнение Ричарда Саттона.

Рич Саттон – один из авторитетов в AI, автор книги “Reinforcement Learning: An Introduction”, носитель гордого звания Distinguished Research Scientist DeepMind. Его блог носит скромное имя “незаконченные идеи”, а оформление – пешком из 80-ых, суровый HTML. Поначалу заставляешь себя продираться через такое полотно букв, как это http://www.incompleteideas.net/IncIdeas/BitterLesson.html. Но уже на 5-ой строке считываешь идею и продолжаешь читать.

Если сделать пересказ поста всего в 3 словах, то будет действительно “staсk more layers”. Но хочется развернуть мысль.
Саттон топит за то, что самый большой урок за 70 лет развития AI – это то, что относительно простые методы, подкрепленные масштабными вычислениями и законом Мура, выигрывают. То есть они бьют специализированные системы с тщательно заложенными в них экспертными знаниями из соответствующей предметной области.

Горький урок в том, что исследователи очень уж хотят вложить свои знания в AI-систему. Во-первых, на короткой дистанции это приносит результат. Во-вторых, очень приятно таким образом потешить свое самолюбие и сказать, что без нас, кожаных мешком, и наших уникальных знаний сий корабль бы не полетел. Но раз за разом приходит топливо в виде огромных объемов данных и терафлопсов вычислений – и как-то экспертам становится некомфортно. Судите сами:

- Шахматы. Эксперты говорили, что без человеческих знаний компьютеры никогда не победят человека. Deep Blue в 1997-ом победил Каспарова, а подход был самый общий – “massive deep search”. Шахматные эксперты даже после этого заявляли, что брутфорс победил разок, и надо возвращаться к шахматным правилам. Неправда. Шахматы изменились навсегда;
- Go. То же самое с Go 20 лет спустя, только на сей раз это была комбинация поиска и обучения;
- Распознавание речи. В 70-ых первые статистические методы, основанные на скрытых марковских цепях, обогнали специализированные методы в соревнованиях, спонсированных DARPA. Ученые еще долго продолжали закладывать свои экспертные знания в системы распознавания речи, полагая, что они должны работать примерно как человек. Но Саттон набрасывает, обзывая такие исследовательские активности контрпродуктивными;
- Компьютерное зрение. Тут все знают, что произошло в 2012 году. Старые-добрые методы на SIFT-признаках ушли на свалку, сверточные сети, GPU и данные навсегда изменили компьютерное зрение;
- NLP. Саттон как-то скромно упоминает NLP всего один раз и не приводит примеров. Тогда я приведу: одна из величайших побед машинного обучения и, в частности, NLP – это машинный перевод и трансформеры. Кто помнит, как Google Translate резко улучшился сначала в 2016 с переходом от statistical machine translation к NMT и позже с переходом на трансформеры. Ходят слухи, что NMT сразу заработали end-to-end лучше, чем огромные системы из сотен подсистем SMT, учитывающих экспертные знания лингвистов. Например, “выравнивание” (alignment – понять, какие слова в исходном языке каким словам соответствуют) в машинном переводе – непростая тема, а attention сам выучивает выравнивание. Сюда же, конечно, и вся история с LLM.

Саттон делает вывод, что мы продолжаем спотыкаться раз за разом, наступать на все те же грабли наших экспертных знаний. Мы должны продолжать работать над системами, у которых есть потенциал на масштабирование. И это поиск и обучение (search & learning, все как в AlphaGo, но тут надо сделать оговорку, что на момент написание поста Саттон уже давно был Distinguished Research Scientist DeepMind).

Продолжение ⬇️



group-telegram.com/new_yorko_times/102
Create:
Last Update:

Мем “stack more layers” и горький урок Ричарда Саттона
#ml #meme_story

Есть пара идей про истории, стоящие за некоторыми мемами. Но не как “know your meme”, где кто-то что-то ляпнул и понеслось, а именно про большие идеи, воплотившиеся в мемы.

Наверняка все знают мем “stack more layers” (см. картинку ниже). Суть его в том, что не обязательно разбираться во всяких сложных теориях, VC-размерностях и structural risk minimization. Достаточно накатить больше слоев – и оно работает. Это верно, конечно, только частично. Из интересных рассуждений на этот счет – мнение Ричарда Саттона.

Рич Саттон – один из авторитетов в AI, автор книги “Reinforcement Learning: An Introduction”, носитель гордого звания Distinguished Research Scientist DeepMind. Его блог носит скромное имя “незаконченные идеи”, а оформление – пешком из 80-ых, суровый HTML. Поначалу заставляешь себя продираться через такое полотно букв, как это http://www.incompleteideas.net/IncIdeas/BitterLesson.html. Но уже на 5-ой строке считываешь идею и продолжаешь читать.

Если сделать пересказ поста всего в 3 словах, то будет действительно “staсk more layers”. Но хочется развернуть мысль.
Саттон топит за то, что самый большой урок за 70 лет развития AI – это то, что относительно простые методы, подкрепленные масштабными вычислениями и законом Мура, выигрывают. То есть они бьют специализированные системы с тщательно заложенными в них экспертными знаниями из соответствующей предметной области.

Горький урок в том, что исследователи очень уж хотят вложить свои знания в AI-систему. Во-первых, на короткой дистанции это приносит результат. Во-вторых, очень приятно таким образом потешить свое самолюбие и сказать, что без нас, кожаных мешком, и наших уникальных знаний сий корабль бы не полетел. Но раз за разом приходит топливо в виде огромных объемов данных и терафлопсов вычислений – и как-то экспертам становится некомфортно. Судите сами:

- Шахматы. Эксперты говорили, что без человеческих знаний компьютеры никогда не победят человека. Deep Blue в 1997-ом победил Каспарова, а подход был самый общий – “massive deep search”. Шахматные эксперты даже после этого заявляли, что брутфорс победил разок, и надо возвращаться к шахматным правилам. Неправда. Шахматы изменились навсегда;
- Go. То же самое с Go 20 лет спустя, только на сей раз это была комбинация поиска и обучения;
- Распознавание речи. В 70-ых первые статистические методы, основанные на скрытых марковских цепях, обогнали специализированные методы в соревнованиях, спонсированных DARPA. Ученые еще долго продолжали закладывать свои экспертные знания в системы распознавания речи, полагая, что они должны работать примерно как человек. Но Саттон набрасывает, обзывая такие исследовательские активности контрпродуктивными;
- Компьютерное зрение. Тут все знают, что произошло в 2012 году. Старые-добрые методы на SIFT-признаках ушли на свалку, сверточные сети, GPU и данные навсегда изменили компьютерное зрение;
- NLP. Саттон как-то скромно упоминает NLP всего один раз и не приводит примеров. Тогда я приведу: одна из величайших побед машинного обучения и, в частности, NLP – это машинный перевод и трансформеры. Кто помнит, как Google Translate резко улучшился сначала в 2016 с переходом от statistical machine translation к NMT и позже с переходом на трансформеры. Ходят слухи, что NMT сразу заработали end-to-end лучше, чем огромные системы из сотен подсистем SMT, учитывающих экспертные знания лингвистов. Например, “выравнивание” (alignment – понять, какие слова в исходном языке каким словам соответствуют) в машинном переводе – непростая тема, а attention сам выучивает выравнивание. Сюда же, конечно, и вся история с LLM.

Саттон делает вывод, что мы продолжаем спотыкаться раз за разом, наступать на все те же грабли наших экспертных знаний. Мы должны продолжать работать над системами, у которых есть потенциал на масштабирование. И это поиск и обучение (search & learning, все как в AlphaGo, но тут надо сделать оговорку, что на момент написание поста Саттон уже давно был Distinguished Research Scientist DeepMind).

Продолжение ⬇️

BY New Yorko Times


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/new_yorko_times/102

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

After fleeing Russia, the brothers founded Telegram as a way to communicate outside the Kremlin's orbit. They now run it from Dubai, and Pavel Durov says it has more than 500 million monthly active users. During the operations, Sebi officials seized various records and documents, including 34 mobile phones, six laptops, four desktops, four tablets, two hard drive disks and one pen drive from the custody of these persons. Emerson Brooking, a disinformation expert at the Atlantic Council's Digital Forensic Research Lab, said: "Back in the Wild West period of content moderation, like 2014 or 2015, maybe they could have gotten away with it, but it stands in marked contrast with how other companies run themselves today." "The result is on this photo: fiery 'greetings' to the invaders," the Security Service of Ukraine wrote alongside a photo showing several military vehicles among plumes of black smoke. Telegram Messenger Blocks Navalny Bot During Russian Election
from no


Telegram New Yorko Times
FROM American