Telegram Group & Telegram Channel
Мем “stack more layers” и горький урок Ричарда Саттона
#ml #meme_story

Есть пара идей про истории, стоящие за некоторыми мемами. Но не как “know your meme”, где кто-то что-то ляпнул и понеслось, а именно про большие идеи, воплотившиеся в мемы.

Наверняка все знают мем “stack more layers” (см. картинку ниже). Суть его в том, что не обязательно разбираться во всяких сложных теориях, VC-размерностях и structural risk minimization. Достаточно накатить больше слоев – и оно работает. Это верно, конечно, только частично. Из интересных рассуждений на этот счет – мнение Ричарда Саттона.

Рич Саттон – один из авторитетов в AI, автор книги “Reinforcement Learning: An Introduction”, носитель гордого звания Distinguished Research Scientist DeepMind. Его блог носит скромное имя “незаконченные идеи”, а оформление – пешком из 80-ых, суровый HTML. Поначалу заставляешь себя продираться через такое полотно букв, как это http://www.incompleteideas.net/IncIdeas/BitterLesson.html. Но уже на 5-ой строке считываешь идею и продолжаешь читать.

Если сделать пересказ поста всего в 3 словах, то будет действительно “staсk more layers”. Но хочется развернуть мысль.
Саттон топит за то, что самый большой урок за 70 лет развития AI – это то, что относительно простые методы, подкрепленные масштабными вычислениями и законом Мура, выигрывают. То есть они бьют специализированные системы с тщательно заложенными в них экспертными знаниями из соответствующей предметной области.

Горький урок в том, что исследователи очень уж хотят вложить свои знания в AI-систему. Во-первых, на короткой дистанции это приносит результат. Во-вторых, очень приятно таким образом потешить свое самолюбие и сказать, что без нас, кожаных мешком, и наших уникальных знаний сий корабль бы не полетел. Но раз за разом приходит топливо в виде огромных объемов данных и терафлопсов вычислений – и как-то экспертам становится некомфортно. Судите сами:

- Шахматы. Эксперты говорили, что без человеческих знаний компьютеры никогда не победят человека. Deep Blue в 1997-ом победил Каспарова, а подход был самый общий – “massive deep search”. Шахматные эксперты даже после этого заявляли, что брутфорс победил разок, и надо возвращаться к шахматным правилам. Неправда. Шахматы изменились навсегда;
- Go. То же самое с Go 20 лет спустя, только на сей раз это была комбинация поиска и обучения;
- Распознавание речи. В 70-ых первые статистические методы, основанные на скрытых марковских цепях, обогнали специализированные методы в соревнованиях, спонсированных DARPA. Ученые еще долго продолжали закладывать свои экспертные знания в системы распознавания речи, полагая, что они должны работать примерно как человек. Но Саттон набрасывает, обзывая такие исследовательские активности контрпродуктивными;
- Компьютерное зрение. Тут все знают, что произошло в 2012 году. Старые-добрые методы на SIFT-признаках ушли на свалку, сверточные сети, GPU и данные навсегда изменили компьютерное зрение;
- NLP. Саттон как-то скромно упоминает NLP всего один раз и не приводит примеров. Тогда я приведу: одна из величайших побед машинного обучения и, в частности, NLP – это машинный перевод и трансформеры. Кто помнит, как Google Translate резко улучшился сначала в 2016 с переходом от statistical machine translation к NMT и позже с переходом на трансформеры. Ходят слухи, что NMT сразу заработали end-to-end лучше, чем огромные системы из сотен подсистем SMT, учитывающих экспертные знания лингвистов. Например, “выравнивание” (alignment – понять, какие слова в исходном языке каким словам соответствуют) в машинном переводе – непростая тема, а attention сам выучивает выравнивание. Сюда же, конечно, и вся история с LLM.

Саттон делает вывод, что мы продолжаем спотыкаться раз за разом, наступать на все те же грабли наших экспертных знаний. Мы должны продолжать работать над системами, у которых есть потенциал на масштабирование. И это поиск и обучение (search & learning, все как в AlphaGo, но тут надо сделать оговорку, что на момент написание поста Саттон уже давно был Distinguished Research Scientist DeepMind).

Продолжение ⬇️



group-telegram.com/new_yorko_times/102
Create:
Last Update:

Мем “stack more layers” и горький урок Ричарда Саттона
#ml #meme_story

Есть пара идей про истории, стоящие за некоторыми мемами. Но не как “know your meme”, где кто-то что-то ляпнул и понеслось, а именно про большие идеи, воплотившиеся в мемы.

Наверняка все знают мем “stack more layers” (см. картинку ниже). Суть его в том, что не обязательно разбираться во всяких сложных теориях, VC-размерностях и structural risk minimization. Достаточно накатить больше слоев – и оно работает. Это верно, конечно, только частично. Из интересных рассуждений на этот счет – мнение Ричарда Саттона.

Рич Саттон – один из авторитетов в AI, автор книги “Reinforcement Learning: An Introduction”, носитель гордого звания Distinguished Research Scientist DeepMind. Его блог носит скромное имя “незаконченные идеи”, а оформление – пешком из 80-ых, суровый HTML. Поначалу заставляешь себя продираться через такое полотно букв, как это http://www.incompleteideas.net/IncIdeas/BitterLesson.html. Но уже на 5-ой строке считываешь идею и продолжаешь читать.

Если сделать пересказ поста всего в 3 словах, то будет действительно “staсk more layers”. Но хочется развернуть мысль.
Саттон топит за то, что самый большой урок за 70 лет развития AI – это то, что относительно простые методы, подкрепленные масштабными вычислениями и законом Мура, выигрывают. То есть они бьют специализированные системы с тщательно заложенными в них экспертными знаниями из соответствующей предметной области.

Горький урок в том, что исследователи очень уж хотят вложить свои знания в AI-систему. Во-первых, на короткой дистанции это приносит результат. Во-вторых, очень приятно таким образом потешить свое самолюбие и сказать, что без нас, кожаных мешком, и наших уникальных знаний сий корабль бы не полетел. Но раз за разом приходит топливо в виде огромных объемов данных и терафлопсов вычислений – и как-то экспертам становится некомфортно. Судите сами:

- Шахматы. Эксперты говорили, что без человеческих знаний компьютеры никогда не победят человека. Deep Blue в 1997-ом победил Каспарова, а подход был самый общий – “massive deep search”. Шахматные эксперты даже после этого заявляли, что брутфорс победил разок, и надо возвращаться к шахматным правилам. Неправда. Шахматы изменились навсегда;
- Go. То же самое с Go 20 лет спустя, только на сей раз это была комбинация поиска и обучения;
- Распознавание речи. В 70-ых первые статистические методы, основанные на скрытых марковских цепях, обогнали специализированные методы в соревнованиях, спонсированных DARPA. Ученые еще долго продолжали закладывать свои экспертные знания в системы распознавания речи, полагая, что они должны работать примерно как человек. Но Саттон набрасывает, обзывая такие исследовательские активности контрпродуктивными;
- Компьютерное зрение. Тут все знают, что произошло в 2012 году. Старые-добрые методы на SIFT-признаках ушли на свалку, сверточные сети, GPU и данные навсегда изменили компьютерное зрение;
- NLP. Саттон как-то скромно упоминает NLP всего один раз и не приводит примеров. Тогда я приведу: одна из величайших побед машинного обучения и, в частности, NLP – это машинный перевод и трансформеры. Кто помнит, как Google Translate резко улучшился сначала в 2016 с переходом от statistical machine translation к NMT и позже с переходом на трансформеры. Ходят слухи, что NMT сразу заработали end-to-end лучше, чем огромные системы из сотен подсистем SMT, учитывающих экспертные знания лингвистов. Например, “выравнивание” (alignment – понять, какие слова в исходном языке каким словам соответствуют) в машинном переводе – непростая тема, а attention сам выучивает выравнивание. Сюда же, конечно, и вся история с LLM.

Саттон делает вывод, что мы продолжаем спотыкаться раз за разом, наступать на все те же грабли наших экспертных знаний. Мы должны продолжать работать над системами, у которых есть потенциал на масштабирование. И это поиск и обучение (search & learning, все как в AlphaGo, но тут надо сделать оговорку, что на момент написание поста Саттон уже давно был Distinguished Research Scientist DeepMind).

Продолжение ⬇️

BY New Yorko Times


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/new_yorko_times/102

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Now safely in France with his spouse and three of his children, Kliuchnikov scrolls through Telegram to learn about the devastation happening in his home country. Markets continued to grapple with the economic and corporate earnings implications relating to the Russia-Ukraine conflict. “We have a ton of uncertainty right now,” said Stephanie Link, chief investment strategist and portfolio manager at Hightower Advisors. “We’re dealing with a war, we’re dealing with inflation. We don’t know what it means to earnings.” In this regard, Sebi collaborated with the Telecom Regulatory Authority of India (TRAI) to reduce the vulnerability of the securities market to manipulation through misuse of mass communication medium like bulk SMS. The gold standard of encryption, known as end-to-end encryption, where only the sender and person who receives the message are able to see it, is available on Telegram only when the Secret Chat function is enabled. Voice and video calls are also completely encrypted. The account, "War on Fakes," was created on February 24, the same day Russian President Vladimir Putin announced a "special military operation" and troops began invading Ukraine. The page is rife with disinformation, according to The Atlantic Council's Digital Forensic Research Lab, which studies digital extremism and published a report examining the channel.
from br


Telegram New Yorko Times
FROM American