group-telegram.com/new_yorko_times/102
Last Update:
Мем “stack more layers” и горький урок Ричарда Саттона
#ml #meme_story
Есть пара идей про истории, стоящие за некоторыми мемами. Но не как “know your meme”, где кто-то что-то ляпнул и понеслось, а именно про большие идеи, воплотившиеся в мемы.
Наверняка все знают мем “stack more layers” (см. картинку ниже). Суть его в том, что не обязательно разбираться во всяких сложных теориях, VC-размерностях и structural risk minimization. Достаточно накатить больше слоев – и оно работает. Это верно, конечно, только частично. Из интересных рассуждений на этот счет – мнение Ричарда Саттона.
Рич Саттон – один из авторитетов в AI, автор книги “Reinforcement Learning: An Introduction”, носитель гордого звания Distinguished Research Scientist DeepMind. Его блог носит скромное имя “незаконченные идеи”, а оформление – пешком из 80-ых, суровый HTML. Поначалу заставляешь себя продираться через такое полотно букв, как это http://www.incompleteideas.net/IncIdeas/BitterLesson.html. Но уже на 5-ой строке считываешь идею и продолжаешь читать.
Если сделать пересказ поста всего в 3 словах, то будет действительно “staсk more layers”. Но хочется развернуть мысль.
Саттон топит за то, что самый большой урок за 70 лет развития AI – это то, что относительно простые методы, подкрепленные масштабными вычислениями и законом Мура, выигрывают. То есть они бьют специализированные системы с тщательно заложенными в них экспертными знаниями из соответствующей предметной области.
Горький урок в том, что исследователи очень уж хотят вложить свои знания в AI-систему. Во-первых, на короткой дистанции это приносит результат. Во-вторых, очень приятно таким образом потешить свое самолюбие и сказать, что без нас, кожаных мешком, и наших уникальных знаний сий корабль бы не полетел. Но раз за разом приходит топливо в виде огромных объемов данных и терафлопсов вычислений – и как-то экспертам становится некомфортно. Судите сами:
- Шахматы. Эксперты говорили, что без человеческих знаний компьютеры никогда не победят человека. Deep Blue в 1997-ом победил Каспарова, а подход был самый общий – “massive deep search”. Шахматные эксперты даже после этого заявляли, что брутфорс победил разок, и надо возвращаться к шахматным правилам. Неправда. Шахматы изменились навсегда;
- Go. То же самое с Go 20 лет спустя, только на сей раз это была комбинация поиска и обучения;
- Распознавание речи. В 70-ых первые статистические методы, основанные на скрытых марковских цепях, обогнали специализированные методы в соревнованиях, спонсированных DARPA. Ученые еще долго продолжали закладывать свои экспертные знания в системы распознавания речи, полагая, что они должны работать примерно как человек. Но Саттон набрасывает, обзывая такие исследовательские активности контрпродуктивными;
- Компьютерное зрение. Тут все знают, что произошло в 2012 году. Старые-добрые методы на SIFT-признаках ушли на свалку, сверточные сети, GPU и данные навсегда изменили компьютерное зрение;
- NLP. Саттон как-то скромно упоминает NLP всего один раз и не приводит примеров. Тогда я приведу: одна из величайших побед машинного обучения и, в частности, NLP – это машинный перевод и трансформеры. Кто помнит, как Google Translate резко улучшился сначала в 2016 с переходом от statistical machine translation к NMT и позже с переходом на трансформеры. Ходят слухи, что NMT сразу заработали end-to-end лучше, чем огромные системы из сотен подсистем SMT, учитывающих экспертные знания лингвистов. Например, “выравнивание” (alignment – понять, какие слова в исходном языке каким словам соответствуют) в машинном переводе – непростая тема, а attention сам выучивает выравнивание. Сюда же, конечно, и вся история с LLM.
Саттон делает вывод, что мы продолжаем спотыкаться раз за разом, наступать на все те же грабли наших экспертных знаний. Мы должны продолжать работать над системами, у которых есть потенциал на масштабирование. И это поиск и обучение (search & learning, все как в AlphaGo, но тут надо сделать оговорку, что на момент написание поста Саттон уже давно был Distinguished Research Scientist DeepMind).
Продолжение ⬇️
BY New Yorko Times
Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260
Share with your friend now:
group-telegram.com/new_yorko_times/102