group-telegram.com/new_yorko_times/249
Last Update:
Собесы, второй тайм. Когда 2:16 – это победа
#interviews #fail #career
Такое это дело, собеседования, что победить можно и со счетом 2:16 и даже 1:100. При должном везении уже 1 гол-оффер – это победа. Главное чтоб кукухи хватило на все пропуски-отказы.
По тегу #interviews можно найти прошлые части, наиболее полно первые 10 фэйлов описаны тут. С тех пор было еще 6 фэйлов и долгожданные 2 оффера. Тут я расскажу подробно про фэйлы и совсем не подробно – про офферы. Что делать, таков bias, историю Тернауса с Теслой никто не хочет повторять (tldr:
- Apple Music, ML Researcher for Recommender Systems, Лондон – отказали после первого собеса, наняли моего бывшего коллегу, который уже в Лондоне да с большим опытом в рекомендашках. Fair enough
- Aiforia, ML Team lead – выходцы из Алисы и Sber Devices, сейчас на Кипре. Прошел HM-a (смесь бихейв/технического), далее небезысвестный Влад Крамаренко @Vlomme меня погонял по “основам эмэль”, что было легким троллингом, таких заковыристых вопросов я давно не видел. Некоторые начинались с промпта “я сам не знаю тут ответ”. Но в целом нужен был опыт с голосовыми технологиями, которого у меня совсем нет, так что без вопросов, не прошел.
- Replika – увидел их пост в Вастрик клубе, что ищут фронтендеров, но можно писать и просто так. Написал CTO, пообщались. Не то чтобы прекрасный матч, ребятам нужны рисечеры с большим уклоном в инжиниринг. Для себя сделал вывод, что как бы я ни хотел подсветить Applied Science, не стоит допускать фразы типа “копаться в конфигах” 🙂
- Nvidia, Senior Applied Scientist – боль и позорище, писал тут
- Cohere, AI Engineer – c этими ребятами прям все понравилось, очень адекватные собесы. Мелкое тестовое на оптимизацию питонячего кода (тут попалась та же задача, что мне Влад давал, так что не зря с ним собеседовался, хех). Вместо литкода – ML coding, надо было реализовать сэмлирование из упрощенного LLM-декодера (жадное, top-k, top-p). ML system design был прямо про систему оценки LLM, над которой Cohere прямо сейчас работает. Полагаю, они немало идей черпают у кандидатов. И обзор статьи на выбор, тоже про LLM evaluation. В финале бихейв с большим боссом, и как-то искры не проскочило, получил не фидбек, а отмазу какую-то типа “lacked the level of adaptability and speedy execution”
- Snorkel AI, Staff Applied NLP Scientist – вот к этому варианту я прямо эмоционально прикипел (хоть и совет: не делать так до оффера). Стартап, основанный 5 пхд из Стэнфорда, бурно развивается, единорог. Видение у них довольно стройное: компаниям не нужны монстры с 1.8T параметрами, им нужны специфичные модели под свой домен, затюненные на своих данных (YC согласен: ”Request for startups”: small fine-tuned models as an alternative to giant generic ones). Snorkel топит за подход с programatic data labeling, который экономит время экспертов на разметку, а также вовсю юзает LLM для soft labels. Плюс дистилляция/квантизация – получаем мелкие и мощные модели, в блоге Сноркела полно таких историй (пример). Тут тоже были очень адекватные собесы: сразу бихейв, потом ML coding, ML system design и презентация про рисеч-проект. И вот за последнее я словил фидбек “has shown too much leadership”. Причем, все остальные собесы – отлично. Шо бля? Я, конечно, сначала негодовал, но потом понял, “если ты сердишься, ты не прав”. Надо было уточнить у эйчара, какой архетип стаффа им нужен. Я техлид, а они, видимо, искали решалу, который может в одиночку рвать лидерборды и тащить проекты. Вот так, на горьком опыте, я добавил себе +1 вопрос к эйчарам/HM.
И наконец, 2 оффера: один на VP AI в местный стартап, второй – на позицию пониже, но в компанию побольше. Про все расскажу, но теперь уже в конце лета. И видимо, насобираю несколько постов: про трюки-лайфхаки в процессе поиска работы, статистику источников онсайт-собесов (”лидов”), гигиену кукухи и т.д. Без мемотреда тоже не обойтись.
BY New Yorko Times
Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260
Share with your friend now:
group-telegram.com/new_yorko_times/249