Telegram Group Search
Мои родители познакомились в клубе поэзии (а не клубе), и в гостях у нас часто были довольно творческие пресонажи. От одного я услышал такую аллитерацию Мандельштама: "Слышен свист и вой локомобиля – дверь лингвисты войлоком обили". Не то чтобы я 9-летний много понял, понял только, что можно поёрничать над старшим братом, который учился в МГУ на лингвиста (кстати, на кафедре ОТиПЛ, которую заканчивала Кали Новская). Мы вряд ли узнаем, какой изначальный смысл закладывал Мандельштам, и он точно ничего не знал про горький урок Ричарда Саттона (пост) и машинный перевод. Но фраза неплохо описывает то, что происходило с масштабным лингвистическим проектом ABBYY Compreno - попыткой ручного описания смысловой структуры языка и создания абстрактного "языка смыслов". Кажется, люди с этим не справились, а вот искуственные нейроны – на ура. Если утрировать, конечно, то смысл поста экс-сотрудника ABBYY Даниила Скоринкина – "go brrr данные рулят", но все же если почитать полностью, вряд ли пожалеете. Там про физтех и ABBYY, фундаментальный научный подход к языку и победу статистического подхода, а также адаптацию ABBYY к новым реалиям и 2022 год.
upd. оказывается, я упустил у Кали ее мысли про этот пост Даниила. Вот они, лингвистика будет жить!
потрясающий текст про закат компании ABBYY как наименьшее из последствий краха всей компьютерной лингвистики под натиском статистических моделей языка. Пластмассовый мир chatGPT победил все попытки построить детерминированные онтологии, а способ решения любой проблемы "завалить вычислительными мощностями", оказался более надежным и масштабируемым, чем любая попытка разобраться что же происходит внутри системы (и язык здесь только один из примеров)

по ссылке обзор развития компьютерной лингвистики от ранних моделей до трансформеров, которые появились как способ улучшить качество гугл-переводчика, расцвет ABBYY как одной из самых успешных российских ИТ-компаний, почти академическая культура физтехов внутри, «горький урок» больших данных и сгоревшие сотни миллионов долларов на амбициозную попытку построить дерево онтологий всех языков сразу (ABBYY compreno).

про мегапроект ABBYY compreno я когда-то очень давно случайно увидел статью и будучи студентом физиком, конечно, был очарован масштабом. это же такая мечта технаря в вакууме: давайте мы все тексты сведем к логическим инвариантам, соединим их стрелочками и построим граф всего языка. то есть к сущностям типа собака / стол / книга, которые не теряют своей сути при переезде между странами. тогда для перевода между языками можно будет делать преобразование в этот мета-язык и из него в еще один шаг переводить тексты в любой другой. впечатлился, посмотрел на страшные диаграммы простых предложений (скину их в комменты, зацените) и забыл об этом на долгие годы. но конечно и представить не мог, сколько копий было поломано и сколько ресурсов потрачено (получается, что впустую).

а самое забавное, что современные большие языковые модели примерно так и работают — все тексты переводят в свой мета-язык и обратно, только этот язык
1) математический (операции над текстом превращаются в операции над векторами в многомерных пространствах, писал об этом)
2) не интерпретируемый, то есть не сводимый к человеческим интуициями

рекомендую вспоминать об этом каждый раз, когда вы слышите тезис "оно не мыслит как человек, следовательно оно глупое". про подсчет букв в предложениях, математические навыки ЛЛМ или заковыристые логические задачки. самолеты тоже не летают как птицы, и ничего.

очень рекомендую прочитать целиком: https://sysblok.ru/blog/gorkij-urok-abbyy-kak-lingvisty-proigrali-poslednjuju-bitvu-za-nlp/
Характер моей работы в гугле. Часть 2
#career #google

Часть первая была тут.

О команде

Нас 25 человек, разбросаны по всей Европе: по 5 в Лондоне, 4 в Париже, по 1-2 чел. в Амстере, Стокгольме, Мадриде, Копенгагене и т.д. Идея – быть ближе к клиентам, есть у нас и Языки, но в основном вся работа, конечно, на английском. Сейчас я в проекте с испанцами, и ради меня одного все переходят на английский (знакомое мигрантам чувство). Кстати, испанка со мной в проекте – топ! Она уже 10 лет в Гугле, работала раньше в СФ, так что привыкла к немного другому ритму работы. Кодит прямо на митингах (так что для нее митинги – это подкасты по сути), но я так даже не буду пытаться. Вторая коллега, с которой много работаю – голландка, бодрая, энергичная, отлично шарит в облачном бизнесе и продажах. Как у многих голландцев, английский у нее почти как родной. Это к слову, что если испытываете синдром самозванца – это нормально.

Бэкграунд в команде разнообразный: примерно половина – гуглеры, половина – пришедшие извне, как я. Кого-то переманили из Microsoft, BCG, Databricks, кого-то просто на рынке нашли. Как мне сказал эйчар, не было ресурсов собеседовать прям очень многих (до собесов пускали буквально несколько кандидатов на позицию), поэтому эйчары проводили жесткий отсев, детально изучая очень многие резюме. Думаю, мне помогли и лычки пхд и кэггл, и всякие метрики типа звезд на гитхабе, но прежде всего, конечно, релевантная предыдущая роль. Из интересного: перед “casual talk” с Director of AI, та почитала мой пост в блоге “To Ph.D. or not to Ph.D”, и ей очень зашло (это про то, что никогда не знаешь, какая именно твоя активность “выстрелит"). Кстати, Ph.D.-степени примерно у половины членов команды, в том числе у моего менеджера и скипа. Не думаю, что навыки пхд как-то помогают в работе, просто к тому, что лычка помогает при отборе. Ну и уважают, конечно, навык дотаскивания этого чемодана без ручки до цели, a.k.a. getting things done.

О моей роли

Стафф в бигтехе – это не менеджерская, а IC-роль, так что я работаю руками (хоть мама, конечно, считает это понижением в сравнении с Эльсивром, где я был синьор менеджером 😂). Ожидается, конечно, что стафф будет делать много всего поверх работы в проектах, например, комьюнити тащить или круто контрибьютить в OS. Но я пока ушел почти all-in в техническую часть, тут есть в чем нагонять. Из “легких побед” - сделал сайт команды, периодически пингую коллег и описываю наши проекты на сайте. Мне всегда интересно было, что люди пилят рядом с тобой, как бы почерпнуть опыт, крутые наработки, узнать про разложенные грабли. Получается двойная выгода: и для нашей команды, и другим гуглерам рассказать, кто мы вообще такие. Рекомендую, в-общем.

О продажах

Мне бегать продавать ничего не нужно. Хоть формально мы и числимся техническим pre-sales, то есть с помощью технически крутого MVP “продать” клиенту контракт. Но есть AI sales specialists и Field Sales Representatives, вот они продают. Они свое дело знают, даже курсы по GenAI проходят, так что совсем булщит обычно не прилетает. До нас проекты доходят, в идеале, когда продажники и customer engineers уже смекнули, что как, какие технологии нужны, сколько ожидается дохода. И мы врываемся уже чисто прототип пилить. В реальности, конечно, пока это так не работает (пока команда молодая и про нас особо не знают), и мы в том числе участвуем на этапах Discovery & Design – в генерации и приоретизации идей. Это уже очень похоже на классический консалтинг.
Please open Telegram to view this post
VIEW IN TELEGRAM
Характер моей работы в гугле. Часть 2 (продолжение)
#career #google

О менеджерах

Наши непосредственные менеджеры очень активно участвуют в работе “в поле”. Учитывая, что на менеджера в нашей команде в среднем 8-9 человек подчиненных, да еще и 4-5 проектов в активной фазе, получается дохрена митингов. А еще командировки и дети у большинства. Пока у меня не сложился пазл, когда вообще менеджеры работают, ну кроме как вечером.

Лидеры уровня моего скипа (Director of AI, L8) разруливают политоту, блокеры и прочие неприятности, но также много катаются по миру и майнят больших и малых клиентов.

Начиная с VP уровня, я слабо представляю, как выглядит типичный день менеджера (а вот на прошлой работе я репортил VP DS, но випи випи рознь). Ну и хоть гугл и называют самым большим стартапом в мире, в облаке это не совсем так - с VP-левелом я пока не общался и вряд ли буду в ближайшее время.

О бизнес-модели

Как я писал раньше, мы белые воротнички, продакшн-код не пишем. Но мы передаем прототип в максимально готовом для деплоя виде, вместе с рекомендациями по деплою. Дальше три варианта, кто деплоит:
– сам клиент, если достаточно технически подкован;
– либо гугловская команда PSO (Professional Services Organization), ее уже оплачивает клиент, и это дико дорого и работает только с самыми богатыми клиентами;
– либо партнеры. Google Cloud поддерживет связи примерно с 2к партнеров по вему миру, и это не только Deloitte и Accenture, но и куча мало известных консалтеров, обладающими специализированными знаниями и умениями. Гуглеры приводят партнеров, обучают их, сертифицируют, консультируют, а партнеры уже деплоят решения. Посколку партнеры используют gcloud и пригоняют трафик, получается win-win. Собственно, основной доход Google Cloud как раз от проектов с участием партнеров.

Дела у Google Cloud идут хорошо - рост очень шустрый. За 7 лет доля выручки gcloud в Alphabet выросла с 3.7% до ~12%. В целом Azure и gcloud постепенно отъедают долю AWS (возможно, за счет GenAI: у майков OpenAI, у Гугла - gemini, у Амазона – huggingface; но это спекуляция). За q3 этого года gcloud вообще отчитался о росте в 35% year-over-year (20% у Azure, 19% у AWS; – обзор-сравнение).

Ну вроде надо бы такой обзорчик снабдить и минусами, но пока их не вижу (кроме вездесущего corporate talk а-ля "we champion robust data governance"). И погляжу, как о них будет уместно рассказывать или хотя бы намекать 😅
Пятидневный интенсив по GenAI от Google & Kaggle
#links_with_intro #genai #courses

https://rsvp.withgoogle.com/events/google-generative-ai-intensive

Это пятидневный онлайн-курс пройдет на следующей неделе с 11 по 15 ноября. Авторы - исследователи и инженеры Google ML (пока меня там нет), площадка - Kaggle. Формат - live-стримы и практические задания. Обсуждения в дискорде.

Темы курса:
* День 1: Foundation Models & prompt engineering
* День 2: эмбеддинги и векторные БД
* День 3: GenAI-агенты
* День 4: LLM, заточенные под домены
* День 5: MLOps для GenAI

Что по времени, пока не увидел, но скорее всего будет по PST, то есть поздно.

Ах да, все бесплатно. Нужны только аккаунты Kaggle и AI Studio.
Мини-группы по поиску работы и поведенческим собесам

Для тех, кто тут случайно: я Staff GenAI solutions architect в Google Cloud, помог десяткам людей с поиском работы, в том числе с бигтехом (пост «Она в мистрале, а ты - нет»). Недавно я провел стрим про бигтех и собесы и там объявил запуск мини-групп. Теперь к деталям.

Вас ждут две пятницы лекций и живое общение между ними.

- День 1. Поведенческие собеседования (40 мин). Резюме, рефералы, переговоры и прочие аспекты поиска работы (40 мин).
- День 2. Каверзные вопросы на собеседованиях (40 мин). Tips & tricks прохождения (40 мин).
- Домашнее задание после первого дня и его обсуждение в чате группы

Занятия платные, это обеспечит как комфортный размер группы так и уровень мотивации участников.

Для кого эти занятия
Для всех ищущих работу в IT. Особенно полезно будет тем, кто хочет улучшить навык презентации своего опыта и описать истории на основе своих проектов (тот самый story bank для подготовки к поведенческим собеседованиям). Для этого нужно наличие опыта проектов.

Почему вам могу помочь именно я?
У меня большой преподавательский и менторский опыт, к тому же сам недавно проходил всю кутерьму с поиском работы, в том числе фэйлил. О плотности моего материала можно судить по посту «В 48 собесах от оффера в Гугл» - прочитайте и решите.

Даты и время
22 и 29 ноября, 17:00 - 18:30 CET (2 части по 40 минут, 10 минут на вопросы).

Дополнительно
Мой фидбек по трём вашим поведенческим историям + мок-собеседование.

Кто заинтересовался – заполните плз короткую форму.
#meme #diy

Уровень креативности в этот пятничный вечер – сделать "LinkedЫн"
Материалы интенсива по GenAI от Google & Kaggle
#genai #courses #google

Про курс писал чуть выше, вот и материалы подъехали.

День 1: Foundation Models & prompt engineering
“Foundational Large Language Models & Text Generation” whitepaper + “Prompt Engineering” whitepaper.
Code lab "Prompting"

День 2: эмбеддинги и векторные БД
“Embeddings and Vector Stores/Databases” whitepaper.
Code labs:
- RAG Q&A со своими документами
- Эмбединги и их схожесть
- Эмбединги с Keras (спасибо за все, Франсуа, но не)

День 3: GenAI-агенты
“Generative AI Agents” whitepaper
Code labs:
- Беседа с базой данных и function calling с Gemini API
- Агенты и LangGraph (я прошел только эту 😀)

День 4: LLM, заточенные под домены
“Solving Domain-Specific Problems Using LLMs” whitepaper
Code labs:
- Grounding c Google Search (вот это клиентам очень хорошо заходит)
- Тюнинг Gemini на своей задаче (а вот это на практике имхо редко нужно)

День 5: MLOps для GenAI
“MLOps for Generative AI” whitepaper
Вместо лабы – starter pack для GenAI проектов на GCP (это мои коллеги пилили)

Статьи показались очень длинными, я не читал, но слышал хорошие отзывы.

Практика вся с Gemini. Можно, конечно, устроить срачик по теме и хорошо провести время. На момент, пока я это пишу, экспериментальная версия Gemini - в топе LMSYS, а по соотношению цена/качество/скорость Gemini Flash с большим отрывом номер 1 (Artificial Analysis - годный независимый бенчмарк).

Кстати, бэйджик на Kaggle дают за "прохождение" (Copy & Edit пойдет) всех Kaggle-ноутбуков курса до 18 ноября. Этим советом я сейчас резко увеличил число GenAI экспертов.
В эту пятницу стартуем мини-группу по поиску работы и поведенческим собеседованиям. Анонсировал тут. Еще можно подключиться – короткая форма. Заодно расскажу чуть подробнее о программе:

День 1. (22 ноября)
Часть 1. Поведенческие собеседования. Почему их недооценивают, как готовиться, почему на подготовку стоит заложить пару десятков часов. Примеры моих ответов от плохих к хорошим. Как я подтягивал эту часть к собесам, что хотели услышать, в том числе на стаффа в бигтех (пост).

Часть 2. Резюме, рефералы, переговоры и прочие аспекты поиска работы. Как сделать резюме продающим, на что смотрят рекрутеры при отборе. Как искать рефералы. Как реагировать на отказы (пост). Рекомендации по переговорам на финальной стадии.

Домашнее задание на описание своих историй (story bank) для подготовки кповеденеческим собеседованиям.

День 2. (29 ноября)
Часть 3. Каверзные вопросы на собеседованиях. Почему надо готовиться даже к таким вопросам как «Расскажите о себе» и «Почему вы выбрали эту компанию?». Что на самом деле от вас хотят услышать, когда спрашивают про фэйлы, конфликты и слабые стороны. Примеры плохих и хороших ответов.

Часть 4. Советы по прохождению собеседований. Tips & tricks. Как готовиться к разным форматам технических собеседований (полезные ресурсы). Почему этого недостаточно и на что еще обратить внимание. Поделюсь своими секретами по подготовке и прохождению интервью (такими как "говорить медленее")

На протяжении двух недель будем общаться в приватном чате, где можно делиться опытом и получить ответы на свои вопросы.

Жду вас на занятиях и в чате! Для тех, кто успеет, есть последние 5 мест (upd: два места) на индивидуальную сессию со мной. Она включает мини-мок поведенческого собеседования, обратную связь по 3 историям из заготовленного вами списка историй (story bank) и ответы на ваши вопросы.

Записаться можно тут.
Первые проекты в Google Cloud
#projects #google

После медового месяца в виде летнего онбординга вдруг пришлось и поработать. Оба моих первых проекта так или иначе были связаны с чатботами 👨‍🦳

У Гугла есть огромная софтина Dialogflow (сейчас называется Conversational Agents, история нэйминга примерно как с Hangouts/Allo/Duo/etc). Dialogflow поддерживает кучу разных сценариев обращений в поддержку и автоматизирует их с помощью if/else, и традиционного ML, а с недавних пор досыпают и GenAI, конечно. Благо, в сам Dialogflow мне не пришлось лезть, но уже второй раз строю LLM-решения вокруг него, и это весьма увлекательно.

С большим оранжевым нидерландским банком мы делали challenger LLM, чтоб проверять, что там чатбот наотвечал и отлавливать галлюцинации и всякие неточности. Концепция «harmful incorrect” ответов сильно шире простых галлюцинаций, она определялась деревом примерно из 10 вопросов типа «нужны ли нам тут персональные данные, чтоб ответить на вопрос?», «в контексте достаточно информации, чтоб ответить?», «содержит ли ответ транзакционную информацию?» и т.д. И вот наша LLM отвечала на эти вопросы, плюс интересной подзадачей было сгенерировать реалистичные синтетические данные, поскольку реальных кейсов плохих ответов бота было очень мало. Кстати, ответы LLM на десяток вопросов визуализируются путем в дереве, и тут мне литкод пригодился (пост).

В проекте с испанским агрегатором полетов eDreams мы строили LLM-решение, чтоб понять интент человека и отправить его дальше в нужный сценарий Dialogflow или к кожаному помощнику. Типичный проект с LLM: мольба, чтоб оно тебя поняло, попытки обуздать зверя. Было и веселое: Prompt Optimizer докинул почти 10 пунктов, поисследовали LangGraph. И в целом испанцы очень бодрые ребята. Защищали проект вживую, в четверг встал бодрячком в 4 утра, вернулся в тот же вечер в 11. Барселоны особо не видел, но зато нас хвалил их CTO, наш же Director AI, прототип мы сразу передали в руки другой гугловской команде для деплоя. Испанки при встрече целуются два раза… в-общем, все очень позитивно прошло.

Вчера начал новый месячный забег, для разнообразия не чатботы, а поиск. В отличие от первых двух, тут я лид, так что вплоть до католического Рождества будет бодро.
Please open Telegram to view this post
VIEW IN TELEGRAM
Как не забывать? Попреподавай!
#tips #interviews

Всегда завидовал людям, которые помнят всё. У меня мозг, видимо, эффективнее, но по-другому: за ненадобностью стирает просто все ненужное. Сейчас уже в культурной компании стыдно сказать, что физику изучал. Читал лет 7 назад «Красное и черное» - даже имя героя не вспомню. А уж история… ой не говори. Были потрясающие преподы по истории и в школе, и на физтехе; а кто правил Россией в 1785 году, условно - может меня в тупик поставить. Но я придумал, как с этим бороться и хоть что-то запоминать. Преподавание.

Одной из первых оплачиваемых работ у многих физтехов было репетиторство. Если мои приятели брали 6-классников и по 6 раз подряд объясняли им, как раскрывать (a+b)*(c+d), то я подкинул себе челленджа и брал студентов буквально на год младше. Или даже на семестр. То есть вчера прошел ряды Фурье - завтра преподаешь. Неплохо тонизирует. Но кажется, так у меня хотя бы вышмат засел глубоко в прошивку. При желании вспомню и поверхностные интегралы, и ряды Фурье, и при необходимости кучерявый предел посчитаю по Лопиталю (вот только необходимости пока не возникало).

И то же самое с mlcourse.ai. К собесам на «ML в ширину» мне почти не надо готовиться. Такие вещи как вывод логлосса из принципа максимума правдоподобия, где там в градиентном бустинге градиенты или что есть выпуклая функция - все это засело довольно основательно. Если не помогает в работе, так хоть помогает эти работы находить.

Так что если есть свободная глюкоза в мозгу и желание совместить приятное с полезным - попробуйте попреподавать.
Gemini Flash 2.0 готова порвать бенчмарки типа https://artificialanalysis.ai/, соотношение цена/качество/скорость впечатляет. А у @epsiloncorrect можно почитать про работу над топовыми LLM из первых рук
Forwarded from epsilon correct
Официально выпустили Gemini 2.0 Flash

По бенчмаркам бьёт 1.5 Pro 002, которую выпускали в сентябре, а стоит на порядок дешевле. Как обычно, 2М контекст и супер быстрый инференс на маленьком контексте.
Мой 2024
#life

Ладно, ладно… и я туда же. Отмечу главное за прошедший год.

Конечно, сразу выделяется окончание марафона собесов и устройство в Google (если вы как-то за каналом следили, вряд ли упустили, пост про 48 собесов). По тегу #google уже кое-что рассказал про характер новой работы и первые проекты.

Профессионально, год был потрясающий. Прогресс в GenAI бешеный (в том числе гугл тащит). И быть на острие этого всего, брать последние наработки и нести внедрять (да еще и как прототипы, без прода 😀) - это топ!

Также передал в чужие руки проект, которым больше всего горжусь и к которому, надеюсь, еще как-нибудь вернусь - про антифрод в науке (про проекты в Эльсивире). Жаль, конечно, не добили статью по теме (хоть и презентовал в Афинах) и не посторудничал толком с братом, которому тема тоже очень интересна.

Очень много менторил. Новичкам везет, и первый «выпуск» из десяти менти был особенно успешным (пост «Она в Мистрале, а ты нет»). По другим группам еще не собирал стату.

Закрыл гештальт времен аспирантуры - опубликовался в q1 журнале (пост). Жизнь мою, конечно, это радикально не поменяло, но проект был крутой и особенно приятно его дотащить до статьи.

Путешествие года - это, конечно, ЮАР (пост). Сложно не быть банальным и не петь дифирамбы Кейптауну. Помимо ЮАР было также куча коротких поездок по Европе - Мюнхен, Альпы, Стокгольм, Рим, Милан, Сицилия на 10 лет с женой, Париж пару раз. Посетил 5 или 6 офисов гугла.

Из маленьких радостей жизни - наконец обустроил террасу, начал пользоваться грилем и несколько раз уже с друзьями жарил мясо и загонялся на всякие околофилософские темы. Иногда даже кажется, что мучения с террасой того стоили.

В спорте каких-то суперуспехов нет да и на Килиманджаро я не лазил, зато появилась стабильность, более-менее регулярный зал и бег. Так что с весны есть планы подбираться к своим былым результатам, которые сейчас кажутся немыслимыми.

Подались на гражданство Нидерландов. Где-то летом могут уже и паспорт дать.

Ну и наконец, дочь уже отметила 5 лет. Плавает, играет в футбол, трепется на нидерландском, хохочет. Во многом она - причина того, что я где-то «недосидел с пацанами» или что-то не сделал. Но это нормально.

С наступающим, друзья! 🎄 Пусть Новый год принесет хорошие новости - все те, что мы ждем, и неожиданные.
Татьяна Габрусева (которые олды помнят как Tati), tech lead в LinkedIn, хорошо описала ML design собес, в том числе типичные ошибки.

Пожалуй, добавлю, что это куда менее четко прописанный тип собеса по сравнению с литкодом или system design. Могут как и суперпонятный кейс спросить, без подвохов (классификация описаний товаров), так и вдруг полезть глубоко в детали, возможно даже своих реальных проектов. Так что надо искать, что спрашивают в конкретной компании (glassdoor, blind, знакомые) и желательно моки проходить.

Любимую ссылку по теме тоже добавлю – там примерно тот же план, о котором Таня пишет, плюс примеры типичных задач и планов ответа (e.g. предсказание кликов по рекламе или поиск по картинкам).
Forwarded from Tati's Wonderland (Tanya)
Пора написать что-то полезное МЛ людям.
#карьера #интервью #career #faang #interview

В эфире МЛ дизайн интервью.

Про литкод я писала раньше, там больно, но хотя бы ясно-понятно, что делать (а именно, не тушеваться, а нарешать 300+ задачек, или сколько вам нужно).

Бихэйв чуть более непредсказуем, но тоже в целом все понятно, писала про подготовку тут и тут.

А вот МЛ дизайн модуль самый непредсказуемый... у многих возникают вопросы с подготовкой.

Тем не менее, это моё самое любимое и интересное интервью. Именно это интервью я регулярно провожу в Линкедин, обычно на уровень стаффа.

Проходят его не многие. Лично у меня процент прохождения где-то 15-20%, а я стараюсь помочь кандидатам и искренне верю в каждого.

Начнём с подготовки.

МЛ сейчас стал большой... все знать и помнить уже давно нереально.
Сфокусируйтесь на команде (не компании, а именно самой команде), куда идёте на интервью. На уровне директора/Sr директора посмотрите, что они делают:
комп зрение, genAI, рекомендашки, fraud...? Иногда это не тривиально узнать и нужно спросить инсайдера в комании. Узнать, кто у них тех лиды.
По именам гуглите блог посты и статьи.

Если у вас нет инсайдера в хорошей компании - это точка для роста, потому что лучше бы ему быть :).

Если у команды есть блог посты или статьи - обязательно почитайте или хотя бы просмотрите. Это поможет понять, чего ожидать. Я прочитала блог посты Lyft, когда к ним шла, и это помогло.

Команда, которая занимается текстовыми genAI, наверняка углубится в llms, и не будет копать в комп зрение или fraud detection. Команда, которая зарабатывает деньги 💰 для компании через рекомендательные системы, почти наверняка спросит задизайнить рекоммендашку (но и про ллм не забываем, сейчас модно и спросят почти все). Команда, которая катит все в прод, может спросить про llm inference оптимизации и инфраструктуру.
А в Тесла стоит ожидать компьютерного зрения.

Все очевидно, но не всегда понятно, если компания большая (как мета или гугл), там надо искать эту информацию. Часто можно спросить прямо у рекрутеров или hiring manager, чем они занимаются, они заинтересованы хорошо и быстро нанять и могут ответить верхнеуровнево. Если match с командой ожидается позднее, как в Мета, в первую очередь стоит повторить LLMs/genAI и старые добрые рекомендашки. Это самые популярные темы для МЛ генералистов.

Итак, у компании или команды есть engineering blog или статьи. Прекрасное начало! Это первое, что нужно прочитать.

Сузили тему и поняли, что готовим. Отлично 👍

Теперь делаем план. Я писала его (ручкой, на бумаге ), чтоб не забыть что-то.

План в следующем посте.
Вакансия нашей команды в Лондоне
#google

У нашей команды дела идут хорошо, и в этом году растем в полтора раза. Будем нанимать примерно по 3 юнита, как я (GenAI Field Solutions Architect, только L5) и одному менеджеру (L7) на регион - Лондон, Мюнхен, Париж. 1 вакансия в ОАЭ должна быть.

Пока из публичных вакансий вот первая в Лондоне.

Про характер работы писал тут. Если добавить: это классное сочетание прикладного рисеча и консалтинга. Берешь наработки DeepMind и идешь их внедрять с клиентами, думая о ROI и прочих бизнес-метриках. С одной стороны, надо быть технически крутым и много изучать на ходу. С другой, бывают презентации C-левелу клиентов и, в-общем, надо немного уметь общаться и хорошо пахнуть.

Команда новая, с марта 24-го. Основное отличие от других команд - мы работаем бок о бок с клиентами. Это бывает весело, бывает так себе (legal вопросы, либо клиент не тянет технически). Но точно это повышает понимание клиентом технологии и общую вовлеченность, то есть уменьшает шанс, что прототип просто ляжет на полочку.

Ах да, про то, что мы не трогаем прод, я говорил. Идеально. Но это может поменяться в будущем, когда рынок насытится GenAI-прототипами.

Возвращаясь к вакансии в Лондоне: приоритет будет у тех, кто уже в UK. Могу зареферить и даже прокинуть резюме менеджеру, но это либо если мы знакомы или работали вместе, либо если у вас явно впечатляющие достижения. Мы ж для себя нанимаем. Собесы в целом почти стандартные гугловские (но не совсем, тут описывал), особенность разве что в том, что до собесов будут не многих допускать, очень много работы делается эйчарами на первичном этапе воронки (даже если есть реферал).
Если тебя отшили, лучше считай, ты False Negative
#career #interviews

Может, не самые свежие-оригинальные рассуждения, но терапевтические. Если еще не думали об этом, они могут поддержать в долгом поиске работы/финансирования/чего угодно. Да даже на спутника жизни может обобщиться, но рассмотрим поиск работы.

Брать вас на работу или нет – бинарное решение. Предположим, что подходите вы или нет – тоже бинарная переменная (упрощение). Эйчары или нанимающие менеджеры вполне могут ошибиться.
Рассмотрим 4 исхода:
- TP (true positive) – вы круты, и вас взяли
- FP (false positive) – вы самозванец, и вас взяли
- FN (false negative) – вы круты, и вас не взяли
- TN (true negative) – вы не подходите, и вас действительно не взяли

Из двух видов ошибок компанию, конечно, больше всего волнуют FP. Куда хуже устроить на работу неподходящего кандидата, будь то brilliant jerk, метатель кабачковой икры или просто технически слабый чел. Поэтому компании лучше перестраховаться и отшить кандидата на собесе.

Если вас отшили, остается два варианта: FN или TN. Мой совет такой: считай, что ты FN. Не надо себя закапывать, опускать самооценку и думать, что ты TN ("наверное я лох... да, поделом отшили"). Куда конструктивнее считать, что ты FN и просто момент признания еще не настал.

Это, конечно, не отменяет того, что надо собирать фидбек после собесов, ходить по мокам и вообще прикладывать силы. И конечно, это не значит, что надо рассуждать "я крут, литкод говно, сами лохи, что меня отшили".

Но вы поняли, все равно сама эта позитивная установка (а-ля positivity bias) может психологически помочь, когда ловишь один отказ за другим.
This media is not supported in your browser
VIEW IN TELEGRAM
Как ллм вращают шарик в полигоне
#llm

У меня все команда на сходке в Лондоне, а я не получил визу (оставайтесь на связи, в канале будет больше историй про проблемы первого мира), так что вот моя работа на сегодня.

Что, как там модельки рисуют шарик, барахтающийся внутри вращающегося шестиугольника? Идея не новая, подглядел на LI и даже в инсте. Покидал один и тот же промпт в несколько флагманских llm, просто через UI, как простые домохозяины, не платящие $200/мес за аги.

Write a Python program that simulates a ball bouncing inside a spinning hexagon, with gravity and friction affecting its movement, ensuring realistic bounces off the rotating walls
Результаты от худших к лучшим:

Gemini Pro 1.5 – вообще мимо, оставил в одном месте hex_vertices = и устал;
Gemini Pro 1.5 Deep Research – не лучше, долго думал-анализировал да где-то на tuple навесил несуществующий метод;
Gemini Flash 1.5 – полигон не вращается, шарик летает, как отпущенный воздушный;
🔠 GPT-4-turbo: отрисовал вращающийся полигон, но сразу уронил шарик сквозь стену;
🔠 Claude Sonnet 3.5: все неплохо, но шарик поскакал да упал сквозь стенку. GIF в посте – про клод;
Gemini experimental 1206: все идеально;
Deepseek V3: все идеально.

UPD:
o3-mini-hard: идеально;
Deepseek R1: вдруг напортачил, шаров два, прилипли к стенкам.

Предстоящий выход Gemini 2.0 будет мощным. Ну и DeepSeek хорош, да. Я все равно подобрал стоки нвидии на распродаже, но дипсик по делу нашумел (вывод слишком громкий для моего быстрого эксперимента, но все равно).
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/02/05 12:04:43
Back to Top
HTML Embed Code: