Telegram Group Search
Пара моих последних проектов с поиском
#google

Закончил пару проектов с поиском – для большой сети отелей и крупнейшего в мире HR-агентства.

Первое – это "умный" поиск отелей (в кавычках - поскольку чаще тупой) типа того, что другая гугловская команда запилила для Trivago или smart filters букинга.

Второе – data enrichment LLM-ками, подтягивать квалификации/скилы кандидатов из их опыта. И дальше тоже поиск.

В обоих случаях поиск – это Vertex AI search, который, конечно, продается как "гугловский поиск на ваших данных". Хотя самая большая ставка клауда в этом году на Agentspace – это по сути тот самый гугловский поиск на корп данных из всех конфлюенсов, мэйлов, чатов и т.д. Плюс, конечно, агенты поверх этого добра.

Как видите, это все не такая уникальная работа, какой, скажем был антифрод в науке. К тому же, на гугловском стеке (помимо него я только langchain и langgraph успел чутка поковырять). Так что в дальнейшем я не так много буду про работу писать 😅 Может, буду на конфах рассказывать, то там все вылизано гугловскими полиси, вайб будет скорее как на Google I/O 😂 но ниче, придумаем, тому же Филиппу Шмидту, которого DeepMind недавно переманил из HF, удается нетривиальные вещи рассказывать, при этом оставаясь приверженным "линии партии".

Следующий проект – с одной из самых известных в NL компаний (ага, пока кейсы не публичные, все вот так загадками описывают клиентов), там будет возможность Veo потыкать, звучит интересно.

пс. кстати, бесплатный интенсив гугла с кэгглом по GenAI (писал тут) перезапускается 31 марта, рега тут
Please open Telegram to view this post
VIEW IN TELEGRAM
Показываю жене свою GenAI-поделку.

Она: Ну ничего, давай протестируем твои эти.. фью-шот примеры
О прапоре и бинарном поиске
#coolstorybob

Дело было во время военных сборов, которые для меня были очень похожи на волонтерский лагерь в Германии, тк я записался в косильщики травы. Живешь, ешь, косишь траву, тупо шутишь. Выдали нам удлинитель метров на 100 и он, конечно же, не работал. Нашелся электрический тестер, который мог сказать, течет ли ток между двумя точками. Так что дебаггинг выглядел так: втыкаешь два гвоздя в кабель, проверяешь тестером, течет ли ток. Если нет - кабель поврежден где-то между гвоздями.

Ну а поскольку физтехов вокруг было много, фразы «бинарный поиск» и «логарифм» звучали уже через 3 минуты после получения задания.

Я не стал втирать прапору про Лог Эн, просто сказал, что быстрое решение есть. Кабель был вскоре отдебажен. Вот так мне на душу легло бремя позитивного вклада в ВС РФ с помощью Computer Science.
Сортировка ручками
#coolstorybob

История слегка откликающаяся с той, что выше. Как-то в аспирантуре вышки мы коллективно помогали с проверкой решений какой-то из абитурских олимпиад. Надо было потом листочки по алфавиту разложить. Вот у тебя стопка работ: Баранов, Смирнов, Арбузов и тд. Вперде, сортируй!

Опять звучали логарифмы, кто-то слиянием работал, кто-то пытался ручками TimSort реализовать.

Но одно дело О большое и теория, другое - когда ты уже 5 часов сидишь летом в душной аудитории, и хочется как-то пошустрее закончить. К тому же работ на руках - штук до 20 за раз, так что константа играет роль.

Ну и я применял простой советский… insertion sort. Да, квадрат, но до 15-20 элементов получается быстрее, чем у асимптотически оптимальных алгоритмов. К тому же, я заметил, часто стопки были уже почти отсортированы, а на таких входах insertion sort может быть и линейным.

Так что после некоторого количества физиопроцедур я освободился и ходил смотрел, кто еще какой ZalupaSort ручками имплементирует.
Почему именно у LLM для кодинга такой прогресс
#llm

Ну я туда же, повайбкодил с Gemini 2.5 Pro, охренел чутка, действительно с одного промпта можно накидать репу с фронтом, беком, все как надо. Но, конечно, в большой проект с кучей легаси это пока плохо переносится. Скорее мешает.

Тем не менее, настолько стремительный прогесс навел меня на кучу мыслей, от философских до чисто шкурных, про свою карьеру (наверное многие испытывали похожее).

Откуда весь хайп, почему все говорят про вайб-кодинг, агентов и рисуют экспоненту.

Вкратце объясню (в том числе самому себе), почему именно с кодом ожидают дальнейшего дикого прогресса. Сравним LLM для текста и для кода:

- язык кода сильно проще, нет двусмысленностей, синонимов и прочей лингвистики, словарь довольно ограниченный
- автоматическая оценка в случае с кодом проще, можно быстро проверить, компилится ли оно, синтаксис проверить, а в более сложной версии – и прогнать код (а.к.a verifiable evaluation). Потенциальный масштаб такого авто-эвала просто невероятен. В случае текстов все сложнее, хорошо ли эссе написано или нет, фактически верная инфа приведена или нет, субъективно ли написано или объективно – либо human feedback нужен, либо менее точный LLM as a judge. Конечно, RLHF совершил очередную мини-революцию, но все же отзыв от людей – это куда более скромный сигнал, чем от компилятора.
- real-time обратная связь от IDE. Клацнул ли вайб-кодер на Tab или нет – представьте, сколько это сигнала для улучшения. Кажется, тут куда больше бит можно собрать, чем от формочек с пальцами вверх/вниз в web UI ллмок. Хотя я тут не спец, может, в коменты залетят ребята, обучающие sota-агентов для кодинга, и уточнят.

И это все пока в контексте базовой задачи next token prediction. В случае c кодом можно куда больше задач придумать – представьте претрейн в виде миллиарда маленьких агентов, где каждый решает свою задачу, примерно в формате AlphaZero self-play. Задачи могут быть как в литкод-стиле (для начала), так и ближе к жизни – пойти заполнить веб-форму для налоговой декларации или заказать пиццу – вполне себе verifiable evaluation, удалось это или нет.

В частности из-за этого сейчас такой хайп с агентами, многие верят (и не безоснавательно), что к концу года Computer Use агенты выйдут почти на человеческий уровень. Тут можно развернуть мысль и в сторону автоматизации рисеча и самоулучшения LLM, с которым приходим к экспоненте. Но тут свалимся в срачики и спекуляции.

А возвращаясь к вайб-кодингу – да, это пока больше для проектов с нуля, под пивко накидать сервис, возможно, на новом языке программирования. В больших проектах или сложных задачах я пока не вижу профита. Но по указанным выше причинам я действительно верю, что через несколько лет виртуальные кодеры уже будут существовать и будут полезны. Ну а пока да, будем кекать с быдло-вайбкода в проде и твиттер-тредов про эпические факапы и утечки. Но это временно, раздай людям бензопилы – щепки полетят.

Что все это значит для меня лично:
- я понял, что не хочу превращаться в луддита, игнорируя новые технологии ("вайб-код – для обезьян," "это все для фронта, их пора заменить, а вот C++...", "да не, кроме нас 15 человек никто не знает, как дизайнить 1нм чипы" и т.д.). Держим руку на пульсе
- я уже немного поработал менеджером в прошлой компании, в гугле пока IC и менеджерский путь пугает (back2back митинги и только вечерами время на фокус – классика). Но если посмотреть на 15-20 лет вперед, я вижу для себя только менеджерский путь. Кодить, соревноваться с молодежью, которая выросла на LLM-стеке (а может, и с агентами уже соревноваться) – все это тупиковый путь. А вот как менеджерить огромную команду из людей и агентов (пусть даже, для простоты, скажем, что агенты на уровне людей, не ASI) – это нехилая менеджерская задача. Как описывать задания агентам (может не так, как людям) – тоже хороший вопрос. И таких менеджерских головоломок будет все больше.
Морали нет, все равно любые попытки выводов приведут к спекуляциям про Курцвейла и Бострома. Любителям этой темы можно посоветовать 3 часа беседы Дворкеша с легендой Scott Alexander и Daniel Kokotajlo (чел, который ушел из OpenAI но не заткнулся и рубанул правду, что стоило ему миллионов)
Пока еду в поезде на Амстер и читаю ваши коменты, рядом студент китаец вайб-кодит домашку из универа Ляйдена, в которой надо реализовать логрег руками, а потом в склерне запустить.

Первая мысль: а, лошара, базу знать надо! И вообще кто не писал с Карпатым grouped batch norm на чистом numpy, тот пороху не нюхал.

Вторая мысль: я не знаю, как эффективно считать синус, как работают мейнфреймы. Да и даже все эти техники обучения LLM - только поверхностно. Ниче, работать получается.

Третья мысль: что бы там ни было, новое поколение адаптируется (тут могла быть цитата древнего грека про убогую «молодежь»). И это ему я проиграю конкуренцию на рынке разрабов через 10 лет.
Каков из меня нидерландец
#life

На следующей неделе пойду на поклон местному Оранжевому (ик белоф дат ик де хрондветкляйке орде… - многие из всего нидерландского только эту фразу заучивают и то кое-как по бумажке читают). А там и новый паспорт в копилку.

Чек-лист тру нидерландца:

быть выше 185 см
не говорить «голландец» вместо «нидерландец»
съесть сэндвич во время поездки на велике
перевести всю мебель на велике
вспереть всю мебель по узкой крутой лестнице
везде по городу ездить на веле, даже под дождем
считать что порция картохи фри - это обед
возлюбить хрючево типа капсалона (роттердамский вариант шавухе в лотке с сыром и фри)
поддержать диалог чуть дольше, чем «mag ik een cappuccino… dankjewel»
поучаствовать в соревновании по езде на велике против урагана (пример)

Кому из местных актуально, писал тут про языковые экзамены.
Please open Telegram to view this post
VIEW IN TELEGRAM
От одного из менти услышал, что он, вдохновившись моим опытом, тоже на время собесов максимально делегировал, всю работу раскидал по федотам, чтоб ничто не отвлекало от разворачивания деревьев и описания историй про валуе.

Absolutely thrilled to have played a part in their growth and development. It's moments like these that absolutely reaffirm my passion for mentorship.
Тьюториал: суммаризация ютуб-видео с Gemini и деплой с Google Cloud Run

Gemini довольно хорош в обработке видео, особенно с YouTube – тут и длинный контекст помогает, и то что гугл владеет ютубом.

Я тут как-то проводил мини-хакатон для клиентов, как раз запрос был на суммаризацию видео, заодно хотели освоить деплой сервисов в гугл-облаке.

Так что я обернул это в тьюториал, вдруг кому актуально:
- пост
- репа
Хорошо, когда работа пересекается с хобби.

Когда речь об анализе длинных видео (фильмы, новостные эпизоды, футбол, формула1) – все куда сложнее, чем в примере выше.

По сути пока мало что скажу – аутирую в репе с ядренным асинк бэком и двольно навороченным фронтом, вайб-кодить только отчасти получается. PhD-юк во мне чутка в шоке. Но вообще сценарий довольно типичный в моей работе. Да, я не знаю ничего про SotA в рил-тайм анализе спорта, но вот есть клиент, давай ко вторнику что-то покажем.

Ну если по сути, основная идея – разделяй и властвуй. Разбивать видео на куски, натравлять gemini на куски + массивная асинк-параллелизация. Надеюсь, дойдет до прода и можно будет подробнее рассказать.
This media is not supported in your browser
VIEW IN TELEGRAM
Veo-3 поражает, да
Please open Telegram to view this post
VIEW IN TELEGRAM
Ну ладно, про подкасты тоже можно сказать. Можно взять, выкачать все посты из тг-канала (в Telegram Desktop свежей версии это канал –> три точки –> Export chat history), простеньким скриптом достать только даты и текст (не буду кидать скрипт; LLM такое уже давно щелкают), загрузить в NotebookLM и сказать "напиши пост про NotebookLM в стиле этого канала" "Расскажи увлекательно про жизнь и работу этого человека". Прогнал так на себе и еще паре героев – шикарно, почти без галлюцинаций. Подкаст прям на русском генерирует (в настройках надо Output language указать). Более того, можно встрять гостем и прямо общаться с подкастерами о себе любимом. Новые пилюли от одиночества на старости.

Денис Sexy IT, кстати, среди потока щитпостинга полезный пост писал, как на контенте телеграм-канала к собесам готовился.
Вдогонку про NotebookLM – вот видео на 4 минуты, примерно как я выше рассказал, но с видео. Канал Матрица вообще хорош (кажется, недооценен пока) – короткие ролики на русском, все по делу. Вот, например, 10 минут про Google I/O 10 или 4 минуты про то, шо за MCP такое.
2025/05/30 17:37:49
Back to Top
HTML Embed Code: