Для тех, кому интересно, как технологии меняют бизнес — и нашу жизнь.
Сегодня ИИ часто видит только крупные бренды. Например, если спросить Claude, где купить цветы — она предложит сетевые магазины, игнорируя локальные компании.
Похоже, теперь нужно учитывать не только SEO для людей, но и SEO для нейронок.
Есть канал Max Votek — предпринимателя, инвестора и сооснователя Customertimes. Уже 17 лет он внедряет технологии в бизнес-процессы крупных компаний и живёт с аллигаторами в солнечной Флориде.
На канале — честные размышления про AI, бизнес и то, как всё это реально работает (и ломается) в жизни:
• Влияние AI на IT Консалтинг и аутсорсинг
• Как ИИ меняет сложные продажи
• Про AI агентов для отчетности и знания внутри компании
• Как AI меняет работу наших консультантов и разработчиков
• О том, что мы можем сильно ошибаться в наших прогнозах про AI
• О фармацевтике, AI и No-code инструментах
• Об оригинальном контенте и нейросетях
Без общих слов, без пяти шагов к успеху — только живые истории, личный опыт и практические выводы.
Обязательно подписывайтесь на @maxvotek
#реклама #текстприслан
Сегодня ИИ часто видит только крупные бренды. Например, если спросить Claude, где купить цветы — она предложит сетевые магазины, игнорируя локальные компании.
Похоже, теперь нужно учитывать не только SEO для людей, но и SEO для нейронок.
Есть канал Max Votek — предпринимателя, инвестора и сооснователя Customertimes. Уже 17 лет он внедряет технологии в бизнес-процессы крупных компаний и живёт с аллигаторами в солнечной Флориде.
На канале — честные размышления про AI, бизнес и то, как всё это реально работает (и ломается) в жизни:
• Влияние AI на IT Консалтинг и аутсорсинг
• Как ИИ меняет сложные продажи
• Про AI агентов для отчетности и знания внутри компании
• Как AI меняет работу наших консультантов и разработчиков
• О том, что мы можем сильно ошибаться в наших прогнозах про AI
• О фармацевтике, AI и No-code инструментах
• Об оригинальном контенте и нейросетях
Без общих слов, без пяти шагов к успеху — только живые истории, личный опыт и практические выводы.
Обязательно подписывайтесь на @maxvotek
#реклама #текстприслан
Telegram
Мысли вслух
Когда я что-то осознаю, мне хочется об этом рассказать. Здесь делюсь мыслями и открытиями - про технологии, предпринимательство и инвестиции.
Max Votek @Mkitt — предприниматель, сооснователь Customertimes, инвестор.
linkedin.com/in/max-votek
Max Votek @Mkitt — предприниматель, сооснователь Customertimes, инвестор.
linkedin.com/in/max-votek
This media is not supported in your browser
VIEW IN TELEGRAM
🌪️ Microsoft Aurora: как ИИ предсказывает погоду лучше метеорологов
*Спойлер: следующий ураган уже на радаре. И это не просто прогноз — это расчёт мощнейшей AI-модели, которая видит то, что не замечают традиционные системы предсказания погоды.
Microsoft Research представила Aurora — фундаментальную ИИ-модель, которая не просто предсказывает погоду, а переигрывает существующие системы по точности, скорости и стоимости вычислений.
Цифры:
✔ 91% — настолько чаще Aurora точнее других моделей (Nature, 2025).
✔ 5000× быстрее традиционных суперкомпьютерных расчётов.
✔ 1 млн часов данных — спутники, радары, станции — самый большой датасет для тренировки ИИ в истории метеорологии.
🌊 Реальный track record модели:
1️⃣ Тайфун «Доксури» (2023)
→ Официальный прогноз: «пройдёт мимо Филиппин».
→ Aurora за 4 дня: «удар будет здесь».
→ Реальность: разрушения, потоп на Филиппинах
2️⃣ Песчаная буря в Ираке
→ Данных по качеству воздуха — мало.
→ Aurora всё равно предупредила за сутки.
→ Точность — при в сотни раз меньших затратах.
3️⃣ Высота волн от тайфуна «Нанмадол»
→ Обычные модели ошибались.
→ Aurora дала точный прогноз — рекорд 2022 года.
⚡ Зачем это нам?
- Бизнес: логистика, энергетика, сельское хозяйство — теперь можно планировать с учётом более реальных рисков
- Наука: модель открыта — можно дообучать под свои задачи (например, предсказывать наводнения в конкретном регионе).
- Технологии: архитектура Aurora — новый стандарт для AI-моделей в Earth Science.
*P.S. Если Aurora скажет «завтра брать зонт» — лучше послушайтесь. ☔
🌪️Блог
⛈ Статья
🌋GitHub
*Спойлер: следующий ураган уже на радаре. И это не просто прогноз — это расчёт мощнейшей AI-модели, которая видит то, что не замечают традиционные системы предсказания погоды.
Microsoft Research представила Aurora — фундаментальную ИИ-модель, которая не просто предсказывает погоду, а переигрывает существующие системы по точности, скорости и стоимости вычислений.
Цифры:
✔ 91% — настолько чаще Aurora точнее других моделей (Nature, 2025).
✔ 5000× быстрее традиционных суперкомпьютерных расчётов.
✔ 1 млн часов данных — спутники, радары, станции — самый большой датасет для тренировки ИИ в истории метеорологии.
🌊 Реальный track record модели:
1️⃣ Тайфун «Доксури» (2023)
→ Официальный прогноз: «пройдёт мимо Филиппин».
→ Aurora за 4 дня: «удар будет здесь».
→ Реальность: разрушения, потоп на Филиппинах
2️⃣ Песчаная буря в Ираке
→ Данных по качеству воздуха — мало.
→ Aurora всё равно предупредила за сутки.
→ Точность — при в сотни раз меньших затратах.
3️⃣ Высота волн от тайфуна «Нанмадол»
→ Обычные модели ошибались.
→ Aurora дала точный прогноз — рекорд 2022 года.
⚡ Зачем это нам?
- Бизнес: логистика, энергетика, сельское хозяйство — теперь можно планировать с учётом более реальных рисков
- Наука: модель открыта — можно дообучать под свои задачи (например, предсказывать наводнения в конкретном регионе).
- Технологии: архитектура Aurora — новый стандарт для AI-моделей в Earth Science.
*P.S. Если Aurora скажет «завтра брать зонт» — лучше послушайтесь. ☔
🌪️Блог
⛈ Статья
🌋GitHub
Слишком хорошо, что бы не поделиться https://vm.tiktok.com/ZNdhurrDe/
Чат: посоветуйте наушники 🎧 нужны который большие, и что бы с блютусом, и что бы с Apple хорошо дружили, и супер звук, и не слишком тяжелые, что бы гулять можно было. До этого пользовался AirPod Max, все нравилось, но спустя ~2 года они безбожно глючат и постоянно перезагружаются.
4 года нашему каналу
На днях, нам исполнилось 4 года! Тогда он назывался NN For Science, и я писал в основном про то, как можно использовать глубокое обучение в науке. Довольно быстро, я пришел к выводу, что ИИ будет абсолютно везде -> AI для всех.
4 года назад я сгенерировал аватарку канала с помощью Dall-E. Сегодня - картинку рисовал ChatGPT.
За время существования канала я успел пожить в Москве, Вене, Тель-Авиве и Кремниевой долине, а сейчас я живу в Сан Франциско. Так что репортажи - прямиком из эпицентра ИИ!
Сделайте нам подарок - поделитесь нашим каналом со своими друзьями!
Нас станет больше, а друзья окажутся на самом фронтире искусственного интеллекта.
На днях, нам исполнилось 4 года! Тогда он назывался NN For Science, и я писал в основном про то, как можно использовать глубокое обучение в науке. Довольно быстро, я пришел к выводу, что ИИ будет абсолютно везде -> AI для всех.
4 года назад я сгенерировал аватарку канала с помощью Dall-E. Сегодня - картинку рисовал ChatGPT.
За время существования канала я успел пожить в Москве, Вене, Тель-Авиве и Кремниевой долине, а сейчас я живу в Сан Франциско. Так что репортажи - прямиком из эпицентра ИИ!
Сделайте нам подарок - поделитесь нашим каналом со своими друзьями!
Нас станет больше, а друзья окажутся на самом фронтире искусственного интеллекта.
🧠🔍 Anthropic выложили в открытый доступ «рентген» для LLM
Сегодня ребята из Anthropic выложили в open-source свежайший circuit-tracer — библиотеку + веб-интерфейс, которые позволяют буквально «посветить фонариком» внутрь любых открытых LLM и посмотреть, как токены влияют друг на друга.
Что дают?
• Attribution graphs — автоматически строят граф «кто-на-кого влияет» (токены → фичи → логиты).
• Neuronpedia UI — кликаешь 👉 смотришь цепочки рассуждений, группируешь узлы, подписываешь и делишься ссылкой.
• Интервенции — в ноутбуке можно подкрутить найденные фичи и сразу увидеть, как меняется ответ модели.
Зачем это нам?
🔑 Интерпретируемость давно отставала от «качаем ещё 10B параметров». Теперь любой энтузиаст может проверить, какие цепочки выводят модель к финальному слову, найти баги рассуждений и даже чинить их on-the-fly.
Пробуйте, делитесь самыми странными цепочки — интересно, какие «мысленные кроличьи норы» вы откопаете! 🐇👆
Ссылка
Сегодня ребята из Anthropic выложили в open-source свежайший circuit-tracer — библиотеку + веб-интерфейс, которые позволяют буквально «посветить фонариком» внутрь любых открытых LLM и посмотреть, как токены влияют друг на друга.
Что дают?
• Attribution graphs — автоматически строят граф «кто-на-кого влияет» (токены → фичи → логиты).
• Neuronpedia UI — кликаешь 👉 смотришь цепочки рассуждений, группируешь узлы, подписываешь и делишься ссылкой.
• Интервенции — в ноутбуке можно подкрутить найденные фичи и сразу увидеть, как меняется ответ модели.
Зачем это нам?
🔑 Интерпретируемость давно отставала от «качаем ещё 10B параметров». Теперь любой энтузиаст может проверить, какие цепочки выводят модель к финальному слову, найти баги рассуждений и даже чинить их on-the-fly.
Пробуйте, делитесь самыми странными цепочки — интересно, какие «мысленные кроличьи норы» вы откопаете! 🐇
Ссылка
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡ AI-шторм: что грядёт на рынке белых воротничков и как не остаться без дела
1. Главное предупреждение
• Дарио Амодей (Anthropic) оценивает, что до 50 % стартовых офисных позиций могут исчезнуть за 1–5 лет, а безработица подпрыгнуть до 10–20 %.
• Сейчас, по внутренним данным Anthropic, 60 % пользователей применяют ИИ для поддержки работы, но 40 % — уже для полной автоматизации; доля автоматизации растёт ежемесячно.
2. Почему этот сценарий реалистичен
• Microsoft уволила ~6 000 человек (≈3 % штата) — официально ради «структурного разворота под ИИ-приоритеты».
• Walmart сокращает 1 500 корпоративных позиций и параллельно инвестирует $500 млн в AI и роботизацию.
• CrowdStrike убирает 5 % персонала (≈500 человек), ссылаясь на «AI-эффективность».
• Марк Цукерберг (подкаст Joe Rogan, Jan 2025): «В 2025 году у Meta и других компаний будет ИИ-“мидл инженер”, пишущий код вместо людей».
Эти решения сигнализируют: как только модели устойчиво достигают «человеческой» планки качества — бизнес мгновенно меняет оргструктуру и hiring-планы.
3. Что это значит для молодых специалистов
• Учись на реальных задачах. Выделяй хотя бы час в день на ChatGPT/Claude/Gemini для своих типовых задач — найди, что уже автоматизируется.
• Собери «ИИ-инструментарий» под свой стек (код, аналитика, техдок, RAG-системы). Цель — минимум удвоить личную продуктивность к концу года.
• Прокачивай критическое мышление — отсеивай хайп, проверяй данные, экспериментируй.
• Строй портфель навыков, которые усиливаются, а не вытесняются ИИ: product-мышление, постановка задач, доменная экспертиза, клиентский контакт.
• Сети и сообщество. Делись кейсами автоматизации — это лучший «щит» на рынке труда.
4. Что могут сделать лидеры команд
• Перестать не замечать риски. Честно обозначить сотрудникам уязвимые роли и дать доступ к продвинутым моделям.
• Требовать от каждой функции «10×-план»: как ИИ повысит скорость/качество конкретных метрик.
• Упростить процессы. Чем короче цепочка решений, тем быстрее компания адаптируется к новым возможностям моделей.
5. Политические идеи (то что предлагает Дарио Амодей)
• «Token-tax» 3 % с каждой оплаченной токен-операции в пользу фондов переподготовки.
• Ваучеры на быструю переквалификацию в смежные ИИ-дополняемые роли.
• Публичные дашборды об автоматизируемых профессиях — чтобы регионы видели угрозы заранее.
6. Итог
ИИ переопределяет ценность навыков. Тот, кто научится делать больше с помощью моделей, окажется на гребне новой волны. Тот, кто проигнорирует сигнал, рискует попасть под удар первой же волны автоматизации.
Ссылка
🎯 Вопрос к сообществу: какие рутины вы уже переложили на ИИ? Поделитесь историями — учимся друг у друга!
1. Главное предупреждение
• Дарио Амодей (Anthropic) оценивает, что до 50 % стартовых офисных позиций могут исчезнуть за 1–5 лет, а безработица подпрыгнуть до 10–20 %.
• Сейчас, по внутренним данным Anthropic, 60 % пользователей применяют ИИ для поддержки работы, но 40 % — уже для полной автоматизации; доля автоматизации растёт ежемесячно.
2. Почему этот сценарий реалистичен
• Microsoft уволила ~6 000 человек (≈3 % штата) — официально ради «структурного разворота под ИИ-приоритеты».
• Walmart сокращает 1 500 корпоративных позиций и параллельно инвестирует $500 млн в AI и роботизацию.
• CrowdStrike убирает 5 % персонала (≈500 человек), ссылаясь на «AI-эффективность».
• Марк Цукерберг (подкаст Joe Rogan, Jan 2025): «В 2025 году у Meta и других компаний будет ИИ-“мидл инженер”, пишущий код вместо людей».
Эти решения сигнализируют: как только модели устойчиво достигают «человеческой» планки качества — бизнес мгновенно меняет оргструктуру и hiring-планы.
3. Что это значит для молодых специалистов
• Учись на реальных задачах. Выделяй хотя бы час в день на ChatGPT/Claude/Gemini для своих типовых задач — найди, что уже автоматизируется.
• Собери «ИИ-инструментарий» под свой стек (код, аналитика, техдок, RAG-системы). Цель — минимум удвоить личную продуктивность к концу года.
• Прокачивай критическое мышление — отсеивай хайп, проверяй данные, экспериментируй.
• Строй портфель навыков, которые усиливаются, а не вытесняются ИИ: product-мышление, постановка задач, доменная экспертиза, клиентский контакт.
• Сети и сообщество. Делись кейсами автоматизации — это лучший «щит» на рынке труда.
4. Что могут сделать лидеры команд
• Перестать не замечать риски. Честно обозначить сотрудникам уязвимые роли и дать доступ к продвинутым моделям.
• Требовать от каждой функции «10×-план»: как ИИ повысит скорость/качество конкретных метрик.
• Упростить процессы. Чем короче цепочка решений, тем быстрее компания адаптируется к новым возможностям моделей.
5. Политические идеи (то что предлагает Дарио Амодей)
• «Token-tax» 3 % с каждой оплаченной токен-операции в пользу фондов переподготовки.
• Ваучеры на быструю переквалификацию в смежные ИИ-дополняемые роли.
• Публичные дашборды об автоматизируемых профессиях — чтобы регионы видели угрозы заранее.
6. Итог
ИИ переопределяет ценность навыков. Тот, кто научится делать больше с помощью моделей, окажется на гребне новой волны. Тот, кто проигнорирует сигнал, рискует попасть под удар первой же волны автоматизации.
Ссылка
🎯 Вопрос к сообществу: какие рутины вы уже переложили на ИИ? Поделитесь историями — учимся друг у друга!
Худший способ платить сотрудникам в разные страны — делать всё вручную: контракты, инвойсы, документы для банков. Я серьёзно.
Представьте, сколько ресурсов тратит финотдел на выплату зарплат в разные страны с соблюдением международных законов. А банки ещё и блокируют платежи, запрашивают документы и требуют доказать квалификацию исполнителя.
В итоге для большинства global-компаний платить удалённым сотрудникам и фрилансерам — это головная боль и масса рисков. Но с платформой 4dev.com всё гораздо проще.
⭐️ 4dev.com это:
- один b2b-договор с платформой вместо десятков индивидуальных с каждым сотрудником
- мгновенные выплаты удалённым сотрудникам и фрилансерам в 100+ стран, в том числе в СНГ
- автоматическое создание закрывающих документов по каждой выплате и решение проблемы банковского комплаенса
- комиссия 1–3% для бизнеса
💵 легальные криптоплатежи, а также выплаты в 30+ фиатных валютах
Всё это без авралов и утомительной бумажной работы.
Запишитесь на демо в 1 клик. Специалист платформы погрузится в ваши задачи и поможет найти решение именно для вашего бизнеса!
#промо #текстприслан
Представьте, сколько ресурсов тратит финотдел на выплату зарплат в разные страны с соблюдением международных законов. А банки ещё и блокируют платежи, запрашивают документы и требуют доказать квалификацию исполнителя.
В итоге для большинства global-компаний платить удалённым сотрудникам и фрилансерам — это головная боль и масса рисков. Но с платформой 4dev.com всё гораздо проще.
- один b2b-договор с платформой вместо десятков индивидуальных с каждым сотрудником
- мгновенные выплаты удалённым сотрудникам и фрилансерам в 100+ стран, в том числе в СНГ
- автоматическое создание закрывающих документов по каждой выплате и решение проблемы банковского комплаенса
- комиссия 1–3% для бизнеса
Всё это без авралов и утомительной бумажной работы.
Запишитесь на демо в 1 клик. Специалист платформы погрузится в ваши задачи и поможет найти решение именно для вашего бизнеса!
#промо #текстприслан
Please open Telegram to view this post
VIEW IN TELEGRAM
Thinkless: LLM учится, когда нужно думать
Современные LLM, способные к долгим логическим рассуждениям продемонстрировали замечательную производительность при решении задач, требующих сложных логических выводов
Однако применение сложных рассуждений для абсолютно всех запросов часто приводит к существенной вычислительной неэффективности, особенно когда многие проблемы допускают
простые решения.
Исследователи из университета Сингапура поставили вопрос ребром: могут ли LLM научиться, когда думать?
Чтобы ответить на этот вопрос, предложен Thinkless, обучаемый фрэмворк, который позволяет LLM адаптивно выбирать между краткой и длинной формой рассуждений, основываясь как на сложности задачи, так и на возможностях модели.
Thinkless обучается при помощи Reinforcement Learning, где использует два контрольных токена, <short> для кратких ответов и <think> для подробного рассуждения.
В основе предложенного метода лежит алгоритм Decoupled Group Relative Policy Optimization (DeGRPO), который разделяет выбор режима рассуждения и точности ответа, избегая коллапса.
Эмпирически, на нескольких бенчмарках, таких как Minerva Algebra, MATH-500 и GSM8K, Thinkless способен сократить использование длинных логических рассуждений на 50% - 90% без потери качества ответов.
"Думай быстро и медленно"в действии!
🧠 Статья
🖥 GitHub
Современные LLM, способные к долгим логическим рассуждениям продемонстрировали замечательную производительность при решении задач, требующих сложных логических выводов
Однако применение сложных рассуждений для абсолютно всех запросов часто приводит к существенной вычислительной неэффективности, особенно когда многие проблемы допускают
простые решения.
Исследователи из университета Сингапура поставили вопрос ребром: могут ли LLM научиться, когда думать?
Чтобы ответить на этот вопрос, предложен Thinkless, обучаемый фрэмворк, который позволяет LLM адаптивно выбирать между краткой и длинной формой рассуждений, основываясь как на сложности задачи, так и на возможностях модели.
Thinkless обучается при помощи Reinforcement Learning, где использует два контрольных токена, <short> для кратких ответов и <think> для подробного рассуждения.
В основе предложенного метода лежит алгоритм Decoupled Group Relative Policy Optimization (DeGRPO), который разделяет выбор режима рассуждения и точности ответа, избегая коллапса.
Эмпирически, на нескольких бенчмарках, таких как Minerva Algebra, MATH-500 и GSM8K, Thinkless способен сократить использование длинных логических рассуждений на 50% - 90% без потери качества ответов.
"Думай быстро и медленно"в действии!
🧠 Статья
Please open Telegram to view this post
VIEW IN TELEGRAM
Краткий пересказ нового эссе Сэма Алтмана - Благодатная Сингулярность
TLDR: Алтман утверждает, что мы уже вступили в эпоху стремительно развивающегося сверхинтеллекта, способного взорвать прогресс и требующего безопасного, справедливого распределения его преимуществ.
Человечество уже пересекло «событийный горизонт» цифрового сверхинтеллекта, и процесс ощущается удивительно буднично.
Несмотря на успехи ИИ, по улицам не ходят роботы, мы всё ещё не летаем в космос и многие тайны Вселенной остаются неразгаданными.
Системы уровня GPT-4 и О3 уже превосходят людей во многих задачах, и самые трудные научные прорывы (в AI) позади.
Быстрейшие инновации и рост продуктивности благодаря ИИ обещают огромный скачок качества жизни.
Масштаб ChatGPT таков, что крошечные улучшения — или ошибки — могут (и будут) умножаться на сотни миллионов пользователей.
В 2025-2027 годах агенты перейдут от помощников-кодеров к создателям инсайтов и роботам, работающим в реальном мире.
К 2030 году один человек сможет делать несравнимо больше, резко вырастут творческие и технические возможности.
При этом в 2030-х люди всё так же будут любить семьи, творить, играть и плавать в озёрах.
Но в то же время нас ждут беспрецедентные перемены, поскольку интеллект вырвется далеко за пределы человеческого.
Изобилие интеллекта и дешёвая энергия снимут давние ограничители прогресса при условии грамотного управления.
Чудеса ИИ быстро становятся обыденностью: от абзацев — к романам, от диагнозов — к лекарствам, от кода — к целым компаниям.
Учёные уже сообщают о 2–3-кратном росте продуктивности; сжатие десятилетия исследований в месяцы изменит темпы открытий.
ИИ уже на пути рекурсивного самоулучшения, ускоряя создание ещё лучшего ИИ.
Экономическая выгода запустила маховик инвестиций в вычислительную инфраструктуру и само-строящиеся технологии.
Когда гуманоидные роботы полностью возьмут на себя цепочки поставок, прогресс ускорится ещё сильнее.
Автоматизация сведёт предельную стоимость интеллекта почти к цене электроэнергии и капле воды.
Быстрый прогресс уничтожит целые профессии, но растущие богатства позволят смелые социальные нововведения и плавную адаптацию.
Как и раньше в индустриальные эпохи, общество придумает новые желания и роли, сохраняя человеческий фокус на людях, а не машинах.
Работы далёкого будущего покажутся нам «нелепыми», но будут важны и увлекательны для тех, кто ими занят.
Прорывы будут каскадировать: сегодня — физика, завтра — колонизация космоса или интерфейсы мозг-компьютер.
Жить в эпоху сингулярности, вероятно, окажется впечатляюще, но вполне по силам: экспонента гладка, хоть и крута.
Нужно решить вопросы безопасности ИИ и обеспечить широкий доступ к сверхинтеллекту для максимальной пользы и минимизации рисков.
- Шаг 1: надёжный алаймент, чтобы ИИ служил долгосрочным интересам человечества, а не сиюминутным импульсам.
- Шаг 2: сделать сверхинтеллект дешёвым и доступным всем, установив общественные рамки коллективного согласия.
Индустрия фактически строит персональный «мозг мира», где дефицитом станут идеи, а не исполнение.
Миссия OpenAI — исследование сверхинтеллекта; путь впереди уже освещён, и тьма быстро отступает.
«Интеллект дешевле воды» теперь звучит правдоподобно, так же как сегодняшняя реальность казалась фантастикой в 2020-м.
Пусть наше восхождение к сверхинтеллекту будет плавным, экспоненциальным и мирным.
Эссе в оригинале
TLDR: Алтман утверждает, что мы уже вступили в эпоху стремительно развивающегося сверхинтеллекта, способного взорвать прогресс и требующего безопасного, справедливого распределения его преимуществ.
Человечество уже пересекло «событийный горизонт» цифрового сверхинтеллекта, и процесс ощущается удивительно буднично.
Несмотря на успехи ИИ, по улицам не ходят роботы, мы всё ещё не летаем в космос и многие тайны Вселенной остаются неразгаданными.
Системы уровня GPT-4 и О3 уже превосходят людей во многих задачах, и самые трудные научные прорывы (в AI) позади.
Быстрейшие инновации и рост продуктивности благодаря ИИ обещают огромный скачок качества жизни.
Масштаб ChatGPT таков, что крошечные улучшения — или ошибки — могут (и будут) умножаться на сотни миллионов пользователей.
В 2025-2027 годах агенты перейдут от помощников-кодеров к создателям инсайтов и роботам, работающим в реальном мире.
К 2030 году один человек сможет делать несравнимо больше, резко вырастут творческие и технические возможности.
При этом в 2030-х люди всё так же будут любить семьи, творить, играть и плавать в озёрах.
Но в то же время нас ждут беспрецедентные перемены, поскольку интеллект вырвется далеко за пределы человеческого.
Изобилие интеллекта и дешёвая энергия снимут давние ограничители прогресса при условии грамотного управления.
Чудеса ИИ быстро становятся обыденностью: от абзацев — к романам, от диагнозов — к лекарствам, от кода — к целым компаниям.
Учёные уже сообщают о 2–3-кратном росте продуктивности; сжатие десятилетия исследований в месяцы изменит темпы открытий.
ИИ уже на пути рекурсивного самоулучшения, ускоряя создание ещё лучшего ИИ.
Экономическая выгода запустила маховик инвестиций в вычислительную инфраструктуру и само-строящиеся технологии.
Когда гуманоидные роботы полностью возьмут на себя цепочки поставок, прогресс ускорится ещё сильнее.
Автоматизация сведёт предельную стоимость интеллекта почти к цене электроэнергии и капле воды.
Быстрый прогресс уничтожит целые профессии, но растущие богатства позволят смелые социальные нововведения и плавную адаптацию.
Как и раньше в индустриальные эпохи, общество придумает новые желания и роли, сохраняя человеческий фокус на людях, а не машинах.
Работы далёкого будущего покажутся нам «нелепыми», но будут важны и увлекательны для тех, кто ими занят.
Прорывы будут каскадировать: сегодня — физика, завтра — колонизация космоса или интерфейсы мозг-компьютер.
Жить в эпоху сингулярности, вероятно, окажется впечатляюще, но вполне по силам: экспонента гладка, хоть и крута.
Нужно решить вопросы безопасности ИИ и обеспечить широкий доступ к сверхинтеллекту для максимальной пользы и минимизации рисков.
- Шаг 1: надёжный алаймент, чтобы ИИ служил долгосрочным интересам человечества, а не сиюминутным импульсам.
- Шаг 2: сделать сверхинтеллект дешёвым и доступным всем, установив общественные рамки коллективного согласия.
Индустрия фактически строит персональный «мозг мира», где дефицитом станут идеи, а не исполнение.
Миссия OpenAI — исследование сверхинтеллекта; путь впереди уже освещён, и тьма быстро отступает.
«Интеллект дешевле воды» теперь звучит правдоподобно, так же как сегодняшняя реальность казалась фантастикой в 2020-м.
Пусть наше восхождение к сверхинтеллекту будет плавным, экспоненциальным и мирным.
Эссе в оригинале
🚗 Scaling Laws в беспилотном транспорте
О чём вообще речь?
Waymo опубликовала исследование: взяла 500 000 часов реальных поездок, обучила трансформеры до 30 М параметров на задаче «предскажи всех участников трафика + спланируй свою траекторию» — и построила лог-лог кривые. Они оказались почти прямыми: качество растёт как Compute^-0.27. То есть больше GPU → меньше аварий.
Почему так происходит?
1. Переизбыточность данных. Чем разнообразнее поездки, тем выше шанс встретить редкий «поворот на красный в тумане».
2. Масштаб модели ↔ сложность среды. Шире сеть — больше «места» запомнить длинный хвост редких сценариев.
3. Инференс-семплы для улучшения предсказаний. Monte-Carlo-планирование с 100-200 вариантом хода позволяет маленькой сети догнать большую.
Как Waymo проверяла гипотезу?
• Данные: 0.5 млн часов поездок (крупнейший приватный датасет в AV).
• Модели: трансформеры 1 М → 30 М параметров.
• Метрики:
• Open-loop — MSE/NLL на фиксированных сценариях.
• Closed-loop — симуляция, где ошибка ведёт к столкновению.
• Вычисления: масштабировали и обучение, и число сэмплов при планировании.
Что из этого следует?
• Open ≈ Closed. Улучшения на статическом датасете почти линейно переходят в симуляцию — можно быстро итераировать без дорогих полевых испытаний.
• Бюджет предсказуем. Команды робототехники могут планировать апгрейды так же, как NLP-команды: знаешь FLOPs → знаешь будущую точность.
• Шанс для стартапов. При умном инференсе компактные сети догоняют 30-миллионную — открывая путь к поколению «лайт-роботакси».
• Барьеры остались. Сенсоры, лицензии на данные и суперредкие кейсы никто не отменял.
Практическая интуиция
Думайте о беспилотнике как о GPT на колёсах: хотите безопаснее — покупайте ещё миллионы часов трафика и горки GPU.
Блог-пост
О чём вообще речь?
Waymo опубликовала исследование: взяла 500 000 часов реальных поездок, обучила трансформеры до 30 М параметров на задаче «предскажи всех участников трафика + спланируй свою траекторию» — и построила лог-лог кривые. Они оказались почти прямыми: качество растёт как Compute^-0.27. То есть больше GPU → меньше аварий.
Почему так происходит?
1. Переизбыточность данных. Чем разнообразнее поездки, тем выше шанс встретить редкий «поворот на красный в тумане».
2. Масштаб модели ↔ сложность среды. Шире сеть — больше «места» запомнить длинный хвост редких сценариев.
3. Инференс-семплы для улучшения предсказаний. Monte-Carlo-планирование с 100-200 вариантом хода позволяет маленькой сети догнать большую.
Как Waymo проверяла гипотезу?
• Данные: 0.5 млн часов поездок (крупнейший приватный датасет в AV).
• Модели: трансформеры 1 М → 30 М параметров.
• Метрики:
• Open-loop — MSE/NLL на фиксированных сценариях.
• Closed-loop — симуляция, где ошибка ведёт к столкновению.
• Вычисления: масштабировали и обучение, и число сэмплов при планировании.
Что из этого следует?
• Open ≈ Closed. Улучшения на статическом датасете почти линейно переходят в симуляцию — можно быстро итераировать без дорогих полевых испытаний.
• Бюджет предсказуем. Команды робототехники могут планировать апгрейды так же, как NLP-команды: знаешь FLOPs → знаешь будущую точность.
• Шанс для стартапов. При умном инференсе компактные сети догоняют 30-миллионную — открывая путь к поколению «лайт-роботакси».
• Барьеры остались. Сенсоры, лицензии на данные и суперредкие кейсы никто не отменял.
Практическая интуиция
Думайте о беспилотнике как о GPT на колёсах: хотите безопаснее — покупайте ещё миллионы часов трафика и горки GPU.
Блог-пост
🚀 AI-бум на Stripe: как Lovable вышел на космические обороты
Stripe проанализировал крупнейшие AI-компании 2024 года и увидел взрывной рост: стартапы на ИИ растут быстрее, чем SaaS-поколение 2018-го. Почему? Что они делают иначе? Узнаете на открытом онлайн-интервью с основателем Lovable — одного из самых быстро растущих продуктов для вайб-кодинга.
Что будут обсуждать 💡
* Сверхбыстрый GTM: как LLM сокращают путь «код → рынок».
* Конверсия в цифрах: новые тактики привлечения пользователей в эпоху ажиотажа вокруг ИИ.
* Монетизация на старте: какие модели цен и скейлинга работают лучше всего.
Спикеры 🎙️
* Anton Osika — со-основатель и CEO, Lovable (Стокгольм)
* Eeke de Milliano — Head of Global Product, Stripe
* Laura Buhler — Global Head of Startup Product Marketing, Stripe
Когда 🗓️
18 июня 2025 г.
12:00 – 12:30 (МСК) / 10:00 – 10:30 (BST) / 11:00 – 11:30 (CEST)
Площадка: Zoom (онлайн)
Для кого 👥
Фаундеры, продукт-лидеры и все, кто хочет ускорить рост AI-стартапа в Европе и мира по-новому выйти на рынок.
👉 Регистрация
Stripe проанализировал крупнейшие AI-компании 2024 года и увидел взрывной рост: стартапы на ИИ растут быстрее, чем SaaS-поколение 2018-го. Почему? Что они делают иначе? Узнаете на открытом онлайн-интервью с основателем Lovable — одного из самых быстро растущих продуктов для вайб-кодинга.
Что будут обсуждать 💡
* Сверхбыстрый GTM: как LLM сокращают путь «код → рынок».
* Конверсия в цифрах: новые тактики привлечения пользователей в эпоху ажиотажа вокруг ИИ.
* Монетизация на старте: какие модели цен и скейлинга работают лучше всего.
Спикеры 🎙️
* Anton Osika — со-основатель и CEO, Lovable (Стокгольм)
* Eeke de Milliano — Head of Global Product, Stripe
* Laura Buhler — Global Head of Startup Product Marketing, Stripe
Когда 🗓️
18 июня 2025 г.
12:00 – 12:30 (МСК) / 10:00 – 10:30 (BST) / 11:00 – 11:30 (CEST)
Площадка: Zoom (онлайн)
Для кого 👥
Фаундеры, продукт-лидеры и все, кто хочет ускорить рост AI-стартапа в Европе и мира по-новому выйти на рынок.
👉 Регистрация
Bay Area: поехали в кэмпинг!
На этих выходных (21-22). Будет лето, солнцестояние, озеро и очень хорошо!
Куда именно еще не решил, открыт к предложениям
https://partiful.com/e/mCDcJ0gozJjRH1LyXDon
На этих выходных (21-22). Будет лето, солнцестояние, озеро и очень хорошо!
Куда именно еще не решил, открыт к предложениям
https://partiful.com/e/mCDcJ0gozJjRH1LyXDon
Бесплатная конференция НейроНавигатор 5.0 – про то, как не тратить время на контент и передать задачи нейросетям.
Тексты, визуал, стратегии – за минуты.
Команда и помощники – в 3 раза дешевле.
Упаковка и воронки – на автопилоте.
После регистрации в боте доступны:
✔ Нейронавигатор – +3 свободных часа в день.
✔ Генератор прибыли – 3 модели заработка.
✔ Готовые шаблоны от топ-экспертов.
👉 Старт конференции 20 июня, бесплатная регистрация по ссылке
#промо
Тексты, визуал, стратегии – за минуты.
Команда и помощники – в 3 раза дешевле.
Упаковка и воронки – на автопилоте.
После регистрации в боте доступны:
✔ Нейронавигатор – +3 свободных часа в день.
✔ Генератор прибыли – 3 модели заработка.
✔ Готовые шаблоны от топ-экспертов.
👉 Старт конференции 20 июня, бесплатная регистрация по ссылке
#промо
This media is not supported in your browser
VIEW IN TELEGRAM
Adventures in AI
У нас тут в Сан Франциско есть интерактивный музей, который называется Exploratorium. В нем, Антропик организовал временную выставку про искусственный интеллект. Не могу сказать что меня что-то прям очень впечатлило, но вот вам пример предлагаемого интерактива.
Нажимаем на кнопку и смотрим сколько воды используется на один промпт. Учитывая, что Альтман ранее говорил что одна чайная ложка, то получается что кто-то из них врет.
Сэм или Дарио?
У нас тут в Сан Франциско есть интерактивный музей, который называется Exploratorium. В нем, Антропик организовал временную выставку про искусственный интеллект. Не могу сказать что меня что-то прям очень впечатлило, но вот вам пример предлагаемого интерактива.
Нажимаем на кнопку и смотрим сколько воды используется на один промпт. Учитывая, что Альтман ранее говорил что одна чайная ложка, то получается что кто-то из них врет.
Сэм или Дарио?
Почему случается гроккинг?
Представьте: вы тренируете крошечный трансформер отличить кошку от ягуара.
После 100 000 шагов ‒ на трейне всё идеально, на тесте — худо-бедно 55 %.
Уже готовы махнуть рукой… и вдруг на 101 000-м шаге точность подпрыгивает до 99 %.
Это «внезапное прозрение» и называется grokking.
Grokking — момент, когда модель перестаёт тупо запоминать примеры и внезапно все понимает, из-за чего точность на тесте взлетает. Феномен был известен с 2021 года, но до сих пор было не до конца понятно почему так происходит.
Свежее исследование убедительно показывает, что гроккинг случается после того, как сеть забила всю свою память - «внутреннюю флешку» сырыми данными и вынуждена перейти к их сжатию.
Как оно работает
1. Копирование.
Пока энтропия данных меньше ≈ 3,5–4 бита на параметр, дешевле «запекать» каждый пример прямо в веса. Train-loss → 0, test-loss почти не падает.
2. Флешка переполнена.
Новые байты не влазят. Градиенту выгоднее искать закономерности, которые приведут к снижению ошибки сразу на нескольких примерах.
3. Озарение (grokking).
Сеть «сжимает» знания, выбрасывая случайные детали. Test-loss резко падает.
Сколько это «3,5–4 бита»?
Миллион параметров = ~0,5 МБ на диске.
Это меньше одной фотки с телефона — место заканчивается удивительно быстро, вот почему grokking ловят даже на игрушечных датасетах.
Что делать практику
• Учите дольше, чем кажется нужным. Магический скачок может прийти после тысяч лишних шагов.
• Добавьте данных. Если сеть забуксовала, удвойте датасет: ей надо «упереться в потолок памяти», прежде чем она начнёт обобщать.
Одна метафора, чтобы запомнить
Нейронка — ноут с крошечным SSD и автоматическим ZIP: пока место есть, хранит RAW-фото, а как забьётся — начинает архивировать зипом.
🤓 Полная статья
А вы уже сталкивались с grokking в своих проектах?
Расскажите в комментариях — интересно, после скольких шагов «прозрело» у вас 😉
Представьте: вы тренируете крошечный трансформер отличить кошку от ягуара.
После 100 000 шагов ‒ на трейне всё идеально, на тесте — худо-бедно 55 %.
Уже готовы махнуть рукой… и вдруг на 101 000-м шаге точность подпрыгивает до 99 %.
Это «внезапное прозрение» и называется grokking.
Grokking — момент, когда модель перестаёт тупо запоминать примеры и внезапно все понимает, из-за чего точность на тесте взлетает. Феномен был известен с 2021 года, но до сих пор было не до конца понятно почему так происходит.
Свежее исследование убедительно показывает, что гроккинг случается после того, как сеть забила всю свою память - «внутреннюю флешку» сырыми данными и вынуждена перейти к их сжатию.
Как оно работает
1. Копирование.
Пока энтропия данных меньше ≈ 3,5–4 бита на параметр, дешевле «запекать» каждый пример прямо в веса. Train-loss → 0, test-loss почти не падает.
2. Флешка переполнена.
Новые байты не влазят. Градиенту выгоднее искать закономерности, которые приведут к снижению ошибки сразу на нескольких примерах.
3. Озарение (grokking).
Сеть «сжимает» знания, выбрасывая случайные детали. Test-loss резко падает.
Сколько это «3,5–4 бита»?
Миллион параметров = ~0,5 МБ на диске.
Это меньше одной фотки с телефона — место заканчивается удивительно быстро, вот почему grokking ловят даже на игрушечных датасетах.
Что делать практику
• Учите дольше, чем кажется нужным. Магический скачок может прийти после тысяч лишних шагов.
• Добавьте данных. Если сеть забуксовала, удвойте датасет: ей надо «упереться в потолок памяти», прежде чем она начнёт обобщать.
Одна метафора, чтобы запомнить
Нейронка — ноут с крошечным SSD и автоматическим ZIP: пока место есть, хранит RAW-фото, а как забьётся — начинает архивировать зипом.
А вы уже сталкивались с grokking в своих проектах?
Расскажите в комментариях — интересно, после скольких шагов «прозрело» у вас 😉
Please open Telegram to view this post
VIEW IN TELEGRAM