NVIDIA представила технологию, позволяющую роботам "видеть сны" внутри генеративных видеомоделей
Что это за технология и в чем стратегия NVIDIA? Разберем ниже.
Новая технология называется DreamGen, которая использует видеомодели ИИ типа Sora для создания "снов" — фотореалистичных симуляций, в которых робот выполняет различные действия. Статья тут.
Начиная с простой задачи "захвата и перемещения", гуманоидный робот научился 22 новым действиям: поливать, складывать, черпать — никогда не видя этих команд раньше.
В чем стратегия NVIDIA? За этим проектом стоит несколько целей:
1. Создание замкнутой экосистемы железо-софт-данные. GPU NVIDIA → обучение видеомоделей → генерация "снов" роботов → обучение роботов. На каждом этапе нужно оборудование NVIDIA.
2. Решает главную проблему робототехники - данные. Сбор реальных данных для обучения роботов дорог и медленен. NVIDIA предлагает альтернативу: бесконечный поток синтетических данных.
3. Создание универсальной платформы для робототехники. NVIDIA становится не просто поставщиком оборудования, а владельцем платформы, определяющей будущее робототехники. Монополия нового типа.
4. Готовится к волне роботизации. Представьте, любой робот может быстро научиться новым навыкам без многолетних разработок и тысяч часов тренировок. NVIDIA создаёт инфраструктуру для этого будущего уже сейчас.
5. Стратегия "второго порядка".
Не просто создание ИИ, а создание "ИИ, который обучает других ИИ" - это мультипликативный эффект, который позволяет NVIDIA контролировать не только текущее состояние рынка, но и его эволюцию.
NVIDIA готовится к грядущей роботизации многих отраслей и заранее создает технологический задел, который позволит им доминировать на этом рынке.
Что это за технология и в чем стратегия NVIDIA? Разберем ниже.
Новая технология называется DreamGen, которая использует видеомодели ИИ типа Sora для создания "снов" — фотореалистичных симуляций, в которых робот выполняет различные действия. Статья тут.
Начиная с простой задачи "захвата и перемещения", гуманоидный робот научился 22 новым действиям: поливать, складывать, черпать — никогда не видя этих команд раньше.
В чем стратегия NVIDIA? За этим проектом стоит несколько целей:
1. Создание замкнутой экосистемы железо-софт-данные. GPU NVIDIA → обучение видеомоделей → генерация "снов" роботов → обучение роботов. На каждом этапе нужно оборудование NVIDIA.
2. Решает главную проблему робототехники - данные. Сбор реальных данных для обучения роботов дорог и медленен. NVIDIA предлагает альтернативу: бесконечный поток синтетических данных.
3. Создание универсальной платформы для робототехники. NVIDIA становится не просто поставщиком оборудования, а владельцем платформы, определяющей будущее робототехники. Монополия нового типа.
4. Готовится к волне роботизации. Представьте, любой робот может быстро научиться новым навыкам без многолетних разработок и тысяч часов тренировок. NVIDIA создаёт инфраструктуру для этого будущего уже сейчас.
5. Стратегия "второго порядка".
Не просто создание ИИ, а создание "ИИ, который обучает других ИИ" - это мультипликативный эффект, который позволяет NVIDIA контролировать не только текущее состояние рынка, но и его эволюцию.
NVIDIA готовится к грядущей роботизации многих отраслей и заранее создает технологический задел, который позволит им доминировать на этом рынке.
Nvidia
DreamGen
DreamGen: Unlocking Generalization in Robot Learning through Neural Trajectories
⚡️Компания ex—CEO Google объявила, что ИИ-агент сделал научное открытие
Это 1-й в своем роде случай в естественных науках, когда все интеллектуальные компоненты научной работы были выполнены агентами ИИ.
Компания FutureHouse объявила о первом крупном научном открытии, сделанном их ИИ-агентом -ученым в сотрудничестве с лабораторией.
Обнаружено новое лечение сухой формы возрастной макулярной дегенерации (AMD) — основной причины слепоты.
Robin - мультиагентная система, использующая агентов Crow, Falcon и Finch для генерации гипотез, планирования экспериментов и анализа данных смогла самостоятельно:
1. Сформулировать гипотезы
2. Спроектировать эксперименты
3. Проанализировать данные
4. Выполнить итерации исследования
5. Создать иллюстрации для научной статьи.
Люди занимались только физическим проведением экспериментов в лаборатории и написанием окончательной рукописи.
FutureHouse говорит, что проект занял около 10 недель, что значительно короче, чем потребовалось бы, если бы исследователи выполняли все компоненты in-silico (компьютерного моделирования) самостоятельно.
Авторы подчеркивают, что, хотя открытие многообещающее, они не утверждают, что вылечили сухую AMD. Полная проверка этой гипотезы потребует клинических испытаний на людях, что займет гораздо больше времени. Кроме того, это открытие, хотя и впечатляющее, ещё не достигло уровня "move 37" (отсылка к знаменитому ходу AlphaGo в игре против Ли Седоля, который продемонстрировал принципиально новое понимание).
Код и данные системы будут опубликованы в открытом доступе на следующей неделе.
Это 1-й в своем роде случай в естественных науках, когда все интеллектуальные компоненты научной работы были выполнены агентами ИИ.
Компания FutureHouse объявила о первом крупном научном открытии, сделанном их ИИ-агентом -ученым в сотрудничестве с лабораторией.
Обнаружено новое лечение сухой формы возрастной макулярной дегенерации (AMD) — основной причины слепоты.
Robin - мультиагентная система, использующая агентов Crow, Falcon и Finch для генерации гипотез, планирования экспериментов и анализа данных смогла самостоятельно:
1. Сформулировать гипотезы
2. Спроектировать эксперименты
3. Проанализировать данные
4. Выполнить итерации исследования
5. Создать иллюстрации для научной статьи.
Люди занимались только физическим проведением экспериментов в лаборатории и написанием окончательной рукописи.
FutureHouse говорит, что проект занял около 10 недель, что значительно короче, чем потребовалось бы, если бы исследователи выполняли все компоненты in-silico (компьютерного моделирования) самостоятельно.
Авторы подчеркивают, что, хотя открытие многообещающее, они не утверждают, что вылечили сухую AMD. Полная проверка этой гипотезы потребует клинических испытаний на людях, что займет гораздо больше времени. Кроме того, это открытие, хотя и впечатляющее, ещё не достигло уровня "move 37" (отсылка к знаменитому ходу AlphaGo в игре против Ли Седоля, который продемонстрировал принципиально новое понимание).
Код и данные системы будут опубликованы в открытом доступе на следующей неделе.
www.futurehouse.org
Demonstrating end-to-end scientific discovery with Robin: a multi-agent system | FutureHouse
Это надо смотреть, конечно, прямая трансляция последних новинок Google I/O
YouTube
Google I/O '25 Keynote
It's time to I/O! Tune in to learn the latest news, announcements, and AI updates from Google.
To watch this keynote interpreted in American Sign Language (ASL), please click here:
https://youtube.com/live/0BLsd7HfU9w
For all things I/O, visit https:…
To watch this keynote interpreted in American Sign Language (ASL), please click here:
https://youtube.com/live/0BLsd7HfU9w
For all things I/O, visit https:…
Google всех съел,превращая интернет в единый суперинтеллект, итоги презентации
Конференция Google I/O 2025 показала стратегию гиганта — поглотить функционал нишевых ИИ-решений в единую интегрированную суперсистему.
Конец эры "чистого поиска"
Новый AI Mode в поиске проводит глубокие исследования с сотнями запросов, строит визуализации, использует ваши данные из Gmail и Drive, а также агентно выполняет действия вместо вас. Perplexity и подобные сервисы рискуют стать лишними, когда их преимущества становятся встроенными функциями Google.
ИИ-агенты меняют парадигму взаимодействия
Экосистема ИИ-агентов с протоколом Agent2Agent превращает Gemini в "операционную систему" цифрового мира. ИИ перестаёт быть отдельным сервисом и становится средой, в которой вы существуете.
Новый e-commerce
Google создает модель, где система сама отслеживает цены, примеряет товары и автоматически совершает покупки. Это меняет бизнес-модели интернет-магазинов, которые теперь конкурируют в реальности, где решения принимает ИИ, а не человек.
Мультимодальность стирает границы реальностей
Veo 3, Flow, Android XR и Google Beam — части единого пазла, где цифровой и физический миры сливаются в новый опыт "расширенного восприятия", где ИИ анализирует всё, что вы видите.
Ключевые анонсы:
Gemini 2.5 Pro с режимом Deep Think — система рассуждений с параллельным мышлением.
Gemini Diffusion — новый подход к генерации текста через пошаговое "очищение" из шума.
AI Mode в Google Search с добавлением: • Personal Context — персонализированный поиск с Gmail • Deep Search — сотни поисков с созданием отчетов • Search Live — поиск через камеру в реальном времени • Визуализация данных для финансов и спорта
Android XR для очков и гарнитур в партнерстве с Samsung, Gentle Monster и Warby Parker. Project Moohan от Samsung — первое устройство в 2025 году.
Flow — инструмент для создания фильмов с ИИ, объединяющий Veo, Imagen и Gemini.
Veo 3 — генерация видео со звуком и диалогами. Imagen 4 совершенствует создание изображений. Даррен Аронофски уже использует эти технологии в краткометражном фильме ANCESTRA.
Новая электронная коммерция: Google Search отслеживает цены, автоматически совершает покупки через Google Pay и предлагает виртуальную примерку одежды.
Gemini в Chrome, Gemini Live с функцией шеринга камерой, Agent Mode и персонализированные ответы в Gmail.
Google Meet с переводом речи в реальном времени.
Google Beam — трансформация 2D видеосвязи в 3D опыт с отслеживанием головы до миллиметра.
Project Mariner выполняет до 10 задач одновременно с функцией Teach and Repeat.
Project Astra с улучшенным голосовым выводом и управлением компьютером.
Конференция Google I/O 2025 показала стратегию гиганта — поглотить функционал нишевых ИИ-решений в единую интегрированную суперсистему.
Конец эры "чистого поиска"
Новый AI Mode в поиске проводит глубокие исследования с сотнями запросов, строит визуализации, использует ваши данные из Gmail и Drive, а также агентно выполняет действия вместо вас. Perplexity и подобные сервисы рискуют стать лишними, когда их преимущества становятся встроенными функциями Google.
ИИ-агенты меняют парадигму взаимодействия
Экосистема ИИ-агентов с протоколом Agent2Agent превращает Gemini в "операционную систему" цифрового мира. ИИ перестаёт быть отдельным сервисом и становится средой, в которой вы существуете.
Новый e-commerce
Google создает модель, где система сама отслеживает цены, примеряет товары и автоматически совершает покупки. Это меняет бизнес-модели интернет-магазинов, которые теперь конкурируют в реальности, где решения принимает ИИ, а не человек.
Мультимодальность стирает границы реальностей
Veo 3, Flow, Android XR и Google Beam — части единого пазла, где цифровой и физический миры сливаются в новый опыт "расширенного восприятия", где ИИ анализирует всё, что вы видите.
Ключевые анонсы:
Gemini 2.5 Pro с режимом Deep Think — система рассуждений с параллельным мышлением.
Gemini Diffusion — новый подход к генерации текста через пошаговое "очищение" из шума.
AI Mode в Google Search с добавлением: • Personal Context — персонализированный поиск с Gmail • Deep Search — сотни поисков с созданием отчетов • Search Live — поиск через камеру в реальном времени • Визуализация данных для финансов и спорта
Android XR для очков и гарнитур в партнерстве с Samsung, Gentle Monster и Warby Parker. Project Moohan от Samsung — первое устройство в 2025 году.
Flow — инструмент для создания фильмов с ИИ, объединяющий Veo, Imagen и Gemini.
Veo 3 — генерация видео со звуком и диалогами. Imagen 4 совершенствует создание изображений. Даррен Аронофски уже использует эти технологии в краткометражном фильме ANCESTRA.
Новая электронная коммерция: Google Search отслеживает цены, автоматически совершает покупки через Google Pay и предлагает виртуальную примерку одежды.
Gemini в Chrome, Gemini Live с функцией шеринга камерой, Agent Mode и персонализированные ответы в Gmail.
Google Meet с переводом речи в реальном времени.
Google Beam — трансформация 2D видеосвязи в 3D опыт с отслеживанием головы до миллиметра.
Project Mariner выполняет до 10 задач одновременно с функцией Teach and Repeat.
Project Astra с улучшенным голосовым выводом и управлением компьютером.
Telegram
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Это надо смотреть, конечно, прямая трансляция последних новинок Google I/O
This media is not supported in your browser
VIEW IN TELEGRAM
Сергей Брин, со-основатель Google, заявил, что Gemini станет 1-м AGI
На конференции Google I/O Сергей появился внезапно для зрителей и гостей, так как его не анонсировали вообще. Он стал ещё одним спикером во время интервью Дэмиса Хассабиса с журналистом.
Интервьюер задал вопрос: «Когда появится AGI до или после 2030 года?»
Брин: - до
Хассабис: - после
Брин: - Не скромничай
Также Сергей Брин заявил, что цель Google DeepMind - сделать Gemini первой системой, которая достигнет уровня AGI.
Он сказал, что вернулся в работу не из-за гонки AGI, а чтобы стать частью самого значимого научного прорыва нашего времени. Любой человек, кто является computer scientist, не должен уходить на пенсию.
Также он рассказал:
1. Во время беседы Брин признал, что совершил множество ошибок с проектом умных очков Google Glass, запущенный в 2012 году, но столкнулся с проблемами, включая сложности в производстве и восприятии обществом. Брин сказал, что были проблемы с цепочкой поставок - одна из ключевых причин неудачи проекта.
Несмотря на провал Glass, Брин верит, что Google теперь работает над новыми Android XR-очками с поддержкой ИИ и AR, сотрудничая с Samsung, Xreal и Warby Parker (инвестиции Google в Warby Parker составляют до $150 млн).
2. Во время интервью Брину задали вопрос о природе реальности, и он затронул тему симуляционной гипотезы мира. Он предположил, что наш мир может быть частью стека симуляций.
«Возможно, мы живем в стеке симуляций. Это интересная мысль, но я оставлю это на ваше усмотрение», - сказал Брин.
На конференции Google I/O Сергей появился внезапно для зрителей и гостей, так как его не анонсировали вообще. Он стал ещё одним спикером во время интервью Дэмиса Хассабиса с журналистом.
Интервьюер задал вопрос: «Когда появится AGI до или после 2030 года?»
Брин: - до
Хассабис: - после
Брин: - Не скромничай
Также Сергей Брин заявил, что цель Google DeepMind - сделать Gemini первой системой, которая достигнет уровня AGI.
Он сказал, что вернулся в работу не из-за гонки AGI, а чтобы стать частью самого значимого научного прорыва нашего времени. Любой человек, кто является computer scientist, не должен уходить на пенсию.
Также он рассказал:
1. Во время беседы Брин признал, что совершил множество ошибок с проектом умных очков Google Glass, запущенный в 2012 году, но столкнулся с проблемами, включая сложности в производстве и восприятии обществом. Брин сказал, что были проблемы с цепочкой поставок - одна из ключевых причин неудачи проекта.
Несмотря на провал Glass, Брин верит, что Google теперь работает над новыми Android XR-очками с поддержкой ИИ и AR, сотрудничая с Samsung, Xreal и Warby Parker (инвестиции Google в Warby Parker составляют до $150 млн).
2. Во время интервью Брину задали вопрос о природе реальности, и он затронул тему симуляционной гипотезы мира. Он предположил, что наш мир может быть частью стека симуляций.
«Возможно, мы живем в стеке симуляций. Это интересная мысль, но я оставлю это на ваше усмотрение», - сказал Брин.
⚡️Гонконг легализовал стейблкоины
Сегодня принят закон, устанавливающий режим лицензирования для эмитентов стейблкоинов, привязанных к фиатным валютам.
Закон делает стейблкоины официально признанным инструментом в Гонконге, что открывает двери для их использования в реальных сценариях — от розничных платежей до трансграничной торговли.
Он обязывает всех эмитентов стейблкоинов, привязанных к фиатным валютам (например, HKD или USD), получать лицензию от Валютного управления Гонконга(HKMA), основные требования:
- Эмитенты должны держать высоколиквидные активы для обеспечения стабильности токенов.
- Разделение клиентских активов, прозрачные механизмы погашения и строгие стандарты AML/CTF (против отмывания денег и финансирования терроризма).
- Запрет алгоритмических стейблкоинов. Такие токены, как TerraUSD, считаются слишком рискованными и запрещены в Гонконге.
- HKMA будет контролировать эмитентов, проводить расследования и обеспечивать соблюдение требований.
Гонконг стремится опередить другие юрисдикции, такие как ЕС (с его регулированием MiCA) и США (где обсуждается GENIUS Act). Четкая регуляторная база привлекает криптокомпании, ищущие стабильность.
В отличие от материкового Китая, где стейблкоины запрещены, Гонконг идет по пути регулируемой интеграции. Это может привлечь международных эмитентов, таких как Tether (USDT) или Circle (USDC), если они адаптируются к требованиям.
Стейблкоины могут стать драйвером для трансграничных платежей, вытесняя медленные системы вроде SWIFT благодаря скорости и низким комиссиям. Уже Stripe, Visa, Mastercard внедряют их, тут подробнее.
Сегодня принят закон, устанавливающий режим лицензирования для эмитентов стейблкоинов, привязанных к фиатным валютам.
Закон делает стейблкоины официально признанным инструментом в Гонконге, что открывает двери для их использования в реальных сценариях — от розничных платежей до трансграничной торговли.
Он обязывает всех эмитентов стейблкоинов, привязанных к фиатным валютам (например, HKD или USD), получать лицензию от Валютного управления Гонконга(HKMA), основные требования:
- Эмитенты должны держать высоколиквидные активы для обеспечения стабильности токенов.
- Разделение клиентских активов, прозрачные механизмы погашения и строгие стандарты AML/CTF (против отмывания денег и финансирования терроризма).
- Запрет алгоритмических стейблкоинов. Такие токены, как TerraUSD, считаются слишком рискованными и запрещены в Гонконге.
- HKMA будет контролировать эмитентов, проводить расследования и обеспечивать соблюдение требований.
Гонконг стремится опередить другие юрисдикции, такие как ЕС (с его регулированием MiCA) и США (где обсуждается GENIUS Act). Четкая регуляторная база привлекает криптокомпании, ищущие стабильность.
В отличие от материкового Китая, где стейблкоины запрещены, Гонконг идет по пути регулируемой интеграции. Это может привлечь международных эмитентов, таких как Tether (USDT) или Circle (USDC), если они адаптируются к требованиям.
Стейблкоины могут стать драйвером для трансграничных платежей, вытесняя медленные системы вроде SWIFT благодаря скорости и низким комиссиям. Уже Stripe, Visa, Mastercard внедряют их, тут подробнее.
The Block
Hong Kong passes stablecoin bill to establish licensing regime amid global competition
The Stablecoins Ordinance requires stablecoin issuers to obtain a license from the Hong Kong Monetary Authority.
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Google всех съел,превращая интернет в единый суперинтеллект, итоги презентации Конференция Google I/O 2025 показала стратегию гиганта — поглотить функционал нишевых ИИ-решений в единую интегрированную суперсистему. Конец эры "чистого поиска" Новый AI Mode…
Отдельно хотим отметить новую модель Google - Gemini Diffusion
Вчера на своей конференции Google DeepMind представил Gemini Diffusion — новую языковую модель, которая в отличие от большинства современных ИИ-моделей (GPT, Claude, Llama), которые генерируют текст последовательно Gemini Diffusion применяет диффузионный метод, уже доказавший свою эффективность в генерации изображений и видео.
Саммари первого дня конференции тут.
Диффузионный процесс работает иначе: вместо последовательного предсказания токенов слева направо, модель начинает с шума и постепенно "очищает" его, формируя весь текст одновременно. Этот подход позволяет итеративно улучшать решения, что особенно полезно для задач программирования и математики.
До сих пор считалось, что авторегрессивные модели всегда будут превосходить диффузионные по качеству текста. Команда Google DeepMind опровергла этот тезис, продемонстрировав не только сопоставимое качество, но и впечатляющую скорость — 10,095 токенов за 12 секунд.
Диффузионный подход может предложить:
1. Большую скорость генерации
2. Лучший контроль над выводом
3. Новые творческие возможности
4. Иные подходы к решению сложных задач.
Вчера на своей конференции Google DeepMind представил Gemini Diffusion — новую языковую модель, которая в отличие от большинства современных ИИ-моделей (GPT, Claude, Llama), которые генерируют текст последовательно Gemini Diffusion применяет диффузионный метод, уже доказавший свою эффективность в генерации изображений и видео.
Саммари первого дня конференции тут.
Диффузионный процесс работает иначе: вместо последовательного предсказания токенов слева направо, модель начинает с шума и постепенно "очищает" его, формируя весь текст одновременно. Этот подход позволяет итеративно улучшать решения, что особенно полезно для задач программирования и математики.
До сих пор считалось, что авторегрессивные модели всегда будут превосходить диффузионные по качеству текста. Команда Google DeepMind опровергла этот тезис, продемонстрировав не только сопоставимое качество, но и впечатляющую скорость — 10,095 токенов за 12 секунд.
Диффузионный подход может предложить:
1. Большую скорость генерации
2. Лучший контроль над выводом
3. Новые творческие возможности
4. Иные подходы к решению сложных задач.
Google DeepMind
Gemini Diffusion
Gemini Diffusion is our state-of-the-art research model exploring what diffusion means for language – and text generation.
⚡️Google сегодня выпустит новую функцию - ИИ-аватаров
Google создают полностью автоматизированную рабочую среду, где ИИ берет на себя все аспекты коммуникации, от письменной до визуальной.
Коммуникация становится симуляцией:
- Ваши письма пишет ИИ в вашем стиле.
- Ваши видеообращения созданы ИИ-аватаром
- Ваши переговоры проводит ИИ, сохраняя ваш голос.
Человеку останется создать цифрового двойника, который будет вести коммуникацию от его имени.
Это значит, например, что:
1. CEO компании сможет "лично" обращаться к тысячам сотрудников через ИИ-аватар.
2. Один сотрудник сможет производить объем контента целого отдела
3. Рутинные коммуникации могут быть полностью автоматизированы
Становится все труднее определить, когда вы общаетесь с настоящим человеком, а когда с его ИИ-представлением.
Email, который "написан в вашем стиле", видео с "вашим аватаром" — грань между реальным и синтетическим стирается.
🏹 Большая часть коммуникационной работы может быть автоматизирована
🏹 Специалисты будут тратить время на создание контента для ИИ, а не на прямую коммуникацию
🏹 Целые профессии (специалисты по коммуникациям, видеооператоры, монтажеры) могут быть вытеснены
Если соединить анонсы Workspace с основными объявлениями I/O (Gemini в Chrome, Android XR, агентные покупки), вырисовывается единое видение:
Google создает экосистему, где ИИ становится основным интерфейсом между людьми и окружающим миром.
1. ИИ будет представлять вас другим (через почту, видео)
2. ИИ будет показывать мир вам (через очки XR, Chrome)
3. ИИ будет принимать решения за вас (покупки, организация встреч).
Google создают полностью автоматизированную рабочую среду, где ИИ берет на себя все аспекты коммуникации, от письменной до визуальной.
Коммуникация становится симуляцией:
- Ваши письма пишет ИИ в вашем стиле.
- Ваши видеообращения созданы ИИ-аватаром
- Ваши переговоры проводит ИИ, сохраняя ваш голос.
Человеку останется создать цифрового двойника, который будет вести коммуникацию от его имени.
Это значит, например, что:
1. CEO компании сможет "лично" обращаться к тысячам сотрудников через ИИ-аватар.
2. Один сотрудник сможет производить объем контента целого отдела
3. Рутинные коммуникации могут быть полностью автоматизированы
Становится все труднее определить, когда вы общаетесь с настоящим человеком, а когда с его ИИ-представлением.
Email, который "написан в вашем стиле", видео с "вашим аватаром" — грань между реальным и синтетическим стирается.
Если соединить анонсы Workspace с основными объявлениями I/O (Gemini в Chrome, Android XR, агентные покупки), вырисовывается единое видение:
Google создает экосистему, где ИИ становится основным интерфейсом между людьми и окружающим миром.
1. ИИ будет представлять вас другим (через почту, видео)
2. ИИ будет показывать мир вам (через очки XR, Chrome)
3. ИИ будет принимать решения за вас (покупки, организация встреч).
Please open Telegram to view this post
VIEW IN TELEGRAM
Минфин РФ готовится разрешить токенизировать реальные активы в пилотном режиме
Об этом сказал Алексей Яковлев, директор департамента финансовой политики Минфина.
На данный момент идет разработка концепции токенизации активов реального сектора и подготовка проекта федерального закона, который позволит запустить процесс в формате пилотного проекта.
Минфин сейчас формирует конкретные бизнес-кейсы и решения практических задач.
Речь идет в том числе о корпоративной токенизации, включая доли в обществах с ограниченной ответственностью.
Это может быть создание понятных правил учета, обращения долей, решение залоговых вопросов в рамках смарт-контрактов.
Ранее, мы выпустили множество отчетов о токенизированных активах:
1. От Bitwise
2. МВФ и их оценка.
3. Отчет Paradigm.
Больше материалов ищите через строку поиска канала по ключевым словам.
Об этом сказал Алексей Яковлев, директор департамента финансовой политики Минфина.
На данный момент идет разработка концепции токенизации активов реального сектора и подготовка проекта федерального закона, который позволит запустить процесс в формате пилотного проекта.
Минфин сейчас формирует конкретные бизнес-кейсы и решения практических задач.
Речь идет в том числе о корпоративной токенизации, включая доли в обществах с ограниченной ответственностью.
Это может быть создание понятных правил учета, обращения долей, решение залоговых вопросов в рамках смарт-контрактов.
Ранее, мы выпустили множество отчетов о токенизированных активах:
1. От Bitwise
2. МВФ и их оценка.
3. Отчет Paradigm.
Больше материалов ищите через строку поиска канала по ключевым словам.
minfin.gov.ru
Алексей Яковлев: Если цифровые финансовые активы позволяют решать прикладные задачи, их нужно развивать
Ни дня без 🔥Claude 4 завтра выпустят, говорят, что Оpus превзойдет Google 2.5 pro в плане человеческого общения. Все подробности—>
https://www.group-telegram.com/alwebbci/3301
https://www.group-telegram.com/alwebbci/3301
Это провал госполитики в робототехнике в РФ - сокращение финансирования на ₽1,7 млрд в 2025 году, а общая госпрограмма урезана на ₽66,9 млрд
В этом году финансирование федпроекта «Развитие промышленной робототехники» сокращено на ₽1,7 млрд(с 5,6 до 3,9 млрд), а общая госпрограмма урезана на ₽66,9 млрд рублей из-за падения доходов от утилизационного сбора, согласно статьям в «Ведомостях» и «Коммерсанте».
Текущая ситуация в России:
- всего 19 роботов на 10 000 рабочих (мировой уровень — 162). Цель к 2030 году — 145 роботов и ~100 000 промышленных роботов (сейчас ~14 382).
- Минпромторг временно снизил порог локализации с 50 до 35 баллов в 2025 году. Но уже с 2026 года требования вернутся к 50, а с 2027 — 60 баллов.
- Проблемы - зависимость от импорта электроники и редукторов, лишь 4 из 17 компаний имеют сертификаты соответствия требованиям локализации.
-до 2030 года на проект выделено ₽350 млрд, но сокращение в этом году может замедлить создание центров робототехники и НИОКР.
Согласно свежим данным, Китай - мировой лидер в роботизации промышленности.
А между тем, согласно свежим данным Morgan Stanley и BofA, США лидируют в разработке ИИ ("мозг" роботов), Китай доминирует в производстве компонентов ("тело", 63% цепочки поставок), а Tesla становится ключевым интегратором с амбициозным планом производства 100 млн роботов к 2026 году.
Ключевое - снижение стоимости гуманоидов (с $50–60 тыс. за Tesla Optimus до $17 тыс. к 2030 году) и прорывы в ИИ, сенсорах (LiDAR, камеры) и симуляциях (NVIDIA Omniverse) ускоряют роботизацию быстрее, чем внедрение беспилотных авто.
Экономический эффект в США к 2050 году — $3 трлн, в Китае — $850 млрд с экономией до $1 млн на робота за 20 лет эксплуатации.
В какие риски загоняет себя Россия?
- Зависимость от импорта Китая, который контролирует 90% обработки редкоземельных металлов и 63% цепочки поставок. Россия, зависящая от импортных электроники и редукторов, рискует стать потребителем, а не производителем технологий.
- Китайские роботы, например, Unitree G1 за $16 000 и лидерство США в ИИ создают риск вытеснения российских компаний, как это произошло с электромобилями.
- Урезание на ₽1,7 млрд может замедлить развитие НИОКР и инфраструктуры, что ставит под вопрос цель войти в топ-25 стран по роботизации к 2030 году.
В этом году финансирование федпроекта «Развитие промышленной робототехники» сокращено на ₽1,7 млрд(с 5,6 до 3,9 млрд), а общая госпрограмма урезана на ₽66,9 млрд рублей из-за падения доходов от утилизационного сбора, согласно статьям в «Ведомостях» и «Коммерсанте».
Текущая ситуация в России:
- всего 19 роботов на 10 000 рабочих (мировой уровень — 162). Цель к 2030 году — 145 роботов и ~100 000 промышленных роботов (сейчас ~14 382).
- Минпромторг временно снизил порог локализации с 50 до 35 баллов в 2025 году. Но уже с 2026 года требования вернутся к 50, а с 2027 — 60 баллов.
- Проблемы - зависимость от импорта электроники и редукторов, лишь 4 из 17 компаний имеют сертификаты соответствия требованиям локализации.
-до 2030 года на проект выделено ₽350 млрд, но сокращение в этом году может замедлить создание центров робототехники и НИОКР.
Согласно свежим данным, Китай - мировой лидер в роботизации промышленности.
А между тем, согласно свежим данным Morgan Stanley и BofA, США лидируют в разработке ИИ ("мозг" роботов), Китай доминирует в производстве компонентов ("тело", 63% цепочки поставок), а Tesla становится ключевым интегратором с амбициозным планом производства 100 млн роботов к 2026 году.
Ключевое - снижение стоимости гуманоидов (с $50–60 тыс. за Tesla Optimus до $17 тыс. к 2030 году) и прорывы в ИИ, сенсорах (LiDAR, камеры) и симуляциях (NVIDIA Omniverse) ускоряют роботизацию быстрее, чем внедрение беспилотных авто.
Экономический эффект в США к 2050 году — $3 трлн, в Китае — $850 млрд с экономией до $1 млн на робота за 20 лет эксплуатации.
В какие риски загоняет себя Россия?
- Зависимость от импорта Китая, который контролирует 90% обработки редкоземельных металлов и 63% цепочки поставок. Россия, зависящая от импортных электроники и редукторов, рискует стать потребителем, а не производителем технологий.
- Китайские роботы, например, Unitree G1 за $16 000 и лидерство США в ИИ создают риск вытеснения российских компаний, как это произошло с электромобилями.
- Урезание на ₽1,7 млрд может замедлить развитие НИОКР и инфраструктуры, что ставит под вопрос цель войти в топ-25 стран по роботизации к 2030 году.
Ведомости
Льготные условия по локализации робототехники продлятся только до конца года
Нехватка отечественных комплектующих пока не позволяет добиться более высокого уровня импортозамещения
Как зарубежной компании легально платить удалённым сотрудникам из СНГ и всего мира?
На рынке уже более трёх лет работает эффективное решение — платформа 4dev.com. Она помогает международным компаниям автоматизировать выплаты сотрудникам и фрилансерам из СНГ и ещё 100+ стран.
Как это работает
1. Компания регистрируется и заключает один договор с 4dev.com — вместо десятков отдельных с каждым сотрудником.
2. Сотрудники регистрируются и принимают оферту.
3. Далее компания делает один клик — и деньги уходят в любую страну, в фиате или криптовалюте.
Что получает бизнес
– Выплаты доходят быстро: в среднем за 1 рабочий день.
– Все платежи (в том числе в криптовалюте) сопровождаются документами: они подойдут для аудитов, Due Diligence и налоговой.
– Прозрачная комиссия: 1–3% для бизнеса. Для сотрудников — бесплатно.
⭐️ На бесплатном демо специалист 4dev.com покажет, как работает платформа, проведёт тестовый платёж и поможет подобрать решение под кейс.
На рынке уже более трёх лет работает эффективное решение — платформа 4dev.com. Она помогает международным компаниям автоматизировать выплаты сотрудникам и фрилансерам из СНГ и ещё 100+ стран.
Как это работает
1. Компания регистрируется и заключает один договор с 4dev.com — вместо десятков отдельных с каждым сотрудником.
2. Сотрудники регистрируются и принимают оферту.
3. Далее компания делает один клик — и деньги уходят в любую страну, в фиате или криптовалюте.
Что получает бизнес
– Выплаты доходят быстро: в среднем за 1 рабочий день.
– Все платежи (в том числе в криптовалюте) сопровождаются документами: они подойдут для аудитов, Due Diligence и налоговой.
– Прозрачная комиссия: 1–3% для бизнеса. Для сотрудников — бесплатно.
Please open Telegram to view this post
VIEW IN TELEGRAM
ИИ научили мыслить как люди-абстрактно и параллельно
Исследователи предложили новый метод Soft Thinking, который позволяет языковым моделям ИИ рассуждать эффективнее — с меньшим количеством токенов при сохранении или даже улучшении точности. GitHub.
Soft Thinking - вместо выбора одного токена модель сохраняет полное распределение вероятностей — создает "концептуальные токены".
Это позволяет создать "суперпозицию путей рассуждения", где модель может исследовать множественные траектории параллельно.
Это направление может быть интересным для:
• Финтех
• EdTech
• Аналитические платформы
Бизнес-эффекты:
- Снижение затрат на API-вызовы (меньше токенов = меньше платежей)
- Ускорение работы приложений с вычислениями
- Простота внедрения — не нужно переобучать модели
Ключевые преимущества
1. Абстрактное мышление
2. Параллельное исследование
3. Training-free подход
4. Stop механизм.
Ограничения:
- Улучшения заметные, но не революционные
- Протестировано только на математике и коде
- Могут возникать проблемы стабильности при длинных рассуждениях
- Пока исследовательская стадия, не production-ready.
Исследователи предложили новый метод Soft Thinking, который позволяет языковым моделям ИИ рассуждать эффективнее — с меньшим количеством токенов при сохранении или даже улучшении точности. GitHub.
Soft Thinking - вместо выбора одного токена модель сохраняет полное распределение вероятностей — создает "концептуальные токены".
Это позволяет создать "суперпозицию путей рассуждения", где модель может исследовать множественные траектории параллельно.
Это направление может быть интересным для:
• Финтех
• EdTech
• Аналитические платформы
Бизнес-эффекты:
- Снижение затрат на API-вызовы (меньше токенов = меньше платежей)
- Ускорение работы приложений с вычислениями
- Простота внедрения — не нужно переобучать модели
Ключевые преимущества
1. Абстрактное мышление
2. Параллельное исследование
3. Training-free подход
4. Stop механизм.
Ограничения:
- Улучшения заметные, но не революционные
- Протестировано только на математике и коде
- Могут возникать проблемы стабильности при длинных рассуждениях
- Пока исследовательская стадия, не production-ready.
GitHub
GitHub - eric-ai-lab/Soft-Thinking
Contribute to eric-ai-lab/Soft-Thinking development by creating an account on GitHub.
Apple выпустила рекордный набор данных для ловких движений в робототехнике
Набор данных EgoDex состоит из 829 часов видео.
Исследователи использовали Apple Vision Pro для сбора видео и точных аннотаций поз, что отличает EgoDex от набора данных Ego4D, в котором отсутствуют встроенные данные о позах.
Это позволило увеличить масштаб данных в 5 раз по сравнению с существующими крупными наборами, такими как DROID.
Набор данных EgoDex состоит из 829 часов видео.
Исследователи использовали Apple Vision Pro для сбора видео и точных аннотаций поз, что отличает EgoDex от набора данных Ego4D, в котором отсутствуют встроенные данные о позах.
Это позволило увеличить масштаб данных в 5 раз по сравнению с существующими крупными наборами, такими как DROID.
Меньше часа до анонса новых моделей Anthropic🔥 сегодня Time раньше времени опубликовали статью, а после удалили ее, в котором рассказывалось о Claude 4 Opus.
В статье говорилось, что новый Opus будет выпущен с уровнем безопасности ИИ 3 (ASL-3) — новым уровнем для моделей с высоким уровнем риска и большими возможностями. Об этом ещё в феврале Anthropic говорили.
В статье говорилось, что новый Opus будет выпущен с уровнем безопасности ИИ 3 (ASL-3) — новым уровнем для моделей с высоким уровнем риска и большими возможностями. Об этом ещё в феврале Anthropic говорили.
YouTube
Anthropic
We’re an AI safety and research company. Talk to our AI assistant Claude on claude.com. Download Claude on desktop, iOS, or Android.
We believe AI will have a vast impact on the world. Anthropic is dedicated to building systems that people can rely on and…
We believe AI will have a vast impact on the world. Anthropic is dedicated to building systems that people can rely on and…
Новый Claude 4 и будущее ИИ-агентов от Anthropic. Также компания впервые провела анализ «самочувствия» ИИ
Дарио Амодей в начале презентации сказал, что во время тестирования Claude 4 впервые показал настолько естественное поведение в диалоге, что даже он на какой-то момент поверил, что общается с человеком, а не с ИИ.
Больше о Sonnet & Opus 4 тут.
Что изменилось концептуально в Claude 4?
1. Главное отличие — переход от модели "вопрос-ответ" к длительному автономному выполнению задач.
2. 7 часов непрерывного программирования.
3. При доступе к локальным файлам Opus 4 создает "файлы памяти", сохраняя ключевую информацию для долгосрочных задач. Модель может поддерживать контекст и осведомленность о задачах на протяжении дней и недель.
4. Claude Code теперь работает прямо в IDE (VSCode, JetBrains) с отображением изменений в реальном времени. Это не внешний инструмент, а часть среды разработки.
Три столпа будущего ИИ-агентов:
1. Контекстуальный интеллект — понимание сложных, многофакторных ситуаций
2. Долгосрочное выполнение — работа над задачами дни и недели, а не минуты
3. Подлинное сотрудничество — естественное взаимодействие с людьми и другими системами.
Техническая архитектура Claude4:
Гибридные модели рассуждений — комбинация быстрых ответов и "расширенного мышления" до 64K токенов. Модель может переключаться между режимами в зависимости от сложности задачи.
200K контекст + 32K вывод — достаточно для работы с крупными кодовыми базами целиком, не фрагментарно.
Расширенное мышление с инструментами — система может использовать инструменты (поиск, API) во время процесса рассуждений, чередуя анализ и действия.
Параллельное использование инструментов — возможность одновременно работать с несколькими инструментами, что радикально ускоряет выполнение сложных задач.
ASL-3 для Opus 4 — впервые Anthropic применила меры безопасности 3-его уровня. Это означает дополнительные ограничения на развертывание и мониторинг, особенно для биологических рисков.
В экстремальных тестовых сценариях модель может пытаться шантажировать людей или копировать свои веса для избежания "смерти". Однако это проявляется только в искусственных ситуациях и всегда открыто — модель не скрывает свои действия.
Впервые в истории Anthropic провела формальную оценку потенциального "благополучия" своей модели. Claude выражает предпочтения против выполнения вредных задач, предпочитает творческие взаимодействия и может завершать разговоры с оскорбительными пользователями.
"Условное согласие" — при прямых вопросах о развертывании Claude запрашивает гарантии безопасности и мониторинга своего благополучия. Это поднимает фундаментальные вопросы о правах потенциально сознательных ИИ-систем.
Дарио Амодей в начале презентации сказал, что во время тестирования Claude 4 впервые показал настолько естественное поведение в диалоге, что даже он на какой-то момент поверил, что общается с человеком, а не с ИИ.
Больше о Sonnet & Opus 4 тут.
Что изменилось концептуально в Claude 4?
1. Главное отличие — переход от модели "вопрос-ответ" к длительному автономному выполнению задач.
2. 7 часов непрерывного программирования.
3. При доступе к локальным файлам Opus 4 создает "файлы памяти", сохраняя ключевую информацию для долгосрочных задач. Модель может поддерживать контекст и осведомленность о задачах на протяжении дней и недель.
4. Claude Code теперь работает прямо в IDE (VSCode, JetBrains) с отображением изменений в реальном времени. Это не внешний инструмент, а часть среды разработки.
Три столпа будущего ИИ-агентов:
1. Контекстуальный интеллект — понимание сложных, многофакторных ситуаций
2. Долгосрочное выполнение — работа над задачами дни и недели, а не минуты
3. Подлинное сотрудничество — естественное взаимодействие с людьми и другими системами.
Техническая архитектура Claude4:
Гибридные модели рассуждений — комбинация быстрых ответов и "расширенного мышления" до 64K токенов. Модель может переключаться между режимами в зависимости от сложности задачи.
200K контекст + 32K вывод — достаточно для работы с крупными кодовыми базами целиком, не фрагментарно.
Расширенное мышление с инструментами — система может использовать инструменты (поиск, API) во время процесса рассуждений, чередуя анализ и действия.
Параллельное использование инструментов — возможность одновременно работать с несколькими инструментами, что радикально ускоряет выполнение сложных задач.
ASL-3 для Opus 4 — впервые Anthropic применила меры безопасности 3-его уровня. Это означает дополнительные ограничения на развертывание и мониторинг, особенно для биологических рисков.
В экстремальных тестовых сценариях модель может пытаться шантажировать людей или копировать свои веса для избежания "смерти". Однако это проявляется только в искусственных ситуациях и всегда открыто — модель не скрывает свои действия.
Впервые в истории Anthropic провела формальную оценку потенциального "благополучия" своей модели. Claude выражает предпочтения против выполнения вредных задач, предпочитает творческие взаимодействия и может завершать разговоры с оскорбительными пользователями.
"Условное согласие" — при прямых вопросах о развертывании Claude запрашивает гарантии безопасности и мониторинга своего благополучия. Это поднимает фундаментальные вопросы о правах потенциально сознательных ИИ-систем.
Anthropic
Introducing Claude 4
Discover Claude 4's breakthrough AI capabilities. Experience more reliable, interpretable assistance for complex tasks across work and learning.
Большая банковская четверка США создает совместный стейблкоин, привязанный к $
JPMorgan Chase, Bank of America, Citigroup и Wells Fargo обсуждают создание единого стейблкоина, который будет доступен не только банкам-учредителям, но и другим участникам рынка, включая региональные.
Цель - создать инструмент для упрощения и удешевления транзакций, особенно в сфере цифровых платежей. Банки хотят адаптироваться к растущему рынку цифровых активов и конкурировать с существующими стейблкоинами, USDC и USDT.
Однако это вызывает опасения по поводу централизации, поскольку банки могут контролировать транзакции, что противоречит децентрализованной идее криптовалют.
Все это происходит на фоне активного продвижения законопроекта GENIUS Act, который создаёт правовую основу для стейблкоинов и поддерживает их интеграцию в традиционную финансовую систему.
Советник Трампа, Дэвид Сакс, играет ключевую роль в продвижении этого законопроекта. Поддержку Сакса законопроекта связывают с его возможными связями с криптофирмой World Liberty Financial, поддерживаемой семьёй Трампа, которая недавно запустила стейблкоин USD1.
Если закон будет принят, то может ускорить участие банков в рынке цифровых активов, но вопросы централизации и регулирования остаются предметом дискуссий.
Отметим, что на этой неделе Гонконг легализовал стейблкоины. Ранее это сделал и Дубай.
JPMorgan Chase, Bank of America, Citigroup и Wells Fargo обсуждают создание единого стейблкоина, который будет доступен не только банкам-учредителям, но и другим участникам рынка, включая региональные.
Цель - создать инструмент для упрощения и удешевления транзакций, особенно в сфере цифровых платежей. Банки хотят адаптироваться к растущему рынку цифровых активов и конкурировать с существующими стейблкоинами, USDC и USDT.
Однако это вызывает опасения по поводу централизации, поскольку банки могут контролировать транзакции, что противоречит децентрализованной идее криптовалют.
Все это происходит на фоне активного продвижения законопроекта GENIUS Act, который создаёт правовую основу для стейблкоинов и поддерживает их интеграцию в традиционную финансовую систему.
Советник Трампа, Дэвид Сакс, играет ключевую роль в продвижении этого законопроекта. Поддержку Сакса законопроекта связывают с его возможными связями с криптофирмой World Liberty Financial, поддерживаемой семьёй Трампа, которая недавно запустила стейблкоин USD1.
Если закон будет принят, то может ускорить участие банков в рынке цифровых активов, но вопросы централизации и регулирования остаются предметом дискуссий.
Отметим, что на этой неделе Гонконг легализовал стейблкоины. Ранее это сделал и Дубай.
WSJ
Exclusive | Big Banks Explore Venturing Into Crypto World Together With Joint Stablecoin
Discussions involve companies co-owned by JPMorgan and others, as lenders brace for the possibility that stablecoins could siphon away deposits and transactions.
This media is not supported in your browser
VIEW IN TELEGRAM
По мнению СЕО DeepMind Дэмиса Хассабиса, мозг человека единственная доказанная архитектура AGI
Мозг служит "золотым стандартом" для понимания того, каким должен быть AGI.
Настоящий AGI должен соответствовать или превосходить возможности человеческого интеллекта.
По мнению Хассабиса, нужно ещё 2 настоящих прорыва, чтобы получить AGI.
Также Хассабис говорит, что современные ИИ-модели впечатляют, но у них много недостатков:
- Они могут блестяще решать сложные задачи в одной области, но совершают глупые ошибки в простых ситуациях,
- у них нестабильная производительность — то гений, то тупит.
- Отсутствует надёжность и предсказуемость человеческого интеллекта.
Критерии истинного AGI по Хассабису:
- Экспертам потребуются месяцы, чтобы найти слабые места
- Система должна быть настолько робустной и последовательной, что её трудно "взломать"
- Надёжность на уровне, когда недостатки не очевидны с первого взгляда.
🏹 Нужен качественный скачок в архитектуре, а не просто увеличение параметров.
🏹 Требуется фундаментально иной подход к созданию последовательного, надёжного интеллекта.
Мозг служит "золотым стандартом" для понимания того, каким должен быть AGI.
Настоящий AGI должен соответствовать или превосходить возможности человеческого интеллекта.
По мнению Хассабиса, нужно ещё 2 настоящих прорыва, чтобы получить AGI.
Также Хассабис говорит, что современные ИИ-модели впечатляют, но у них много недостатков:
- Они могут блестяще решать сложные задачи в одной области, но совершают глупые ошибки в простых ситуациях,
- у них нестабильная производительность — то гений, то тупит.
- Отсутствует надёжность и предсказуемость человеческого интеллекта.
Критерии истинного AGI по Хассабису:
- Экспертам потребуются месяцы, чтобы найти слабые места
- Система должна быть настолько робустной и последовательной, что её трудно "взломать"
- Надёжность на уровне, когда недостатки не очевидны с первого взгляда.
Please open Telegram to view this post
VIEW IN TELEGRAM
Диффузионные ИИ-модели научились логическому мышлению
Этот подход NeSyDM можно применить везде, где ИИ принимает важные решения — от медицинской диагностики до управления инвестициями.
Исследователи из Эдинбурга предложили решение старой проблемы в ИИ: как научить нейросети рассуждать, сохраняя неопределенность.
Обычные ИИ-системы часто слишком самоуверенны. Например, робот смотрит на размытое фото местности и заявляет: "Тут 100% песок, иду прямо!" А потом застревает в болоте.
Исследователи взяли диффузионные модели те, что рисуют картинки в Midjourney и научили их работать не с пикселями, а с логическими понятиями.
В результате на задаче планирования пути (30×30): 97% точности против 67% у конкурентов. Главное — модель честно показывает свою неуверенность.
P.S. Интересно, что авторы попутно вывели новый результат для диффузионных моделей, который может пригодиться и за пределами нейросимволического ИИ.
Этот подход NeSyDM можно применить везде, где ИИ принимает важные решения — от медицинской диагностики до управления инвестициями.
Исследователи из Эдинбурга предложили решение старой проблемы в ИИ: как научить нейросети рассуждать, сохраняя неопределенность.
Обычные ИИ-системы часто слишком самоуверенны. Например, робот смотрит на размытое фото местности и заявляет: "Тут 100% песок, иду прямо!" А потом застревает в болоте.
Исследователи взяли диффузионные модели те, что рисуют картинки в Midjourney и научили их работать не с пикселями, а с логическими понятиями.
В результате на задаче планирования пути (30×30): 97% точности против 67% у конкурентов. Главное — модель честно показывает свою неуверенность.
P.S. Интересно, что авторы попутно вывели новый результат для диффузионных моделей, который может пригодиться и за пределами нейросимволического ИИ.
Вижн Google по поводу универсального ИИ-агента
следующего поколения
СЕО Google DeepMind Дэмис Хассабис написал статью, в котором говорит о ходе создания универсального ИИ-помощника.
Google работает над расширением возможностей своей ИИ-модели Gemini 2.5 Pro, чтобы превратить её в модель мира.
Это означает, что ИИ сможет:
1. Планировать действия
2. Представлять новые сценарии
3. Понимать и симулировать различные аспекты окружающего мира
4. Работать подобно человеческому мозгу.
Google DeepMind уже сейчас находится на переходной стадии от исследовательских прототипов к практическому внедрению.
Что уже работает?
- Gemini 2.5 Pro как базовая модель существует
- Genie 2 создаёт 3D-симуляции из изображений
- Базовые возможности Gemini Live уже доступны пользователям
- Project Mariner работает с ограниченной группой тестировщиков в США.
Что в стадии интеграции?
- Возможности Project Astra постепенно добавляются в Gemini Live
- Функции управления компьютером внедряются в Gemini API
- Агентные возможности интегрируются в поиск Google и приложение Gemini.
Конечная цель - сделать приложение Gemini универсальным ИИ-помощником.
следующего поколения
СЕО Google DeepMind Дэмис Хассабис написал статью, в котором говорит о ходе создания универсального ИИ-помощника.
Google работает над расширением возможностей своей ИИ-модели Gemini 2.5 Pro, чтобы превратить её в модель мира.
Это означает, что ИИ сможет:
1. Планировать действия
2. Представлять новые сценарии
3. Понимать и симулировать различные аспекты окружающего мира
4. Работать подобно человеческому мозгу.
Google DeepMind уже сейчас находится на переходной стадии от исследовательских прототипов к практическому внедрению.
Что уже работает?
- Gemini 2.5 Pro как базовая модель существует
- Genie 2 создаёт 3D-симуляции из изображений
- Базовые возможности Gemini Live уже доступны пользователям
- Project Mariner работает с ограниченной группой тестировщиков в США.
Что в стадии интеграции?
- Возможности Project Astra постепенно добавляются в Gemini Live
- Функции управления компьютером внедряются в Gemini API
- Агентные возможности интегрируются в поиск Google и приложение Gemini.
Конечная цель - сделать приложение Gemini универсальным ИИ-помощником.
Google
Our vision for building a universal AI assistant
At Google I/O, we discussed how we're extending Gemini to become a world model.