Telegram Group Search
🔥 Google DeepMind представили новую open-source библиотеку на Python для сборки асинхронных AI‑пайплайнов в реальном времени!

Новая библиотека позволяет собирать AI-процессы из компонентов — как LEGO для ИИ-агентов.

🔧 Особенности:
- Построение асинхронных, компонуемых пайплайнов
- Поддержка Gemini и Gemini Live API
- Основана на asyncio
- Обрабатывает мультимодальные данные: текст, изображения, аудио
- Внутри готовые агенты: real-time агент, исследователь, live-комментатор

💡 Подходит для:
- Разработки ИИ-агентов
- Генеративных моделей, работающих в реальном времени
- Быстрой сборки MVP с мультимодальными возможностями

Установка:


pip install genai-processors


Открытый код, готовые компоненты и интеграция с API.

Repo: https://github.com/google-gemini/genai-processors
Blog: https://developers.googleblog.com/en/genai-processors/

@ai_machinelearning_big_data


#DeepMind #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6319🔥16👏7
💲 Amazon может вложить ещё миллиарды в Anthropic — сообщает Financial Times

Amazon рассматривает новое многомиллиардное вложение в разработчиков Claude — компанию Anthropic.

Это уже второе крупное вложение: ранее в ноябре 2024 года Amazon вложил $4 млрд, доведя общий объем инвестиций до $8 млрд, что делает его ключевым акционером компании

💰 Что известно:

— Новая инвестиция усилит позиции Amazon как крупнейшего инвестора в Anthropic (опережая Google)
— Anthropic активно использует AWS, включая чипы Trainium2 и дата-центр Project Rainier в Индиане
— Модели Claude уже интегрируются в продукты Amazon: Alexa+, Prime Video, AWS API

📊 Контекст:

— Оценка Anthropic может легко превысить $75 миллиардов.
— Годовая выручка компании превышает $4 млрд
— Amazon конкурирует с Microsoft (OpenAI) и Google за контроль над передовыми ИИ-системами

Еще стало известно, что Amazon запустит маркетплес ДЛЯ ИИ-АГЕНТОВ В ПАРТНЕРСТВЕ С ANTHROPIC

- Модель маркетплейса позволит стартапам брать плату с пользователей за ИИ-агентов
- Стартапы смогут напрямую предлагать ИИ-агентов клиентам AWS
- Маркетплейс поможет AWS и Anthropic расширить охват
А также привлечь разработчиков к использованию Claude API для создания новых агентов → рост выручки

Amazon не просто инвестирует — он строит инфраструктуру под Claude, делая ставку на долгосрочное доминирование в ИИ через облако.

🔗 Источник

@ai_machinelearning_big_data

#ml #ai #Claude #finance #anthropic #Amazon
👍5026🔥15🌭4🥰2😁1
🔥 В России появилась первая магистратура по ML в гибридном формате

Центральный университет разработал программу онлайн-обучения с привилегиями очной формы: студенческий билет со всеми льготами, отсрочка от армии, диплом очной формы и живая проектная работа на очных буткемпах в Москве.

🟡Формат.

Онлайн-семинары в мини-группах до 12 человек, а каждый семестр — неделя интенсивов в Москве: работа над реальными задачами бизнеса. Проживание во время интенсива для студентов из регионов полностью оплачивается.

🟡Преподаватели.

Ведущие специалисты отрасли, например, главные тренеры школьной сборной России, которая одержала победу в первой Международной олимпиаде по искусственному интеллекту в Болгарии в 2024 году, они же тренируют сборную в этом году к Международной олимпиаде в Китае: Александр Дьяконов – руководитель направления «Искусственный интеллект» в Центральном университете, Data Scientist №1 в мире по версии Kaggle (2012), лауреат премии «Лучший ИТ-преподаватель России» (2014) и Александр Гущин – индустриальный руководитель направления «Искусственный интеллект» в Центральном университете, Kaggle Grandmaster (№5 в мире в 2017). А также Виктор Кантор – основатель ML Inside, лауреат Forbes «30 до 30», один из лучших экспертов по ML в России.

Программа предоставляет актуальные ML-инструменты глубокую теоретическую базу, карьерную поддержку, главное — проектное портфолио уже в процессе обучения и возможность получить грант, покрывающий 75% от стоимости обучения.

🟡Даты.

Заявки принимаются до 20 августа, начало обучения с сентября 2025 года

Цель программы — подготовка специалистов, которые уверенно ориентируются как в теории, так и в решении прикладных задач.

@ai_machinelearning_big_data

#news #ML
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🥱51👍2421😁14🔥6🫡5🙈2
🌟 LMCache: умное кэширования для LLM-инференса.

LMCache - проект, который предлагает решение по сохранению KV-кэша на CPU, диске или даже в специализированной памяти NIXL. По сути, это инструмент, который превращает одноразовые вычисления в многократно используемые блоки, экономя время и ресурсы.

Представьте, что в чат-боте пользователи часто ссылаются на один и тот же системный промпт или историю диалога. Обычно модель заново обрабатывает эти данные, но LMCache просто загружает готовый кэш. Выгрузка KV-кэшей освобождает GPU для новых задач, уменьшая TTFT (время до первого токена) вплоть до 10 раз.

🟡LMCache гибкий.

Кэши можно не только выгружать, но и делиться между разными инстансами LLM. Проще говоря, если два пользователя одновременно обращаются к разным копиям модели с одинаковым запросом, система не будет дублировать работу: результаты одного prefill’а станут доступны всем. Это работает даже для неполных префиксов, например, при частичном совпадении входных данных.

🟡LMCache умеет в раздельную предобработку.

Prefill и decode, которые обычно выполняются на одном GPU, теперь могут быть разнесены: первый этап обрабатывается на мощных узлах, а второй на оптимизированных для генерации. Для распределенных систем такая техника повысит пропускную способность.

Тесты разработчиков проекта показывают, что в реальных задачах задержка снижается в 3–10 раз, а GPU-циклы экономятся на повторных вычислениях.

Проект тесно интегрируется с vLLM, в репозитории есть большой набор с примерами, документация и советы по установке и настройке.

⚠️ Калькулятор KV-кеша с выбором модели, ее типа данных и количества токенов, который поможет прикинуть, сколько VRAM можно сэкономить.


📌Лицензирование: Apache 2.0 License.


🖥 Github


@ai_machinelearning_big_data

#AI #ML #LLM #LMCache #KVCache #Github
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
40👍32🔥18🤔6👏2
🩺 Боксер 5 лет жил с щелчком в челюсти.

За долгие годы 17 врачей не смогли ему помочь, рентген ничего не показывал.

Чат-бот выдал диагноз за минуту: смещение сустава и рекомендовал сделать - простое упражнение языком.

Он попробовал — и щелчок исчез.

🔜 Добро пожаловать в эру ИИ-медицины.
Пациенты загружают симптомы или даже МРТ — и получают точные диагнозы с вероятностью до 92%.

LLM доверяют сложнейшие кейсы: спинальные патологии, редкие болезни крови и другие «неуловимые» диагнозы.

📊 Новые метрики подтверждают эффективность ИИ:

— MAI-DxO — MAI-DxO — это система оркестрации медицинского ИИ (AI orchestration system), разработанная для объединения разных моделей и инструментов диагностики в единую "умную" систему, которая диагностирует в 4 раза точнее, чем врачи

— HealthBench -это открытый бечмарк для оценки медицинских навыков и точности диагностики, содержит 5000 реальных медицинских cлучаев в формате чатов между пациентом и моделью.

Что самое интересно:
— Когда ИИ работает один — точность диагнозов 95%
— Когда вмешивается человек — точность диагноза падает до 75%: врачи зачастую занижают тревожность, упускают детали

Иногда именно ИИ замечает то, что упустили 17 специалистов.

📌 Источник


@ai_machinelearning_big_data


#ai #ml #medecine
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥97😁47👍3626🙉10🤔7🤬4🤗1
🔥 Китай выпускает новую опенсорс модель: Kimi K2 — llm уровня Claude 4, которая обходит DeepSeek v3, Qwen и даже GPT-4.1

Размер — 1 триллион параметров, при этом:

📊 В бенчмарках:
- 65.8% на SWE-bench Verified, против 50.2% у Claude Sonnet 4 и 40.8% у GPT-4.1
- Лучшие результаты среди открытых моделей по кодингу, математике и агентным задачам
- Архитектура MoE на базе DeepSeek V3, 1 трлн параметров, 32B активны.

Также доступна через API:

- $0.15 за миллион входных токенов (при попадании в кэш)
- $0.60 за миллион входных токенов (если кэш не сработал)
- $2.50 за миллион выходных токенов

Почти в 5 раз дешевле, чем Claude 4 Sonnet и Gemini 2.5 Pro!

🟡 Github

@ai_machinelearning_big_data


#kimi #china #llm #ml #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11434🔥23🥰7🤣7👏3🤔1
Media is too big
VIEW IN TELEGRAM
✔️ Евросоюз опубликовал свод правил для ИИ-разработчиков в преддверии AI Act.

Брюссель выпустил практическое руководство, которое должно помочь компаниям подготовиться к вступлению в силу Закона об ИИ. Документ детализирует требования к моделям общего назначения по трем ключевым направлениям: прозрачность, авторское право и безопасность.

Разработчикам предстоит документировать источники данных для обучения, предоставлять интерфейсы для аудита и внедрять фильтры для защищенного контента. Требования по безопасности включают обязательное проведение red-teaming и оценку рисков.

Нормы станут обязательными со 2 августа 2025 года, и их публикация сигнализирует об отказе регулятора откладывать сроки, несмотря на просьбы бизнеса. Штрафы за несоблюдение могут достигать 35 миллионов евро или 7% от оборота.
digital-strategy.ec.europa.eu

✔️ GitHub Copilot упрощает модель оплаты за своего кодинг-агента.

GitHub изменил модели тарификации для Copilot coding agent, делая ее более предсказуемой. Теперь каждая сессия работы с агентом, будь то создание нового pull-request или изменение существующего, будет стоить ровно один «премиум-запрос».

Это изменение устраняет неопределенность в расходах. Независимо от сложности задачи и количества затронутых файлов, стоимость сессии остается фиксированной. По заявлению GitHub, такой подход позволит пользователям делегировать агенту до 20 раз больше задач в рамках своей месячной подписки.

Стоит отметить, что хотя использование премиум-запросов стало предсказуемым, расход минут GitHub Actions все еще зависит от времени, которое требуется агенту на выполнение работы. Функция доступна в публичной бета-версии для всех платных планов GitHub Copilot.
github.blog

✔️ Создатели Manus полностью ушли из Китая из-за геополитики.

Стартап Butterfly Effect, разработчик популярного ИИ-агента Manus, ликвидировал всю свою команду в Китае. Это часть стратегии по минимизации геополитических рисков, поскольку основной целевой рынок компании - США. Ранее стартап уже перенес штаб-квартиру из Китая в Сингапур, куда переехали и его основатели.

Компания, получившая поддержку от фонда Benchmark, теперь активно нанимает сотрудников в новых офисах в Калифорнии и Токио. Решение полностью свернуть операции в КНР отражает растущую тенденцию среди технологических стартапов с глобальными амбициями. Они вынуждены дистанцироваться от Китая, чтобы избежать политического давления и обеспечить себе доступ на западные рынки.
theinformation.com

✔️ Reka выложила в опенсорс модель Flash 3.1

Стартап Reka, основанный выходцами из DeepMind и FAIR, представил новую открытую модель Reka Flash 3.1. Эта модель с 21 миллиардом параметров показывает высокую производительность в задачах, связанных с программированием, и позиционируется как сильная основа для создания ИИ-агентов. Она уже доступна на Hugging Face, через API и в Playground.

Одновременно компания выпустила библиотеку Reka Quant. Она позволяет сжимать модель до 3.5 бит практически без потери производительности - падение метрик составляет всего 1.6% по сравнению с 6.8% у стандартных методов.
reka.ai

✔️ AWS запускает маркетплейс для ИИ-агентов, Anthropic в числе первых партнеров.

Amazon Web Services на следующей неделе представит собственный маркетплейс для ИИ-агентов. Платформа, запуск которой ожидается на саммите AWS в Нью-Йорке, позволит стартапам напрямую предлагать свои разработки огромной базе корпоративных клиентов облачного гиганта. Anthropic станет одним из ключевых партнеров на старте, что даст ему серьезное преимущество в конкуренции с OpenAI.

Модель работы будет напоминать магазины приложений: AWS будет взимать комиссию, а разработчики смогут продавать своих агентов по подписке. Запуском собственной площадки Amazon следует тренду, заданному конкурентами. Аналогичные маркетплейсы уже есть у Google Cloud, Microsoft, Salesforce и ServiceNow.
techcrunch.com

✔️ OpenAI упустили Windsurf — Google нанял ключевых людей и взял лицензии, не покупая компанию.

Google заплатил $2.4 млрд, на $600 млн меньше, чем OpenAI.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
155👍41🔥16🗿7🤣5🥰1
⚡️Соберите свой первый проект для портфолио аналитика

Как получить первый коммерческий опыт до выхода на первую работу, положить в портфолио классный пет-проект и впечатлить работодателя умением не просто действовать по шаблону, а сходу решать задачи бизнеса?

Для этого мало просто разобраться в Python и SQL, нужно набивать руку на реальных кейсах и тренировать насмотренность — смотреть на то как решают эти задачи опытные аналитики.

Решить такой кейс и добавить его к себе в портфолио можно будет на вебинаре с Андроном Алексаняном, аналитиком с 8 летним опытом и по совместительству CEO Simulative.

В прямом эфире он решит реальный кейс компании: проанализирует продажи на Wildberries с помощью Python.

Что будем на вебинаре:
🟠Напишем скрипт на Python, который каждый час собирает статистику о ранжировании карточки на WB по ключевым запросам;
🟠Построим наглядные визуализации для отслеживания динамики ранжирования.

😶Зарегистрироваться на бесплатный вебинар
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣3318👍13😁3💅2
🌟 Теперь поговорим подобнее про Kimina-Prover-72B:

Это модель, которая не просто доказывает теоремы, а учится на своих ошибках.

Kimina-Prover-72B создана на базе Qwen2.5-72B, которая бьет рекорды в формальной математике на Lean 4 и ее облегченные версии 8 и 1,7 миллиарда параметров.

Numina - это некоммерческая научная коллаборация, ориентированная на развитие ИИ в области математики. Ее миссия: создание и публикация обширных баз данных математических задач, разработку open-source ИИ-решателя для их обработки и инструментов для поддержки совместной работы людей и ИИ в фундаментальных науках.


На популярном бенчмарке miniF2F Kimina-Prover-72B достигла внушительной точности в 92.2%, оставив позади Deepseek-Prover-V2 671B.

🟡Ключевая фишка Kimina-Prover - агентный фреймворк для поиска доказательств Test-Time Reinforcement Learning.

Вместо того чтобы пытаться решить сложную задачу в лоб, система научилась декомпозировать ее. Она самостоятельно генерирует, комбинирует и применяет промежуточные утверждения, или леммы, выстраивая из них длинные логические цепочки. По сути, это рекурсивный поиск: для доказательства основной теоремы модель может сначала доказать несколько вспомогательных лемм.

🟡Механика доказательств.

Система отслеживает «рейтинг полезности» каждой леммы и отбраковывает те, что ведут в тупик. Вторым эшелоном идет механизм проверки на вменяемость. Прежде чем использовать новую лемму, модель пытается доказать ее отрицание. Если это удается, значит, лемма противоречива и ее сразу выбрасывают. Такая комбинация гарантирует логическую строгость и надежность всего доказательства.

🟡Kimina-Prover умеет учиться на ошибках.

В отличие от других систем, которые в случае неудачи просто начинают заново, Kimina-Prover умеет читать сообщения об ошибках от компилятора Lean и предлагать исправления.

Для этого ее специально дообучали на датасете из комбинаций «неверное доказательство – фидбэк – верное доказательство». Чтобы обучение шло стабильно, использовали стратегию Batched Failure Replay: все неудачные попытки с одной итерации собираются и используются как обучающий батч для следующей. И это оказалось куда эффективнее, чем бездумный перебор вариантов при том же бюджете вычислений.


📌Лицензирование: MIT License.


🟡Статья
🟡Набор моделей
🟡Demo
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #TTRL #Reasoning #KiminaProver
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
60🔥38👍28👏3😁2
2025/07/13 00:07:21
Back to Top
HTML Embed Code: