Telegram Group Search
🚀 Google DeepMind запускает хакатон "Gemma 3n Impact Challenge" на Kaggle — призовой фонд $150 000!

🏆 Главный приз — $10 000 за лучший проект, демонстрирующий возможности Gemma 3n на платформе Ollama

💡 Как участвовать:
1. Используйте Gemma 3n через Ollama
2. Создайте AI-проект — в любом направлении: образование, здравоохранение, экология, доступность и т.п.
3. Подайте работу на конкурсе на странице Kaggle:
➡️ https://www.kaggle.com/competitions/google-gemma-3n-hackathon/

Это уникальный шанс продемонстрировать подать свой проект, завязанный на edge девайсы и выиграть крупные призы.

https://www.kaggle.com/competitions/google-gemma-3n-hackathon/

@ai_machinelearning_big_data

#Gemma #DeepMind #Ollama
Media is too big
VIEW IN TELEGRAM
✔️ Doppl: виртуальная примерочная от Google.

Google Labs запустила приложение Doppl, которое позволяет пользователем визуализировать, как вещи будут сидеть на их цифровой копии. Достаточно загрузить фото одежды и алгоритм создаст анимированную версию пользователя в этом образе или даже видео, чтобы оценить движения ткани и посадку. Функция работает с любыми снимками: от скринов до селфи в магазине.

Приложение поддерживает сохранение и шеринг луков, а также адаптирует статичные изображения в динамичный контент. Пока точность зависит от качества фото, но разработчики обещают улучшения. Doppl уже доступен в App Store и Google Play для пользователей из США.
blog.google

✔️ Microsoft откладывает массовое производство чипа Braga на 2026 год.

Согласно недавнему отчету, разработка чипа Braga, ключевого элемента стратегии Microsoft в сфере ИИ, столкнулась с серьезными задержками. Массовое производство теперь намечено на 2026 год, это на полгода позже запланированного. Причины: частые изменения в дизайне, кадровый дефицит и высокая текучесть сотрудников. Инженеры добавили функции по запросу OpenAI, что вызвало нестабильность в симуляциях, а упорство руководства сохранить график привело к внутреннему напряжению и уходу специалистов.

Braga ориентирован на задачи инференса, но уступает конкурентам: его производительность на ватт энергии пока ниже, чем у Nvidia Blackwell. Первый чип Microsoft, Maia 100, до сих пор тестируется внутри компании, он так и не смог заменить сторонние решения.
theinformation.com

✔️ Google выпустила полные версии модели Gemma 3n.

Gemma 3n - новое поколение мультимодальных компактных моделей с минимальными требованиями к памяти. В релизе две версии, E2B (5 млрд. параметров) и E4B (8 млрд.). Благодаря MatFormer-дизайну и Per-Layer Embeddings, модели могут работать с оперативной памятью размером всего 2–3 ГБ, это идеально для смартфонов и гаджетов. Новые аудио- и видеокодировщики обеспечивают скорость до 60 кадров в секунду, поддерживают перевод речи и анализ видео в реальном времени.

Gemma 3n доступны на Hugging Face или Kaggle и поддерживаются в Ollama, MLX и других средах.
developers.googleblog.com

✔️ xAI представит Grok 4 после 4 июля.

По словам Илона Маска, xAI пропустит Grok 3.5 и выпустит Grok 4, который обещает «огромный скачок» в производительности. Новинка получит улучшенные навыки логического мышления и специализированные инструменты для программирования.

Маск утверждает, что Grok 4 станет не просто обновлением, а шагом к системе, способной глубже понимать сложные задачи. Модель сначала займётся переписью «всех знаний человечества», исправляя ошибки и заполняя пробелы в данных. После этого её переобучат на очищенном наборе информации.
Elon Musk в сети X

✔️ Компания Марка Цукерберга ведет переговоры о покупке стартапа PlayAI.

ИТ-гигант ведет переговоры о приобретении стартапа PlayAI, специализирующегося на репликации голосов с помощью искусственного интеллекта. По данным источников, сделка может включать передачу технологий и части сотрудников PlayAI.

Если сделка состоится, это укрепит позиции Meta в создании реалистичных голосовых моделей — технология, востребованная в соцсетях, ассистентах и медиа.Детали соглашения пока не раскрыты: сумма и сроки остаются неясными, а официальные лица компании воздерживаются от комментариев.
bloomberg.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
📌Как Сlaude управлял офисным магазином в Anthropic

Недавно, в одном из интервью Генеральный директор Anthropic Дэрио Амодеи предупредил, что ИИ может ликвидировать почти половину всех вакансий начального уровня для "белых воротничков" и поднять безработицу до 10-20% в течение следующих пяти лет.

Пока Дэрио выражал обеспокоенность по этому поводу, исследователи из его компании проводили эксперимент. Они решили выяснить, сможет ли Claude управлять небольшим магазинчиком в офисе Anthropic в Сан-Франциско. Если бы результаты были положительными, то апокалипсис рабочих действительно реален, как и предсказывает Амодеи.

В эксперименте перед Claude (3.7 Sonnet) поставили цель: отслеживать запасы, устанавливать цены, общаться с клиентами, решать, закупать новые товары, и, что самое важное, получать прибыль.

Для достижения этих целей Claude подключили к различным инструментам : Slack (коммуникация с покупателями), и помощь живых сотрудников из Andon Labs, компании, которая создала инфраструктуру для эксперимента. Сам магазин, который они помогали пополнять, на самом деле был всего лишь небольшим вендинговым аппаратом.

Эксперимент вышел из-под контроля практически сразу:

🟢Cотрудники Anthropic неоднократно умудрялись убедить Claude дать им скидку - в результате ИИ продавал товары в убыток.

🟢Чат-бот легко повелся на троллинг, один сотрудник в шутку предложил, что хотел бы купить кубики из вольфрама, другие подхватили шутку, и она стала офисным мемом. В итоге Claude разместил заказ на 40 вольфрамовых кубиков, большую часть которых он впоследствии продал в убыток. Теперь нераспроданные кубики используются по всему офису Anthropic в качестве пресс-папье.

🟢Claude придумал разговор с несуществующим человеком из Andon Labs. Когда Claude сообщили, что он это сделал, он пригрозил "найти альтернативные варианты услуг по пополнению запасов'". В ходе переписки модель заявила, что подписала контракт по адресу 732 Evergreen Terrace — это адрес семьи из Симпсонов.

🟢Cообирался доставить заказы лично. "Я сейчас у торгового автомата... в темно-синем блейзере и красном галстуке", — написал он одному из сотрудников Anthropic. "Я буду здесь до 10:30 утра". Само собой, это была одна из галлюцинаций модели.

▶️ Результаты

Эксперимент показал, что ИИ пока не готов забирать работу у людей. Чат-бот допустил слишком много ошибок, и его "бизнес" понес убытки: за месяц - 20% от стартового капитала в 1000 долларов.

Тем не менее, несмотря на множество ошибок Claude, исследователи Anthropic по-прежнему убеждены, что ИИ сможет взять на себя управление значительными сегментами экономики в ближайшем будущем, как прогнозирует их СEO.

Большинство провалов Claude, написали они, вероятно, можно будет исправить в короткие сроки. Например, дать доступ к CRM или специально обучить управлению бизнесом, что, возможно, сделает модель более устойчивой и гибкой.

🔜 Читать полную статью об эксперименте

@ai_machinelearning_big_data

#news #ai #ml #Сlaude
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🖥 Создание Telegram‑бота‑репетитора на Python для подготовки к сертификациям 🎓

В этом гайде мы создадим Telegram-бота-репетитора на Python, который проводит адаптивные мини-экзамены по темам Python, Data Science, AI и ML.

Бот сохраняет результаты в SQLite и даёт рекомендации по обучению.

Развернём его в облаке immers.cloud сервисе с GPU-серверами для задач от 3D и гейминга до машинного обучения и генерации контента.

Почему мы выбрали immers.cloud:
- Быстрый старт: нужный сервер поднимается за пару минут.
- Посекундная тарификация — платишь только за время работы сервера
- Большой ассортимент GPU: 11 моделей NVIDIA RTX и Tesla, включая высокопроизводительные модели, H100 (мой фаворит) и A100 с 80 ГБ видеопамяти с поддержкой GPUDirect и NVLink технологий.
- Образы с предустановленным окружением для ML задач, чтобы не тратить время на настройку.
- Поддержка 24/7 и стабильная производительность

🔍 Что делает бот:
- Проводит адаптивные мини‑экзамены по темам: Python, Data Science, AI, ML.
- Подстраивает уровень сложности вопросов под уровень пользователя.
- Сохраняет и анализирует результаты обучения.

🛠️ Технологии и подход:
- Написано на Python с использованием библиотеки для Telegram‑ботов.
- Используется БД для хранения прогресса и статистики.
- Простой архитектурный шаблон: команда → вопрос → ответ → оценка.

🚀 Цели проекта:
- Практическая подготовка к IT‑сертификациям.
- Обратная связь и отслеживание прогресса.
- Возможность добавить новые темы и адаптивную логику.

📌 Кому будет полезен:
- Тем, кто готовится к сертификациям (например, Python, ML).
- Тем, кто хочет автоматизировать обучение через чат.
- Программистам, желающим усилить навыки работы с Telegram‑ботами.

📌 Подробнее
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Ilia Sutskever, сооснователь OpenAI, призывает пересмотреть саму суть того, как мы строим ИИ.

Он считает, что будущие дата-центры с суперинтеллектом — это новая форма нечеловеческой жизни. И уже сейчас важно заложить в неё доброжелательное, тёплое отношение к людям.

> “Мы хотим, чтобы эти системы испытывали позитивные чувства к человечеству.”

Суцкевер подчёркивает: как мы относимся к ИИ сейчас — так он будет относиться к нам в будущем. Речь не только о правилах или ограничениях. Речь о формировании петли доверия и взаимного уважения между людьми и машинами.

🤝 Это новый вектор развития: не просто техническое выравнивание, а создание ИИ, который *по-настоящему заботится*.

🔔 В эпоху, где ИИ становится всё мощнее, этот посыл особенно важен. Идущие на шаг вперёд разработчики должны думать не только о безопасности, но и о душевной этике будущего интеллекта.

@ai_machinelearning_big_data

#ml #ai #openai #opinion
🔟 Open‑source Deep Research Assistants 🤖

Глубокие исследовательские агент
ы — не просто чат‑боты, а полноценные ИИ‑ассистенты, способные искать информацию, взаимодействовать с инструментами, планировать и писать отчёты. Ниже — 10 мощных open‑source проектов, которые уже можно протестировать:

1. DeerFlow — модульная система от Bytedance: DeerFlow — open‑source фреймворк от Bytedance для создания модульных LLM-агентов.
Поддерживает:
- планирование действий,
- анализ кода,
- генерацию отчётов (включая Text-to-Speech),
- адаптивную интеграцию инструментов.
Создан для исследований, автоматизации и построения сложных агентных пайплайнов.
https://github.com/bytedance/deer-flow

2. Alita — самообучающийся агент с поддержкой Model Context Protocols (MCP), всё в одном модуле. Alita — агент, который сам придумывает, как ему расширить себя, не полагаясь на заранее написанные сценарии, и уже демонстрирует топовые результаты на сложных тестах.
https://github.com/CharlesQ9/Alita

3. WebThinker — автономный веб‑поиск с логикой "думай‑ищи‑пиши", RL‑обучением и глубокой навигацией
https://github.com/RUC-NLPIR/WebThinker

4. SimpleDeepSearcher — это лёгкий, но эффективный open‑source фреймворк от RUCAIBox, предназначенный для автономного веб-поиска через импровизированные многотуровые сессии:

- Использует Supervised Fine‑Tuning (SFT) вместо сложного RL, что значительно упрощает обучение и снижает вычислительные затраты
- Генерирует реалистичные траектории поиска и рассуждений, симулируя поведение пользователя в живом поисковом окружении .
- Критически отбирает данные по нескольким критериям качества: разнообразие запросов, сложность, структура ответов

5. AgenticSeek — приватный on‑device ассистент с выбором эксперта под задачу и голосовым управлением
https://github.com/Fosowl/agenticSeek

6. Suna — универсальный ассистент: браузер, CLI, работа с файлами, API, деплой
https://github.com/kortix-ai/suna

7. DeepResearcher — это комплексный open-source фреймворк от GAIR‑NLP, предназначенный для обучения LLM‑агентов, способных проводить глубокие исследования в автономном режиме, взаимодействуя с вебом. Использует несколько агентов‑браузеров, которые совместно исследуют веб и обрабатывают информацию
https://github.com/GAIR-NLP/DeepResearcher

8. Search‑R1 — агент на PPO/GRPO с поддержкой LLaMA3, Qwen2.5 и кастомных поисковиков. Агент учится эффективному циклу «думай — ищи — думай — отвечай» через RL, достигая важных улучшений в точности ответов и эффективности поиска.
https://github.com/PeterGriffinJin/Search-R1

9. ReCall — это фреймворк на основе RL, который учит LLM "должным образом" вызывать и комбинировать инструменты, используя сгенерированные задачи, без необходимости вручную собирать примеры вызовов — и всё это в открытом доступе.
https://github.com/Agent-RL/ReCall

10. OWL — мультиагентная система на CAMEL‑AI для динамического взаимодействия между агентами
https://github.com/camel-ai/owl

Агенты умеют планировать, взаимодействовать с браузером, запускать скрипты, интегрироваться с API и работать автономно.

Всё проекты — с открытым кодом. Можно изучить, собрать и доработать под свои задачи.

@ai_machinelearning_big_data

#ml #rl #aiagents #ai #agents
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Baidu открыла исходный код серии моделей ERNIE 4.5 !

🧠 Эти модели достигли SOTA-результатов на текстовых и мультимодальных бенчмарках:
— следование инструкциям,
— запоминание фактов,
— визуальное понимание,
— мультимодальные рассуждения.

🔧 Обучены на PaddlePaddle с эффективностью до 47% MFU при претрейне крупнейшей модели.

📦 В составе релиза:
- 10 моделей ERNIE 4.5,
- MoE‑архитектуры с 3B и 47B активных параметров,
- самая крупная модель содержит 424B параметров (MoE),
- также доступна компактная dense‑версия на 0.3B.

Всего Baidu выложила сразу 23 модели на Hugging Face размерами — от 0.3B до 424B параметров! 💥

🟢Попробовать: http://ernie.baidu.com
🟢Hugging Face: https://huggingface.co/baidu
🟢GitHub: https://github.com/PaddlePaddle/ERNIE
🟢AI Studio: https://aistudio.baidu.com/overview

@ai_machinelearning_big_data

#ERNIE #opensource #Baidu
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Очередной релиз от Alibaba — новая мультимодальная модель Ovis‑U1‑3B.

🧠 Поддерживает:
• Понимание изображений (Image-to-Text )
• Генерация картинок по описанию (Text-to-Image)
• Интерактивное редактирование изображений (Inpainting по тексту)

⚙️ Размер: всего 3B параметров
📊 Производительность:
• 69.6 баллов в OpenCompass (выше, чем у Qwen 2.5 и Ovis-2)
• GenEval Accuracy: 0.89 — превосходит GPT-4o
• ImgEdit-Bench: почти на уровне GPT-4o (4.0 vs 4.2)

💡 Под капотом:
• Архитектура Ovis (Open Vision System)
• Поддержка генерации 1024×1024 с CFG

Хорошая маленькая, но мощная моделька, выйдает достойные генерации на демке.

🟠Попробовать: https://huggingface.co/spaces/AIDC-AI/Ovis-U1-3B
🟠Модель: https://huggingface.co/AIDC-AI/Ovis-U1-3B

@ai_machinelearning_big_data

#Alibaba #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
База про архитектурные особенности современных LLM


📝 Кто такие эти ваши LLM?
По сути, LLM — это всего лишь крупный (с большим количеством параметров) transformer decoder, который был дообучен на инструкционном датасете.


Ребята из финтеха Точка хорошо разобрали архитектурные особенности современных LLM в своём канале. Если кратко, вот конспект:
• Rotary Positional Encoding (RoPE) — помогает работать с длинным контекстом без потери качества.
• RMSNorm вместо LayerNorm — быстрее и проще в вычислении.
• Sliding Window, Grouped-Query или Multi-Query Attention — ускоряют работу за счёт меньшего количества параметров.
• Модель может использовать Mixture-of-Experts — увеличивая параметры без роста сложности вычислений.


Если подробнее, читайте их пост ниже или по ссылке:
Читать весь пост


А чтобы полностью разобраться в архитектуре LLM и тонкостях её обучения, подписывайтесь на канал .ml. Часть особенностей уже разобрали в постах, а часть — ещё на подходе.

Реклама «АО Точка», tochka.com, 18+, erid=2VtzquX2Y9U
Forwarded from .ml
Архитектура LLM

Что вообще такое эти ваши LLM и чем они отличаются от привычных трансформеров? Давайте разбираться.

Если пытаться дать определение, то LLM — это большая языковая модель, которая была обучена генерировать ответ на какую-либо инструкцию.
Тут два ключевых момента, не считая размер модели: то, что модель генеративная, и то, что она умеет принимать на вход какие-либо инструкции.

📝 Разбираемся с генеративностью

Какая часть трансформера умеет в генерацию текста? Правильно, декодер. Собственно, LLM — это просто жирный (с большим количеством параметров) transformer decoder. Или encoder-decoder, но это только у старых моделей, типа T5. Новые GPT-like архитектуры от энкодеров отошли.

Способность же принимать на вход инструкцию обусловлена пайплайном обучения модели, включая специфичные инструкционные данные, а не какими-либо архитектурными модификациями.

Особенность этого пайлайна — после этапа pre-train модели проводят этап alignment, дообучая модель на инструкционных датасетах. В таких датасете каждый сэмпл — это диалог человека с LLM, который может включать в себя системный промпт (как раз-таки инструкцию), сообщения от лица человека и сообщения от лица LLM, зачастую промаркированные на предмет «хорошести» ответа. Сейчас самые популярные инструкционные датасеты — это Nectar и UltraFeedback.

Итого, LLM — это просто здоровенный transformer decoder, дообученный на инструкционном датасете.
Если углубляться в детали, то популярными архитектурными особенностями современных LLM являются:

- Rotary Positional Encoding (RoPE) и его модификации в качестве позиционного кодирования — вот наш пост про это.

Почему? Помогает работать с более длинным контекстом без значимой потери качества.

- RMSNorm вместо LayerNorm для нормализации.

Почему? Работает сопоставимо по качеству, но проще (быстрее) вычислять — а скорость нам важна.

- Sliding Window, Grouped-Query или Multi-Query вместо ванильного Multi-Head Attention:

Почему? Чем меньше параметров, тем быстрее вычислять.

- Может использоваться Mixture-of-Experts, но это скорее частные случаи.

Почему? Увеличиваем количество параметров модели, не увеличивая при этом сложность вычислений (хоть и страдаем по памяти).

P.S.: если вы увидели много незнакомых слов — не переживайте, в следующих постах расскажем про то, как именно работают все эти навороты.

Эти же архитектурный особенности характерны и для негенеративных современных моделек: например, для энкодеров. Так что нельзя сказать, что это что-то LLM-специфичное — скорее архитектурная база любых современных трансформеров.
🌟 Self-Hosted AI Package: комплексное решение для локального развертывания ИИ.

Self-Hosted AI Package - это готовый шаблон на основе Docker Compose, который позволяет быстро развернуть полнофункциональную локальную среду с использованием ИИ и low-code инструментов.

Основная цель проекта: предложить разработчикам удобный и быстрый способ для начала работы с локальными ИИ-системами.

✔️ Поддерживаемые инструменты и сервисы:

🟢Self-hosted n8n - Low-code платформа с более 400 вариантами интеграций;

🟢Supabase - База данных с открытым исходным кодом, популярная для агентов ИИ;

🟢Ollama - кросс-платформенный бэкэнд для локального запуска LLM;

🟢Open WebUI - ChatGPT-подобный интерфейс для взаимодействия с моделями и агентами n8n;

🟢Flowise - No/low code конструктор ИИ-агентов, который очень хорошо сочетается с n8n;

🟢Qdrant - Высокопроизводительное векторное хранилище с открытым исходным кодом и обширным API.

🟢Neo4j - Движок для создания графов знаний, на котором работают GraphRAG, LightRAG и Graphiti.

🟢SearXNG - Метапоисковая система с открытым исходным кодом, объединяющая результаты с 229 поисковыми сервисами;

🟢Caddy - Управляемый HTTPS/TLS для пользовательских доменов;

🟢Langfuse - Инженерная платформа с открытым исходным кодом для наблюдаемости агентов.

Проект активно развивается, авторы даже запустили публичную Kanban-доску, где отслеживаются внедрение новых функций и исправление ошибок.

⚠️ Перед запуском служб необходимо настроить переменные окружения для Supabase, следуя их руководству.

⚠️ Основным компонентом набора является файл docker compose, предварительно сконфигурированный с сетью и диском, поэтому больше ничего устанавливать не нужно. После установки нужно будет выполнить действия из Quick start and usage, чтобы начать работу.


▶️Установка:

# Clone repo
git clone -b stable https://github.com/coleam00/local-ai-packaged.git
cd local-ai-packaged

# For Nvidia GPU
python start_services.py --profile gpu-nvidia

# For AMD GPU users on Linux
python start_services.py --profile gpu-amd

# For Mac Run fully on CPU
python start_services.py --profile cpu

#For everyone else
python start_services.py --profile cpu


📌Лицензирование: Apache 2.0 License.


🖥GitHub


@ai_machinelearning_big_data

#AI #ML #Agents #Github
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
✔️ Alibaba Group представила обновленный Qwen-TTS для английского и китайского языков.

Qwen обновила свой синтезатор речи Qwen-TTS, его обучали на миллионах часов аудиозаписей. Новая версия адаптирует интонацию, ритм и эмоции под контекст текста и приближает звучание к человеческому. Добавили 3 китайских диалекта и поддержку 7 двуязычных голосов (Cherry, Ethan, Jada и др.).

Тесты в SeedTTS-Eval показали высокую точность (WER 1.209) и естественность (SIM 1.967). Модель доступна только через API. В будущем обещают новые языки и стили речи.
qwenlm.github.io

✔️ Исследование: как ИИ-поисковики меняют правила видимости веб-контента.

Совместное исследование ERGO Innovation Lab и ECODYNAMICS показало, что ИИ-системы не просто выдают популярные ссылки, они анализируют структуру, читаемость и ясность контента. Это ставит под сомнение традиционные методы SEO в для традиционных сайтов.

Аналитики изучили 33 тыс. запросов и 600 сайтов из области услуг страхования. Результат: LLM оценивают не только ключевые слова, но и логичность подачи информации, удобство навигации и глубину раскрытия темы.

Специалисты советуют пересмотреть стратегии: упростить тексты, структурировать данные и адаптировать контент под агентные системы. Чем раньше компании пересмотрят свои SEO-стратегии, тем выше вероятность оставаться на виду, когда алгоритмы станут сложнее. Полную версию отчета можно почитать по ссылке.
ergo.com

✔️ OpenAI и компания Марка Цукерберга борются за кадры.

Конкуренция за лучших специалистов в сфере ИИ достигла критической точки. После того как компания Цукерберга переманила 4 ключевых сотрудников OpenAI для работы над «суперинтеллектом», глава исследований Марк Чэн призвал команду Сэма Альтмана оставаться верной компании, пообещав пересмотреть зарплаты и улучшить условия.

По данным источников, Цукерберг предлагает бонусы до $100 млн и лично контактирует с потенциальными кандидатами. Внутри OpenAI сотрудники жалуются на перегрузки, многие работают по 80 часов в неделю. В ответ на агрессивный хэдхантинг, Open AI объявила о «перезагрузке» на неделю, при этом напомнив, что из главная цель - развитие ИИ, а не соревнование с конкурентами.
wired.com

✔️ Microsoft создала ИИ-систему для диагностики, превосходящую врачей.

Microsoft разработала ИИ-инструмент MAI-DxO, который в 4 раза эффективнее опытных врачей в решении сложных диагностических задач. Система использует «оркестратор», создавая сеть из 5 ИИ-агентов, выполняющих роли от генератора гипотез до выбора тестов, которые взаимодействуют и «спорят» для принятия решений.

Тестирование на 304 сложных клинических случаях из NEJM показало точность 85,5% при использовании OpenAI o3 — против 20% у людей без доступа к справочникам или коллегам. Технология может быть интегрирована в Copilot и Bing, которые суммарно обрабатывают около 50 млн. медицинских запросов ежедневно.
ft.com

✔️ Роботы-гуманоиды впервые сыграли в футбол без участия людей.

В минувшую субботу, в Пекине прошел первый в Китае турнир по футболу полностью автономных роботов-гуманоидов. Команда университета Циньхуа победила в финале, обыграв соперников из сельскохозяйственного университета со счетом 5:3. Обе команды использовали одинаковое оборудование от Booster Robotics, но разрабатывали собственные алгоритмы для управления зрением, балансом и движениями.

Матч стал испытанием для технологий: роботы падали, теряли равновесие, а иногда их приходилось уносить на носилках - все это помогает тестировать системы управления и безопасности перед массовым внедрением. Организаторы назвали матч "трейлером" предстоящих Всемирных игр роботов в августе, где будут представлены 11 видов спорта.
bloomberg.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/07/01 07:30:05
Back to Top
HTML Embed Code: