Telegram Group Search
🌟 SEAL: Еще одна попытка создать пайплайн самообучающихся LLM.

SEAL - это методика от MiT, позволяющая LLM самостоятельно генерировать обучающие данные и настраивать параметры обучения, чтобы адаптироваться к новым задачам. Вместо традиционного файнтюна на внешних данных модель учится рефлексировать: анализировать контекст, создавать из него синтетические данные и применять их для корректировки собственных весов через механизм усиленного обучения.

SEAL, по сути, это два разделенных цикла:

🟢Внешний цикл использует RL, чтобы научить модель генерировать «самоизменения» (инструкции на естественном языке, описывающие, какие данные использовать и как настраивать параметры).

🟢Внутренний цикл реализует эти изменения: модель дообучается на сгенерированных данных, а затем тестирует результат на конкретной задаче. За коррекцию отвечает RL-алгоритм ReSTEM, который оценивает эффективность изменений и обновляет стратегию генерации инструкций. Для экономии ресурсов используются легковесные адаптеры LoRA, которые модифицируют только часть параметров модели.

Этот процесс повторяется, постепенно формируя у модели навык преобразования исходных данных в полезные обучающие сигналы.

SEAL протестили на 2 задачах: интеграции новых знаний и few-shot обучении. В первом случае модель генерирует логические следствия из текста, дообучается на них и улучшает точность ответов на вопросы без доступа к исходному тексту.

Во втором случае SEAL выбирает оптимальные аугментации данных и гиперпараметры для обучения на примерах задач ARC-AGI.

В обоих сценариях SEAL превзошел подходы с фиксированными шаблонами (ICL, TTT+Self Edit без RL и) и даже синтетическими данными от GPT-4.1.

Метод скорее академический и по большей части экспериментальный, у него есть ограничения:

🟠При последовательном применении изменений модель склонна к «катастрофическому забыванию» — потере знаний, усвоенных ранее;

🟠Сопутствующие вычислительные затраты, так как каждая итерация требует дообучения и тестирования модели.


▶️В репозитории проекта разработчики выложили код, данные и инструкции для двух направлений:

🟢Включение новых фактических знаний;

🟢Адаптация к новым задачам на основе примеров.


📌Лицензирование: MIT License.


🟡Страница проекта
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #SEAL #RL #MiT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Доброе утро, поклонники AI!

Сегодня — тот день, когда всё внимание приковано к событию в ТехноХабе Сбера в Петербурге! Именно здесь открывает новый день международная сессия AI Journey — с актуальными темами, живыми спикерами и технологиями, которые меняют отрасли.

Сегодня в программе суперэксперты из Индии, Китая и Сербии, а российскую сторону представляют Сбер, Сколтех, Институт AIRI и другие технологические лидеры AI-индустрии.

🔗 Подключайтесь к трансляции — всё самое интересное начинается сейчас.
🤖 RoboBrain 2.0 — ИИ для нового поколения роботов.

RoboBrain 2.0 — это open-source модель способная к широкому спектру задач: от восприятия окружения до управления роботами.

Её уже называют фундаментом для следующего поколения гуманоидов.

🔹 Поддерживает планирование, восприятие и действия в реальном мире
🔹 Заточен на легкую интеграцию (под капотом 7B параметров) в реальные проекты и роботизированные системы
🔹 Полностью открытый код

Архитектура:

• Обрабатывает изображения, длинные видео и визуальные данные высокого разрешения
• Понимает сложные текстовые инструкции
• Входные данные:
 — Визуальные — проходят через Vision Encoder + MLP Projector
 — Текстовые — превращаются в унифицированный токен-поток
• Всё подаётся в LLM Decoder, который выполняет рассуждение, строит планы, определяет координаты и пространственные связи

С такими темпами более чем реально, что уже к 2027 году мы увидим массовое производство продвинутых гуманоидных роботов.

ИИ выходит в физический мир — и делает это уверено.

Запуск:

git clone https://github.com/FlagOpen/RoboBrain2.0.git
cd RoboBrain

# build conda env.
conda create -n robobrain2 python=3.10
conda activate robobrain2
pip install -r requirements.txt


Github: https://github.com/FlagOpen/RoboBrain2.0
Hugging face: https://huggingface.co/collections/BAAI/robobrain20-6841eeb1df55c207a4ea0036/

@ai_machinelearning_big_data

#ai #ml #robots #ComputerVision #BAAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ Jan-nano от Menlo Research — модель на базе Qwen3 всего на 4B параметров, созданная для Deep Research.

📊 На SimpleQA (agentic / MCP) — Jan-nano набирает 80.7.

Это очень серьёзный результат для модели такого размера!

Модель работает через Jan — open-source альтернативу ChatGPT, которая запускается локально.

Она заточена и оптимизирована для интеграции с Model Context Protocol (MCP).

🔍 Jan-nano — ещё один пример того, как компактные модели могут конкурировать с большими моделями благодаря обучению и агентной архитектуре.

HF: https://huggingface.co/Menlo/Jan-nano

@ai_machinelearning_big_data


#LLM #JanNano #MCP #OpenSourceAI
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🎥 Лекс Фридман беседует с Терренсом Тао — одним из гениев современной математики.

Теренс Тао — один из самых выдающихся современных математиков.
Вот чем он особенно известен:

• Вундеркинд из Австралии, уже в 10 лет участвовал в Международной математической олимпиаде, а в 21 год получил степень доктора наук.

• Филдсовская премия: В 2006 году получил Филдсовскую медаль — высшую награду в математике, за вклад в гармонический анализ, уравнения и эргодическую теорию.
• Работа над задачей Коллатца, комбинаторикой, теорией вероятностей, уравнениями Навье–Стокса и др.

Интересны мысли из подкаста 👇

▪️ Как Тао решает сложные задачи?
Он превращает любую "невозможную" задачу в серию маленьких игр:
Сначала убирает все помехи, решает максимально простую версию, а потом шаг за шагом добавляет сложности обратно. Такой подход — не зацикливаться на тупике, а всегда двигаться вперёд, даже если проблема кажется непреодолимой.

▪️ Как развивается математика?
Прогресс возникает, когда объединяют разные математические языки: геометрию с алгеброй, динамику с энергетикой, дискретные игры с комплексными уравнениями. Так появляются простые законы, объясняющие сложные явления. Но для примера в финансах такая магия не работает: там слишком много скрытых связей и неожиданностей.

▪️ Формализация доказательств и Lean
Тао считает революционным переход к формальным доказательствам с помощью Lean (Lean — это современная формальная система и язык программирования, разработанный для проверки математических доказательств с помощью компьютера) — теперь каждое доказательство как программа: “компилируется” и проверяется сотнями добровольцев. Даже сложные гипотезы можно разбить на тысячи маленьких задач, видеть, где остались пробелы, и быстро исправлять. AI-автодополнение уже ускоряет работу, а скоро писать в Lean станет проще, чем на бумаге.

▪️ AI и будущее математики
Сегодня AI может решать школьную геометрию, но с настоящими открытиями пока не справляется: ему не хватает “математического чутья”. Тао уверен, что в ближайшие годы прорывы будут происходить в тандеме “человек+AI”: человек задаёт стратегию, а AI перебирает и проверяет рутину.

▪️ Гибкость и устойчивость гипотез
Некоторые гипотезы (например, о длинных арифметических прогрессиях) остаются верными даже при жёстких изменениях, а другие (например, гипотеза о близнецах-простых) могут рухнуть, если убрать совсем малую долю чисел — поэтому они такие сложные.

Вывод:
Математика будущего — это синтез идей, формальные доказательства и тесное сотрудничество с искусственным интеллектом. Главные открытия всё равно будут за человеком, а AI поможет делать их быстрее.

- Подкаст
- Смотреть в тг
- YouTube
- Spotify

@ai_machinelearning_big_data

#ai #ml #podcast #lexfridman
🌟MiniMax-M1: открытя reasoning‑LLM с контекстом 1M

MiniMax-M1 — первая в мире open-weight гибридная reasoning‑LLM c 1M контекстом (8× DeepSeek R1) и гибридной архитектурой MoE + lightning attention.
• 456 млрд параметров (45,9 млрд активируются на токен), сверхэффективная генерация — 25% FLOPs DeepSeek R1 на 100K токенов
• Обучение через RL с новым алгоритмом CISPO, решающим реальные задачи от математики до кодинга
• На обучение было потрачено $534K, две версии — 40K/80K “thinking budget”
• Обходит DeepSeek R1 и Qwen3-235B на бенчмарках по математике и кодингу,
• Топ результат на задачах для software engineering и reasoning



Бенчмарки:
AIME 2024: 86.0 (M1-80K) vs 85.7 (Qwen3) vs 79.8 (DeepSeek R1)

SWE-bench Verified: 56.0 vs 34.4 (Qwen3)

OpenAI-MRCR (128k): 73.4 vs 27.7 (Qwen3)

TAU-bench (airline): 62.0 vs 34.7 (Qwen3)

LongBench-v2: 61.5 vs 50.1 (Qwen3)


➡️ Попробовать можно здесь

Hugging Face: https://huggingface.co/collections/MiniMaxAI/minimax-m1-68502ad9634ec0eeac8cf094
GitHub: https://github.com/MiniMax-AI/MiniMax-M1
Tech Report: https://github.com/MiniMax-AI/MiniMax-M1/blob/main/MiniMax_M1_tech_report.pdf


@ai_machinelearning_big_data

#llm #reasoningmodels #minimaxm1
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
✔️ Google запускает функцию Audio Overviews в поиске.

Google объявила о запуске экспериментальной функции Audio Overviews, которая генерирует аудио-сводки для поисковых запросов. Новинка основана на новых моделях Gemini и направлена на упрощение восприятия информации для пользователей, предпочитающих аудиоформат. Функция пока доступна в программе Labs, ее активируют автоматически, если система считает, что обзор будет полезен.

К аудио Google добавит ссылки на источники, чтобы слушатели могли углубиться в тему. Пользователи могут оценивать обзоры, отправляя обратную связь через кнопки «нравится»/«не нравится».
blog.google

✔️ Технические гении из Кремниевой долины идут в армию для внедрения ИИ в военные операции.

ВС США создали отряд резервистов "201", куда вошли топ-менеджеры Palantir (Шьям Санкар, CTO) , Компании Марка Цукерберга (Эндрю Босворт, СТО) и OpenAI (Кевин Вейл и Боб Макгрю). Все "новобранцы" получили звания подполковников, их задача - внедрять ИИ в планирование и операции армии и ускорять трансформацию подразделений.

Эксперты будут работать удаленно, минимум 120 часов в год, не проходя базовой подготовки. Palantir уже сотрудничает с армией с 2008 года (проект Maven, $480 млн) по интеграции ИИ. IT-гигант Цукерберга, в свою очередь, связан с Anduril, поставляющей «умные» очки. OpenAI, несмотря на прошлые обещания не разрабатывать военные продукты, также участвует в партнерствах с военными.
theregister.com

✔️ Нью-Йорк принимает закон о безопасности ИИ.

Законодатели Нью-Йорка одобрили RAISE Act, направленный на предотвращение масштабных катастроф, вызванных передовыми ИИ-моделями от компаний OpenAI, Google и Anthropic. Закон требует публиковать отчеты о безопасности, сообщать об инцидентах и грозит штрафами до $30 млн. Регулирование коснется лишь крупных игроков, потративших свыше $100 млн на вычисления.

Авторы закона подчеркнули, что он не должен тормозить стартапы или научные исследования, в отличие от провалившегося законопроекта SB 1047 в Калифорнии. Однако критики, включая Andreessen Horowitz и Anthropic, утверждают: требования слишком широки и могут ударить по малым компаниям.
В настоящее время RAISE Act ждет подписи губернатора штата.
nysenate.gov

✔️ Topaz Labs анонсировала веб-инструмент Astra для апскейлинга видео до 4K.

Astra — веб-сервис для улучшения качества видео, который масштабирует контент до 4K, сохраняя детали. Инструмент подойдет как для творческих экспериментов, так и для точного восстановления кадров: пользователи могут регулировать интенсивность обработки или фокусироваться на резкости.

Astra поддерживает до 120 кадров в секунду и замедление в 8 раз с плавной интерполяцией кадров. Topaz Labs позиционирует Astra как полезный инструмент для ремастеринга старых записей или улучшения медийных проектов.
Открыта запись в лист ожидания доступа к сервису.
Topaz Labs в сети X

✔️ TikTok запустил 3 новых инструмента для автоматической генерации видео для рекламы.

«Image to Video» превращает статичные изображения в пятисекундные клипы. Рекламодатели загружают изображение, добавляют текстовый запрос и получают несколько вариантов видео, которые можно комбинировать в более длинные ролики.

«Text to Video» позволяет генерировать видео только на основе текста, без изображений или шаблонов. Третий инструмент, «Showcase Products», добавляет цифровые аватары, которые держат продукты, примеряют одежду или показывают приложения на смартфоне, делая рекламу более живой и похожей на пользовательский контент.

Все видео помечаются как сгенерированные ИИ и могут интегрироваться в Adobe Express и WPP Open. TikTok не раскрывает, какие именно модели используются.
newsroom.tiktok.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Sakana AI представила ALE-Bench и ALE-Agent — инструменты для работы с задачами, требующих сложной оптимизации

В партнёрстве с AtCoder Inc. команда Sakana AI разработала ALE-Bench — открытый бенчмарк, ориентированный на NP-трудные задачи, где важно не просто написать работающий код, а находить работающие и эффективные решения.

📌 Что делает ALE-Bench особенным:
• Задачи требуют долгосрочного планирования и нестандартного подхода
• Истинное оптимальное решение недостижимо, но текущее решение можно улучшать бесконечно
• Подходит для оценки reasoning‑моделей и продвинутых AI‑кодеров

🤖 Вместе с бенчмарком представили и ALE-Agent — автономного агента, обученного решать такие задачи с нуля.

В мае 2025 года он участвовал в AtCoder Heuristic Contest (AHC) — одном из самых сложных алгоритмических конкурсов — и занял 21‑е место из 1,000 участников.

Блог: https://sakana.ai/ale-bench/
Статья: https://arxiv.org/abs/2506.09050
Датасет: https://huggingface.co/datasets/SakanaAI/ALE-Bench
Код: https://github.com/SakanaAI/ALE-Bench

@ai_machinelearning_big_data

#ALEBench #AI #SakanaAI #Optimization #AtCoder #NPHard #AItools
Media is too big
VIEW IN TELEGRAM
✔️ Генерация изображений ChatGPT теперь доступна в WhatsApp.

OpenAI запустила функцию создания изображений по текстовым запросам в WhatsApp через бота 1-800-ChatGPT. Ранее возможность генерировать картинки была доступна только в мобильном приложении и на сайте сервиса.

Владельцы платных аккаунтов ChatGPT получают дополнительные преимущества. Привязав подписку к WhatsApp, они увеличивают лимиты на генерацию. Данных о геодоступности интеграции и объема, на который увеличиваются лимиты, OpenAI не предоставила.
OpenAI в сети Х

✔️ Google Gemini 2.5: Pro и Flash доступны всем, Flash-Lite в превью.

Google официально представила стабильные версии Gemini 2.5 Pro и Flash, обещая улучшенную производительность при оптимальных затратах и скорости. Эти модели уже готовы к использованию в промышленных приложениях.

Параллельно анонсирована пробная версия Flash-Lite — самая дешевая и быстрая из линейки. Она показывает лучшие результаты, чем Gemini 2.0, в программировании, математике и обработке данных. Модель поддерживает работу с инструментами (поиск, исполнение кода) и обрабатывает до 1 млн. токенов за раз.

Доступ к Flash-Lite открыт через AI Studio и Vertex AI, а Pro и Flash в мобильном приложении Gemini.
blog.google

✔️ Adobe Firefly стала доступна на мобильных устройствах.

Adobe выпустила мобильное приложение Firefly для iOS и Android. Инструмент объединяет собственные модели Adobe и сторонние решения от OpenAI, Google (Imagen 3/4, Veo 2/3), Flux и других. Пользователи получают доступ к функциям Generative Fill, текстового генератора видео и улучшения изображений.

Приложения получили синхронизацию с Creative Cloud, а для использования некоторых ИИ-опций требуются генеративные кредиты. Подписчики Creative Cloud могут использовать Firefly бесплатно, но отдельные функции доступны по специальной подписке.

Обновленная платформа Firefly Boards, напоминающая FigJam, теперь поддерживает редактирование и создание видео на основе моделей Google и Adobe.
macrumors.com

✔️ Cursor добавил новый тарифный план Ultra за $200 в месяц.

Ultra, новый тариф, с объемом вычислений в 20 раз больше, чем у Pro стал возможен благодаря партнерству с OpenAI, Anthropic, Google и xAI. Эти компании обеспечили доступ к мощным вычислительным ресурсам.

Параллельно обновлен Pro-тариф: теперь он предлагает неограниченное использование с ограничениями по скорости, а лимиты на вызовы инструментов полностью сняты. Сохранение прежнего лимита в 500 запросов в день можно выбрать вручную.
cursor.com

✔️ Groq появился в Hugging Face Hub как поставщик инференса.

Groq стал доступен для запуска моделей на Hugging Face Hub, платформа добавила компанию в число своих поставщиков вычислений. Groq предлагает рекордно низкие задержки благодаря собственным процессорам обработки языка, которые заменяют традиционные GPU. Поддерживаемые модели включают свежие открытые версии Llama 4 и Qwen QWQ-32B, полный список можно посмотреть тут.

Интеграция работает через веб-интерфейс и клиентский SDK, а оплата возможна двумя способами: через API-ключ Groq или через Hugging Face без наценок. Для бесплатных аккаунтов доступен ограниченный объем инференса, а PRO-пользователи получают $2 ежемесячного кредита.
huggingface.co

✔️ Reddit запустил рекламные инструмента на основе ИИ.

Основной фишкой стал «Reddit Insights powered by Community Intelligence», он в реальном времени отслеживает тренды и помогает тестирует идеи для кампаний. Еще один инструмент, «Conversation Summary Add-ons», позволяет брендам добавлять под рекламу позитивные комментарии пользователей о продукте.

Reddit, похоже, угадывает с трендом: автоматизация и аналитика становятся ключевыми в условиях жесткой конкуренции за внимание.
reuters.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Высшее на новом уровне: онлайн-магистратура от Яндекса и НИЯУ МИФИ. Здесь фундаментальные знания и практика для карьерного роста, а ещё — учёба, которую можно совмещать с работой и жизнью.

IT‑специальность с экспертизой Яндекса + диплом магистра гособразца = новая ступень в карьере. Приёмная кампания уже идёт!

Все подробности — на дне открытых дверей:
— Разбор совместной программы с НИЯУ МИФИ.
— Всё о формате прикладной онлайн-магистратуры: что взяли от классического высшего, а что добавили из опыта специалистов Яндекса.
— Общение с экспертами из вуза и ответы на вопросы.
— Всё про поступление: сроки, экзамены, документы, оплата и образовательный кредит.

▷ Ждём вас 26 июня в 19:00 мск.

→ Зарегистрироваться на встречу
2025/06/18 20:34:12
Back to Top
HTML Embed Code: