Telegram Group Search
Media is too big
VIEW IN TELEGRAM
✔️ Google DeepMind запустила Weather Lab с ИИ для прогнозирования циклонов.

Weather Lab - это сервис, где Google DeepMind тестирует экспериментальные модели ИИ для прогноза тропических циклонов. Инструмент генерирует 50 сценариев развития стихии за 15 дней, используя стохастические нейросети.

Традиционные физические модели часто жертвуют точностью интенсивности ради прогноза траектории, но ИИ-система DeepMind совмещает оба параметра. В тестах ее предсказания на 5 дней в среднем ближе к реальным координатам циклона на 140 км по сравнению с ведущими глобальными решениями. Также модель превосходит региональные физические аналоги в оценке силы урагана и радиуса ветров.
deepmind.google

✔️ Новый метод ICM позволяет ИИ обучаться без человеческого контроля.

Исследователи из Anthropic, Университетов Нью-Йорка и Джорджа Вашингтона разработали метод Internal Coherence Maximization (ICM), который учит языковые модели работать с задачами, опираясь на собственную логику. Модель сама проверяет, насколько ответы согласуются между собой (взаимная предсказуемость) и нет ли противоречий (логическая непротиворечивость).

На тестах (TruthfulQA, GSM8K, Alpaca) ICM показал результаты, сравнимые с обучением на человеческих оценках, а в задачах на «субъективные» критерии даже превзошел их. Например, модель без специальной тренировки определила пол автора текста с точностью 80% — выше, чем у людей. Даже при обучении чат-бота Claude 3.5 Haiku через ICM система выигрывала в 60% случаев против версии с человеческим контролем.

Однако метод не всесилен: он работает только с теми понятиями, которые модель уже «знает», и терпит неудачу с длинными текстами или задачами, требующими новых знаний.
alignment-science-blog.pages.dev

✔️ NVIDIA и Stability AI оптимизировали Stable Diffusion 3.5 с помощью TensorRT.

Совместная работа NVIDIA и Stability AI позволила ускорить генерацию в Stable Diffusion 3.5 и сократить использование видеопамяти. Модель Large, ранее требовавшая 18 ГБ VRAM, теперь работает с 11 ГБ благодаря FP8-квантованию, что делает ее доступной для большего числа GPU. На RTX 40-й серии и Blackwell-чипах FP8 и FP4 показали двукратный прирост производительности по сравнению с PyTorch.

TensorRT оптимизировал граф модели и веса под Tensor Cores, ускорив SD3.5 Large на 2,3x и Medium — на 1,7x. Разработчики также получили облегченный SDK (в 8 раз меньше) с JIT-компиляцией, позволяющий строить движки «на лету» через Windows ML. Оптимизированные версии уже доступны на Hugging Face, а в июле появится NIM-микросервис для упрощения интеграции в приложения.
blogs.nvidia.com

✔️ Google добавила новые функции Gemini AI для Workspace.

Google расширила возможности Gemini AI в Workspace, добавив функции для анализа PDF и Google-форм. Система автоматически создает краткие сводки при открытии PDF, предлагая действия «составить предложение» или «сгенерировать вопросы ». Эти подсказки появляются в боковой панели и работают на 20+ языках с 12 июня.

Для Google-форм ИИ теперь подводит итоги ответов на открытые вопросы, выделяя ключевые темы. Эта опция активируется при трех и более ответах и станет доступна с 26 июня, но пока только на английском. Еще одна новинка, которую видят пользователи с 7 июля — «помоги создать форму», позволяющая генерировать шаблоны на основе описаний и прикреплённых файлов (Docs, Sheets и т.д.).
workspaceupdates.googleblog.com

✔️ Китайские инженеры учат ИИ за границей, обходя санкции США.

Четверо китайских инженеров прилетели в Малайзию с чемоданами, набитыми жесткими дисками: 80 терабайт данных для обучения ИИ. В местном дата-центре их компания арендовала 300 серверов с чипами Nvidia, запрещенными к экспорту в Китай. Подобные схемы — ответ на давление США, ограничивающее поставки технологий.

Физическая доставка данных вместо медленной передачи через интернет, создание подставных компаний в Малайзии и переадресация оборудования через третьи страны — так китайские фирмы обходят контроль. Но санкции сжимаются: Nvidia усиливает проверки, а страны ЮВА ужесточают правила.
wsj.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Успех в IT = скорость + знания + окружение

Здесь ты найдёшь всё это — коротко, по делу и без воды.
Пока другие ищут, где “подглядеть решение”, ты уже используешь самые свежие инструменты!

Python: www.group-telegram.com/pythonl
Linux: www.group-telegram.com/linuxacademiya
Собеседования DS: www.group-telegram.com/machinelearning_interview
МЛ: www.group-telegram.com/machinelearning_ru
C++ www.group-telegram.com/cpluspluc
Docker: www.group-telegram.com/DevopsDocker
Хакинг: www.group-telegram.com/linuxkalii
Devops: www.group-telegram.com/DevOPSitsec
Data Science: www.group-telegram.com/data_analysis_ml
Javascript: www.group-telegram.com/javascriptv
C#: www.group-telegram.com/csharp_ci
Java: www.group-telegram.com/java_library
Базы данных: www.group-telegram.com/sqlhub
Python собеседования: www.group-telegram.com/python_job_interview
Мобильная разработка: www.group-telegram.com/mobdevelop
Golang: www.group-telegram.com/Golang_google
React: www.group-telegram.com/react_tg
Rust: www.group-telegram.com/rust_code
ИИ: www.group-telegram.com/vistehno
PHP: www.group-telegram.com/phpshka
Android: www.group-telegram.com/android_its
Frontend: www.group-telegram.com/front
Big Data: www.group-telegram.com/bigdatai
МАТЕМАТИКА: www.group-telegram.com/data_math
Kubernets: www.group-telegram.com/kubernetc
Разработка игр: https://www.group-telegram.com/gamedev
Haskell: www.group-telegram.com/haskell_tg
Физика: www.group-telegram.com/fizmat

💼 Папка с вакансиями: www.group-telegram.com/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: www.group-telegram.com/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: www.group-telegram.com/addlist/eEPya-HF6mkxMGIy
Папка ML: https://www.group-telegram.com/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://www.group-telegram.com/addlist/mzMMG3RPZhY2M2Iy

😆ИТ-Мемы: www.group-telegram.com/memes_prog
🇬🇧Английский: www.group-telegram.com/english_forprogrammers
🧠ИИ: www.group-telegram.com/vistehno

🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://www.group-telegram.com/addlist/BkskQciUW_FhNjEy

Подпишись, если хочешь быть в числе тех, кого зовут в топовые проекты!
This media is not supported in your browser
VIEW IN TELEGRAM
📄 Dolphin — новая OCR модель ByteDance для понимания сложных документов в виде изображений

Dolphin — это мультимодальная модель, которая умеет разбирать сканы и фотографии документов, включая текст, таблицы, формулы и графики.

Подойдет для автоматизации чтения и структурирования PDF-файлов, отсканированных отчётов и научных статей.

Как работает модель:
1️⃣ Анализ страницы — модель определяет порядок элементов доцентов так, как читает человек
2️⃣ Разбор содержимого — параллельно обрабатываются абзацы, таблицы, формулы и другие элементы, используя специальные встроенные промпты

Архитектура:
• Визуальный энкодер — Swin Transformer
• Текстовый декодер — MBart
• Управление через промпты

📌 Возможности:
• Постраничная обработка документа
• Точечный парсинг отдельных элементов (например, таблиц)
• Высокая точность и скорость работы модели
• Открытая MIT-лицензия

Установка:
git clone https://github.com/ByteDance/Dolphin.git
cd Dolphin


Github
HF
Demo

@ai_machinelearning_big_data


#ocr #ByteDance
🌟 SEAL: Еще одна попытка создать пайплайн самообучающихся LLM.

SEAL - это методика от MiT, позволяющая LLM самостоятельно генерировать обучающие данные и настраивать параметры обучения, чтобы адаптироваться к новым задачам. Вместо традиционного файнтюна на внешних данных модель учится рефлексировать: анализировать контекст, создавать из него синтетические данные и применять их для корректировки собственных весов через механизм усиленного обучения.

SEAL, по сути, это два разделенных цикла:

🟢Внешний цикл использует RL, чтобы научить модель генерировать «самоизменения» (инструкции на естественном языке, описывающие, какие данные использовать и как настраивать параметры).

🟢Внутренний цикл реализует эти изменения: модель дообучается на сгенерированных данных, а затем тестирует результат на конкретной задаче. За коррекцию отвечает RL-алгоритм ReSTEM, который оценивает эффективность изменений и обновляет стратегию генерации инструкций. Для экономии ресурсов используются легковесные адаптеры LoRA, которые модифицируют только часть параметров модели.

Этот процесс повторяется, постепенно формируя у модели навык преобразования исходных данных в полезные обучающие сигналы.

SEAL протестили на 2 задачах: интеграции новых знаний и few-shot обучении. В первом случае модель генерирует логические следствия из текста, дообучается на них и улучшает точность ответов на вопросы без доступа к исходному тексту.

Во втором случае SEAL выбирает оптимальные аугментации данных и гиперпараметры для обучения на примерах задач ARC-AGI.

В обоих сценариях SEAL превзошел подходы с фиксированными шаблонами (ICL, TTT+Self Edit без RL и) и даже синтетическими данными от GPT-4.1.

Метод скорее академический и по большей части экспериментальный, у него есть ограничения:

🟠При последовательном применении изменений модель склонна к «катастрофическому забыванию» — потере знаний, усвоенных ранее;

🟠Сопутствующие вычислительные затраты, так как каждая итерация требует дообучения и тестирования модели.


▶️В репозитории проекта разработчики выложили код, данные и инструкции для двух направлений:

🟢Включение новых фактических знаний;

🟢Адаптация к новым задачам на основе примеров.


📌Лицензирование: MIT License.


🟡Страница проекта
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #SEAL #RL #MiT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Доброе утро, поклонники AI!

Сегодня — тот день, когда всё внимание приковано к событию в ТехноХабе Сбера в Петербурге! Именно здесь открывает новый день международная сессия AI Journey — с актуальными темами, живыми спикерами и технологиями, которые меняют отрасли.

Сегодня в программе суперэксперты из Индии, Китая и Сербии, а российскую сторону представляют Сбер, Сколтех, Институт AIRI и другие технологические лидеры AI-индустрии.

🔗 Подключайтесь к трансляции — всё самое интересное начинается сейчас.
🤖 RoboBrain 2.0 — ИИ для нового поколения роботов.

RoboBrain 2.0 — это open-source модель способная к широкому спектру задач: от восприятия окружения до управления роботами.

Её уже называют фундаментом для следующего поколения гуманоидов.

🔹 Поддерживает планирование, восприятие и действия в реальном мире
🔹 Заточен на легкую интеграцию (под капотом 7B параметров) в реальные проекты и роботизированные системы
🔹 Полностью открытый код

Архитектура:

• Обрабатывает изображения, длинные видео и визуальные данные высокого разрешения
• Понимает сложные текстовые инструкции
• Входные данные:
 — Визуальные — проходят через Vision Encoder + MLP Projector
 — Текстовые — превращаются в унифицированный токен-поток
• Всё подаётся в LLM Decoder, который выполняет рассуждение, строит планы, определяет координаты и пространственные связи

С такими темпами более чем реально, что уже к 2027 году мы увидим массовое производство продвинутых гуманоидных роботов.

ИИ выходит в физический мир — и делает это уверено.

Запуск:

git clone https://github.com/FlagOpen/RoboBrain2.0.git
cd RoboBrain

# build conda env.
conda create -n robobrain2 python=3.10
conda activate robobrain2
pip install -r requirements.txt


Github: https://github.com/FlagOpen/RoboBrain2.0
Hugging face: https://huggingface.co/collections/BAAI/robobrain20-6841eeb1df55c207a4ea0036/

@ai_machinelearning_big_data

#ai #ml #robots #ComputerVision #BAAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ Jan-nano от Menlo Research — модель на базе Qwen3 всего на 4B параметров, созданная для Deep Research.

📊 На SimpleQA (agentic / MCP) — Jan-nano набирает 80.7.

Это очень серьёзный результат для модели такого размера!

Модель работает через Jan — open-source альтернативу ChatGPT, которая запускается локально.

Она заточена и оптимизирована для интеграции с Model Context Protocol (MCP).

🔍 Jan-nano — ещё один пример того, как компактные модели могут конкурировать с большими моделями благодаря обучению и агентной архитектуре.

HF: https://huggingface.co/Menlo/Jan-nano

@ai_machinelearning_big_data


#LLM #JanNano #MCP #OpenSourceAI
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️Пошаговый план: как стать инженером машинного обучения в 2025

Хотите войти в одну из самых востребованных и высокооплачиваемых IT-профессий, но кажется, что ML — это сложно и требует только высшего образования?

Приглашаем на бесплатный вебинар, где развеем мифы и покажем реальный путь с нуля до конкурентоспособного ML-инженера!

Спикер вебинара: Савелий Батурин, Senior ML-Engineer в Postgres Professional, а также преподаватель нашего курса-симулятора «Инженер машинного обучения».

На вебинаре вы узнаете:
🟠Чем на самом деле занимается ML-инженер и почему это перспективно.
🟠Почему не нужно быть гением математики, чтобы начать.
🟠Какие ошибки совершают новички и как их избежать.
🟠Четкий роадмап обучения: от основ до продвинутых тем.
🟠Пример реального кейса — как выглядит работа ML-специалиста.

Бонусы для участников: готовый роадмап обучения.

🕗 Встречаемся 17 июня в 18:30 по МСК

😶Зарегистрироваться на бесплатный вебинар
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🎥 Лекс Фридман беседует с Терренсом Тао — одним из гениев современной математики.

Теренс Тао — один из самых выдающихся современных математиков.
Вот чем он особенно известен:

• Вундеркинд из Австралии, уже в 10 лет участвовал в Международной математической олимпиаде, а в 21 год получил степень доктора наук.

• Филдсовская премия: В 2006 году получил Филдсовскую медаль — высшую награду в математике, за вклад в гармонический анализ, уравнения и эргодическую теорию.
• Работа над задачей Коллатца, комбинаторикой, теорией вероятностей, уравнениями Навье–Стокса и др.

Интересны мысли из подкаста 👇

▪️ Как Тао решает сложные задачи?
Он превращает любую "невозможную" задачу в серию маленьких игр:
Сначала убирает все помехи, решает максимально простую версию, а потом шаг за шагом добавляет сложности обратно. Такой подход — не зацикливаться на тупике, а всегда двигаться вперёд, даже если проблема кажется непреодолимой.

▪️ Как развивается математика?
Прогресс возникает, когда объединяют разные математические языки: геометрию с алгеброй, динамику с энергетикой, дискретные игры с комплексными уравнениями. Так появляются простые законы, объясняющие сложные явления. Но для примера в финансах такая магия не работает: там слишком много скрытых связей и неожиданностей.

▪️ Формализация доказательств и Lean
Тао считает революционным переход к формальным доказательствам с помощью Lean (Lean — это современная формальная система и язык программирования, разработанный для проверки математических доказательств с помощью компьютера) — теперь каждое доказательство как программа: “компилируется” и проверяется сотнями добровольцев. Даже сложные гипотезы можно разбить на тысячи маленьких задач, видеть, где остались пробелы, и быстро исправлять. AI-автодополнение уже ускоряет работу, а скоро писать в Lean станет проще, чем на бумаге.

▪️ AI и будущее математики
Сегодня AI может решать школьную геометрию, но с настоящими открытиями пока не справляется: ему не хватает “математического чутья”. Тао уверен, что в ближайшие годы прорывы будут происходить в тандеме “человек+AI”: человек задаёт стратегию, а AI перебирает и проверяет рутину.

▪️ Гибкость и устойчивость гипотез
Некоторые гипотезы (например, о длинных арифметических прогрессиях) остаются верными даже при жёстких изменениях, а другие (например, гипотеза о близнецах-простых) могут рухнуть, если убрать совсем малую долю чисел — поэтому они такие сложные.

Вывод:
Математика будущего — это синтез идей, формальные доказательства и тесное сотрудничество с искусственным интеллектом. Главные открытия всё равно будут за человеком, а AI поможет делать их быстрее.

- Подкаст
- Смотреть в тг
- YouTube
- Spotify

@ai_machinelearning_big_data

#ai #ml #podcast #lexfridman
🌟MiniMax-M1: открытя reasoning‑LLM с контекстом 1M

MiniMax-M1 — первая в мире open-weight гибридная reasoning‑LLM c 1M контекстом (8× DeepSeek R1) и гибридной архитектурой MoE + lightning attention.
• 456 млрд параметров (45,9 млрд активируются на токен), сверхэффективная генерация — 25% FLOPs DeepSeek R1 на 100K токенов
• Обучение через RL с новым алгоритмом CISPO, решающим реальные задачи от математики до кодинга
• На обучение было потрачено $534K, две версии — 40K/80K “thinking budget”
• Обходит DeepSeek R1 и Qwen3-235B на бенчмарках по математике и кодингу,
• Топ результат на задачах для software engineering и reasoning



Бенчмарки:
AIME 2024: 86.0 (M1-80K) vs 85.7 (Qwen3) vs 79.8 (DeepSeek R1)

SWE-bench Verified: 56.0 vs 34.4 (Qwen3)

OpenAI-MRCR (128k): 73.4 vs 27.7 (Qwen3)

TAU-bench (airline): 62.0 vs 34.7 (Qwen3)

LongBench-v2: 61.5 vs 50.1 (Qwen3)


➡️ Попробовать можно здесь

Hugging Face: https://huggingface.co/collections/MiniMaxAI/minimax-m1-68502ad9634ec0eeac8cf094
GitHub: https://github.com/MiniMax-AI/MiniMax-M1
Tech Report: https://github.com/MiniMax-AI/MiniMax-M1/blob/main/MiniMax_M1_tech_report.pdf


@ai_machinelearning_big_data

#llm #reasoningmodels #minimaxm1
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/06/16 19:54:16
Back to Top
HTML Embed Code: