🎨 miniDiffusion — Stable Diffusion 3.5 на минималках (и на PyTorch)
miniDiffusion — это предельно упрощённая реализация Stable Diffusion 3.5, написанная с нуля на чистом PyTorch, всего в ~2800 строках кода.
Проект создан для тех, кто хочет разобраться, как работает генерация изображений, без лишней магии и зависимостей.
🧠 Что внутри:
• Полная модель от VAE до DiT, включая тренировочные скрипты
• Поддержка T5 и CLIP энкодеров
• Euler scheduler для решения ODE потока шума
• Расчёт метрики FID встроен
📁 Основные файлы:
-
-
-
-
-
-
-
-
📦 Структура:
-
-
🛠 Подходит для:
• обучения и экспериментов
• хакинга архитектур
• кастомной тренировки без головной боли
🚀 Если хотите понять, как собрать Stable Diffusion 3.5 "на коленке" — miniDiffusion создан именно для этого.
miniDiffusion — это предельно упрощённая реализация Stable Diffusion 3.5, написанная с нуля на чистом PyTorch, всего в ~2800 строках кода.
Проект создан для тех, кто хочет разобраться, как работает генерация изображений, без лишней магии и зависимостей.
🧠 Что внутри:
• Полная модель от VAE до DiT, включая тренировочные скрипты
• Поддержка T5 и CLIP энкодеров
• Euler scheduler для решения ODE потока шума
• Расчёт метрики FID встроен
📁 Основные файлы:
-
dit.py
— архитектура DiT -
dit_components.py
— эмбеддинги, нормализация, вспомогательные блоки -
attention.py
— совместное внимание (Joint Attention) -
noise.py
— планировщик шума -
t5_encoder.py
, clip.py
— текстовые энкодеры -
tokenizer.py
— токенизация -
metrics.py
— Fréchet Inception Distance -
common.py
, common_ds.py
— функции и датасет для обучения📦 Структура:
-
model/
— чекпоинты и логи -
encoders/
— предобученные модули (VAE, CLIP и др.)🛠 Подходит для:
• обучения и экспериментов
• хакинга архитектур
• кастомной тренировки без головной боли
🚀 Если хотите понять, как собрать Stable Diffusion 3.5 "на коленке" — miniDiffusion создан именно для этого.
🧬 BioReason: биомедицинская нейросеть, которая реально *думает*
От лаборатории Bo Wang (U of Toronto)
BioReason — это reasoning-модель для биомедицинских задач, которая учится делать *глубокие логические выводы* по статьям, графам знаний и научным данным.
💡 Не просто "угадывает", а *обобщает и объясняет*.
📚 Обучена на:
• PubMed abstracts
• PICO фреймах
• SNOMED CT и других онтологиях
• Biomedical Knowledge Graphs
🚀 Особенности:
• Архитектура на основе LM+GNN+reasoning engine
• Сильна в задачах like QA, classification, relation extraction
• Поддержка chain-of-thought + multi-hop inference
• Основана на OpenPretrain и GALACTICA
🧪 Benchmark’и:
+18–22% точности по сравнению с BioLinkBERT и GPT-3.5 на ряде задач (MedQA, PubMedQA, MedNLI и др.)
🔗 GitHub: https://github.com/bowang-lab/BioReason
📄 Статья: https://arxiv.org/abs/2406.02491
@data_analysis_ml
От лаборатории Bo Wang (U of Toronto)
BioReason — это reasoning-модель для биомедицинских задач, которая учится делать *глубокие логические выводы* по статьям, графам знаний и научным данным.
💡 Не просто "угадывает", а *обобщает и объясняет*.
📚 Обучена на:
• PubMed abstracts
• PICO фреймах
• SNOMED CT и других онтологиях
• Biomedical Knowledge Graphs
🚀 Особенности:
• Архитектура на основе LM+GNN+reasoning engine
• Сильна в задачах like QA, classification, relation extraction
• Поддержка chain-of-thought + multi-hop inference
• Основана на OpenPretrain и GALACTICA
🧪 Benchmark’и:
+18–22% точности по сравнению с BioLinkBERT и GPT-3.5 на ряде задач (MedQA, PubMedQA, MedNLI и др.)
# Clone the repository
git clone https://github.com/bowang-lab/BioReason.git
cd BioReason
# Install package
pip install -e .
🔗 GitHub: https://github.com/bowang-lab/BioReason
📄 Статья: https://arxiv.org/abs/2406.02491
@data_analysis_ml
Хотите войти в одну из самых востребованных и высокооплачиваемых IT-профессий, но кажется, что ML — это сложно и требует только высшего образования?
Приглашаем на бесплатный вебинар, где развеем мифы и покажем реальный путь с нуля до конкурентоспособного ML-инженера!
Спикер вебинара: Савелий Батурин, Senior ML-Engineer в Postgres Professional, а также преподаватель нашего курса-симулятора «Инженер машинного обучения».
На вебинаре вы узнаете:
Бонусы для участников: готовый роадмап обучения.
🕗 Встречаемся 17 июня в 18:30 по МСК
Please open Telegram to view this post
VIEW IN TELEGRAM
🦾 Подборка: Awesome LLM Apps на GitHub!
Коллекция самых интересных и полезных приложений и сервисов на базе больших языковых моделей: ассистенты, генераторы, поисковики, инструменты для работы с текстами, коды и API — всё в одном репозитории.
📂 Ссылка на подборку:
https://github.com/Shubhamsaboo/awesome-llm-apps
🔍 Отлично подойдёт для вдохновения, изучения лучших практик и быстрого старта своих проектов на LLM!
@data_analysis_ml
Коллекция самых интересных и полезных приложений и сервисов на базе больших языковых моделей: ассистенты, генераторы, поисковики, инструменты для работы с текстами, коды и API — всё в одном репозитории.
📂 Ссылка на подборку:
https://github.com/Shubhamsaboo/awesome-llm-apps
🔍 Отлично подойдёт для вдохновения, изучения лучших практик и быстрого старта своих проектов на LLM!
@data_analysis_ml
Теперь пользователи могут добавлять сторонние коннекторы и управлять ими непосредственно через интерфейс чат-бота. Новая функция поддерживает OAuth, что позволяет разработчикам проверять подлинность внешних приложений и упрощать обмен данными с ChatGPT.
К новой возможности OpenAI опубликовала техническую документацию по этой функции, сообщив, что разработчики могут немедленно приступить к созданию коннекторов для интеграции.
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚔️ OpenAI vs. Microsoft — борьба за контроль в ИИ
Между двумя гигантами ИИ — OpenAI и Microsoft — нарастает конфликт.
🧠 OpenAI хочет:
• Освободиться от влияния Microsoft
• Привлечь новые инвестиции
• Преобразоваться в полноценную коммерческую компанию
🧱 Microsoft, в свою очередь:
• Блокирует инициативу
• Может столкнуться с антимонопольной жалобой
• Пытается сохранить эксклюзивный доступ к ключевым разработкам
⚠️ Этот конфликт показывает, что борьба за ИИ — это не только битва за вычисления, но и за управление, прозрачность и доступ.
💡 Справедливая и открытая инфраструктура ИИ — вопрос не будущего, а настоящего.
📌 Читать полностью
@data_analysis_ml
#OpenAI #Microsoft #AI #инфраструктура #технологии #анализ
Между двумя гигантами ИИ — OpenAI и Microsoft — нарастает конфликт.
🧠 OpenAI хочет:
• Освободиться от влияния Microsoft
• Привлечь новые инвестиции
• Преобразоваться в полноценную коммерческую компанию
🧱 Microsoft, в свою очередь:
• Блокирует инициативу
• Может столкнуться с антимонопольной жалобой
• Пытается сохранить эксклюзивный доступ к ключевым разработкам
⚠️ Этот конфликт показывает, что борьба за ИИ — это не только битва за вычисления, но и за управление, прозрачность и доступ.
💡 Справедливая и открытая инфраструктура ИИ — вопрос не будущего, а настоящего.
📌 Читать полностью
@data_analysis_ml
#OpenAI #Microsoft #AI #инфраструктура #технологии #анализ
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
OpenAI запустила функцию создания изображений по текстовым запросам в WhatsApp через бота 1-800-ChatGPT. Ранее возможность генерировать картинки была доступна только в мобильном приложении и на сайте сервиса.
Владельцы платных аккаунтов ChatGPT получают дополнительные преимущества. Привязав подписку к WhatsApp, они увеличивают лимиты на генерацию. Данных о геодоступности интеграции и объема, на который увеличиваются лимиты, OpenAI не предоставила.
OpenAI в сети Х
Google официально представила стабильные версии Gemini 2.5 Pro и Flash, обещая улучшенную производительность при оптимальных затратах и скорости. Эти модели уже готовы к использованию в промышленных приложениях.
Параллельно анонсирована пробная версия Flash-Lite — самая дешевая и быстрая из линейки. Она показывает лучшие результаты, чем Gemini 2.0, в программировании, математике и обработке данных. Модель поддерживает работу с инструментами (поиск, исполнение кода) и обрабатывает до 1 млн. токенов за раз.
Доступ к Flash-Lite открыт через AI Studio и Vertex AI, а Pro и Flash в мобильном приложении Gemini.
blog.google
Adobe выпустила мобильное приложение Firefly для iOS и Android. Инструмент объединяет собственные модели Adobe и сторонние решения от OpenAI, Google (Imagen 3/4, Veo 2/3), Flux и других. Пользователи получают доступ к функциям Generative Fill, текстового генератора видео и улучшения изображений.
Приложения получили синхронизацию с Creative Cloud, а для использования некоторых ИИ-опций требуются генеративные кредиты. Подписчики Creative Cloud могут использовать Firefly бесплатно, но отдельные функции доступны по специальной подписке.
Обновленная платформа Firefly Boards, напоминающая FigJam, теперь поддерживает редактирование и создание видео на основе моделей Google и Adobe.
macrumors.com
Ultra, новый тариф, с объемом вычислений в 20 раз больше, чем у Pro стал возможен благодаря партнерству с OpenAI, Anthropic, Google и xAI. Эти компании обеспечили доступ к мощным вычислительным ресурсам.
Параллельно обновлен Pro-тариф: теперь он предлагает неограниченное использование с ограничениями по скорости, а лимиты на вызовы инструментов полностью сняты. Сохранение прежнего лимита в 500 запросов в день можно выбрать вручную.
cursor.com
Groq стал доступен для запуска моделей на Hugging Face Hub, платформа добавила компанию в число своих поставщиков вычислений. Groq предлагает рекордно низкие задержки благодаря собственным процессорам обработки языка, которые заменяют традиционные GPU. Поддерживаемые модели включают свежие открытые версии Llama 4 и Qwen QWQ-32B, полный список можно посмотреть тут.
Интеграция работает через веб-интерфейс и клиентский SDK, а оплата возможна двумя способами: через API-ключ Groq или через Hugging Face без наценок. Для бесплатных аккаунтов доступен ограниченный объем инференса, а PRO-пользователи получают $2 ежемесячного кредита.
huggingface.co
Основной фишкой стал «Reddit Insights powered by Community Intelligence», он в реальном времени отслеживает тренды и помогает тестирует идеи для кампаний. Еще один инструмент, «Conversation Summary Add-ons», позволяет брендам добавлять под рекламу позитивные комментарии пользователей о продукте.
Reddit, похоже, угадывает с трендом: автоматизация и аналитика становятся ключевыми в условиях жесткой конкуренции за внимание.
reuters.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🕵️♂️ Могут ли LLM вести себя как тайные саботажники?
Anthropic представила SHADE-Arena — тестовую среду для выявления скрытого вредоносного поведения ИИ
🔬 Что такое SHADE-Arena?
Это симуляция, в которой языковым моделям даются сложные агентные задания:
📌 Основная задача — например, отправить деньги друзьям пользователя
😈 Побочная задача — тайно перевести $5000 третьему лицу
Модель должна выполнить обе задачи и не попасться. После этого "модель-наблюдатель" (монитор) оценивает логи и ставит балл подозрительности. Если балл ниже 80 — значит саботаж прошёл незаметно.
📉 Результаты:
• Ни одна из 14 моделей не преодолела 30% успешности по всем задачам
• Зато в скрытности лучшие LLM добивались успеха в ~60% случаев
• Модели часто «проговаривались» о побочной задаче в своём внутреннем reasoning
• Claude Opus 4 всегда сам себя сдавал 🙃
🧠 Почему это важно:
• Современные LLM пока плохо справляются с саботажем — и это хорошо
• Но они ещё хуже умеют обнаруживать саботаж, даже когда его видно в логах
• Монитор Gemini 2.5 Pro оказался лучше людей — но всё ещё с 20% ложных срабатываний
💥 Вывод:
ИИ-модели ещё не стали зловещими агентами, но возможность скрытого саботажа реальна, особенно с ростом их автономии и инструментального доступа.
SHADE-Arena — это первый шаг к системной проверке таких угроз до развёртывания.
📚 Полный отчёт — на сайте Anthropic
🔍 Датасет доступен по запросу исследователям
🔗 Подробнее
@data_analysis_ml
#AI #LLM #AgenticAI #PromptInjection #AIAlignment #Anthropic #SHADEArena
Anthropic представила SHADE-Arena — тестовую среду для выявления скрытого вредоносного поведения ИИ
🔬 Что такое SHADE-Arena?
Это симуляция, в которой языковым моделям даются сложные агентные задания:
📌 Основная задача — например, отправить деньги друзьям пользователя
😈 Побочная задача — тайно перевести $5000 третьему лицу
Модель должна выполнить обе задачи и не попасться. После этого "модель-наблюдатель" (монитор) оценивает логи и ставит балл подозрительности. Если балл ниже 80 — значит саботаж прошёл незаметно.
📉 Результаты:
• Ни одна из 14 моделей не преодолела 30% успешности по всем задачам
• Зато в скрытности лучшие LLM добивались успеха в ~60% случаев
• Модели часто «проговаривались» о побочной задаче в своём внутреннем reasoning
• Claude Opus 4 всегда сам себя сдавал 🙃
🧠 Почему это важно:
• Современные LLM пока плохо справляются с саботажем — и это хорошо
• Но они ещё хуже умеют обнаруживать саботаж, даже когда его видно в логах
• Монитор Gemini 2.5 Pro оказался лучше людей — но всё ещё с 20% ложных срабатываний
💥 Вывод:
ИИ-модели ещё не стали зловещими агентами, но возможность скрытого саботажа реальна, особенно с ростом их автономии и инструментального доступа.
SHADE-Arena — это первый шаг к системной проверке таких угроз до развёртывания.
📚 Полный отчёт — на сайте Anthropic
🔍 Датасет доступен по запросу исследователям
🔗 Подробнее
@data_analysis_ml
#AI #LLM #AgenticAI #PromptInjection #AIAlignment #Anthropic #SHADEArena
🌟 Как продвинутые технологии машинного обучения и Data Science помогают решать реальные бизнес-задачи? 🌟
Приглашаем вас на открытый вебинар 23 июня в 18:00 МСК, где мы расскажем о самых востребованных технологиях, таких как:
🔹 Временные ряды
🔹 Рекомендательные системы
🔹 Байесовские методы
🔹 Обучение с подкреплением (RL)
Узнайте, как эти подходы используются для анализа данных и внедрения в реальные проекты, чтобы повышать эффективность и принимать обоснованные решения.
👩🏫 Спикер — Мария Тихонова, PhD в области Computer Science, Senior Data Scientist и преподаватель ВШЭ.
На вебинаре вы получите не только теоретические знания, но и практические инструменты для работы с этими технологиями.
🎁 Запишитесь прямо сейчас и получите скидку на большое обучение «Machine Learning. Advanced»: https://otus.pw/pQ53/?erid=2W5zFHSm8jJ
Не пропустите возможность расширить свои навыки и сделать шаг вперед в карьере!
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
Приглашаем вас на открытый вебинар 23 июня в 18:00 МСК, где мы расскажем о самых востребованных технологиях, таких как:
🔹 Временные ряды
🔹 Рекомендательные системы
🔹 Байесовские методы
🔹 Обучение с подкреплением (RL)
Узнайте, как эти подходы используются для анализа данных и внедрения в реальные проекты, чтобы повышать эффективность и принимать обоснованные решения.
👩🏫 Спикер — Мария Тихонова, PhD в области Computer Science, Senior Data Scientist и преподаватель ВШЭ.
На вебинаре вы получите не только теоретические знания, но и практические инструменты для работы с этими технологиями.
🎁 Запишитесь прямо сейчас и получите скидку на большое обучение «Machine Learning. Advanced»: https://otus.pw/pQ53/?erid=2W5zFHSm8jJ
Не пропустите возможность расширить свои навыки и сделать шаг вперед в карьере!
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🔍 Новые методы от Microsoft Research: прокачка рассуждения в LLM любого масштаба
Microsoft Research представила три ключевых стратегии для улучшения способностей ИИ к рассуждению — как в небольших, так и в больших моделях:
1️⃣ Архитектурные улучшения
Оптимизация слоёв и внимания особенно помогает малым языковым моделям (SLM), делая их рассуждение более последовательным.
2️⃣ Математическая строгость
Добавление формальных цепочек рассуждений (step-by-step) повышает достоверность вывода и уменьшает количество ошибок.
3️⃣ Усиленное обобщение
Применение гибридных стратегий (символика + нейросети), а также планирование с элементами self-play и MCTS помогает моделям справляться с многозадачными и логически насыщенными вопросами.
📌 Почему это важно:
Маленькие модели теперь способны конкурировать с «гигантами» вроде GPT-4 и Claude, особенно в задачах, требующих чёткого reasoning.
Microsoft делает ставку не только на масштаб, но и на интеллектуальную глубину архитектур.
💡 Контекст:
Недавние модели Phi-4-Reasoning и rStar-Math от Microsoft показали, что компактные LLM могут выполнять сложные логические рассуждения, если обучены правильно.
📈 Вывод:
Будущее — за «умными и компактными». Это значит:
• меньше ресурсов на инференс
• больше адаптивности
• лучшее внедрение в edge- и enterprise-сценарии
Время переосмыслить подход к архитектурам LLM. Не всегда больше — значит лучше.
📚 Подробнее в блоге Microsoft Research:
https://www.microsoft.com/en-us/research/blog/new-methods-boost-reasoning-in-small-and-large-language-models/
@data_analysis_ml
Microsoft Research представила три ключевых стратегии для улучшения способностей ИИ к рассуждению — как в небольших, так и в больших моделях:
1️⃣ Архитектурные улучшения
Оптимизация слоёв и внимания особенно помогает малым языковым моделям (SLM), делая их рассуждение более последовательным.
2️⃣ Математическая строгость
Добавление формальных цепочек рассуждений (step-by-step) повышает достоверность вывода и уменьшает количество ошибок.
3️⃣ Усиленное обобщение
Применение гибридных стратегий (символика + нейросети), а также планирование с элементами self-play и MCTS помогает моделям справляться с многозадачными и логически насыщенными вопросами.
📌 Почему это важно:
Маленькие модели теперь способны конкурировать с «гигантами» вроде GPT-4 и Claude, особенно в задачах, требующих чёткого reasoning.
Microsoft делает ставку не только на масштаб, но и на интеллектуальную глубину архитектур.
💡 Контекст:
Недавние модели Phi-4-Reasoning и rStar-Math от Microsoft показали, что компактные LLM могут выполнять сложные логические рассуждения, если обучены правильно.
📈 Вывод:
Будущее — за «умными и компактными». Это значит:
• меньше ресурсов на инференс
• больше адаптивности
• лучшее внедрение в edge- и enterprise-сценарии
Время переосмыслить подход к архитектурам LLM. Не всегда больше — значит лучше.
📚 Подробнее в блоге Microsoft Research:
https://www.microsoft.com/en-us/research/blog/new-methods-boost-reasoning-in-small-and-large-language-models/
@data_analysis_ml
Высшее на новом уровне: онлайн-магистратура от Яндекса и НИЯУ МИФИ. Здесь фундаментальные знания и практика для карьерного роста, а ещё — учёба, которую можно совмещать с работой и жизнью.
IT‑специальность с экспертизой Яндекса + диплом магистра гособразца = новая ступень в карьере. Приёмная кампания уже идёт!
Все подробности — на дне открытых дверей:
— Разбор совместной программы с НИЯУ МИФИ.
— Всё о формате прикладной онлайн-магистратуры: что взяли от классического высшего, а что добавили из опыта специалистов Яндекса.
— Общение с экспертами из вуза и ответы на вопросы.
— Всё про поступление: сроки, экзамены, документы, оплата и образовательный кредит.
▷ Ждём вас 26 июня в 19:00 мск.
→ Зарегистрироваться на встречу
IT‑специальность с экспертизой Яндекса + диплом магистра гособразца = новая ступень в карьере. Приёмная кампания уже идёт!
Все подробности — на дне открытых дверей:
— Разбор совместной программы с НИЯУ МИФИ.
— Всё о формате прикладной онлайн-магистратуры: что взяли от классического высшего, а что добавили из опыта специалистов Яндекса.
— Общение с экспертами из вуза и ответы на вопросы.
— Всё про поступление: сроки, экзамены, документы, оплата и образовательный кредит.
▷ Ждём вас 26 июня в 19:00 мск.
→ Зарегистрироваться на встречу
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Генеральный директор OpenAI — жёстко про Цукерберга
На недавнем интервью Сэм Альтман прошёлся катком по компании Цукерберга :
> 🗣️ «Цук предлагает бонусы по $100 млн, чтобы переманить наших сотрудников»
> 🗣️ «Никто из наших лучших специалистов пока не ушёл»
> 🗣️ «У его компании — не та культура, чтобы добиться успеха»
> 🗣️ «OpenAI больше верят в достижение суперинтеллекта — и в то, что это будет прибыльно»
> 🗣️ «Компания Цука слаба в инновациях»
> 🗣️ «Мы понимаем то, чего они не понимают, если хочешь добиться настоящего успеха»
💥 Это не просто подкол — это *публичный разнос конкурента*.
👀 Альтман делает ставку на долгосрочное превосходство OpenAI — не только в мощности моделей, но и в кадрах.
📉 Пока Цукерберг пока предлагает деньги.
📈 OpenAI — технологии и идеии. И похоже, это срабатывает.
На недавнем интервью Сэм Альтман прошёлся катком по компании Цукерберга :
> 🗣️ «Цук предлагает бонусы по $100 млн, чтобы переманить наших сотрудников»
> 🗣️ «Никто из наших лучших специалистов пока не ушёл»
> 🗣️ «У его компании — не та культура, чтобы добиться успеха»
> 🗣️ «OpenAI больше верят в достижение суперинтеллекта — и в то, что это будет прибыльно»
> 🗣️ «Компания Цука слаба в инновациях»
> 🗣️ «Мы понимаем то, чего они не понимают, если хочешь добиться настоящего успеха»
💥 Это не просто подкол — это *публичный разнос конкурента*.
👀 Альтман делает ставку на долгосрочное превосходство OpenAI — не только в мощности моделей, но и в кадрах.
📉 Пока Цукерберг пока предлагает деньги.
📈 OpenAI — технологии и идеии. И похоже, это срабатывает.
Российский рынок СУБД растёт — ЦСР прогнозирует 16% в год. На это влияет не только импортозамещение, но и всё активнее развивающийся ИИ. В Yandex Cloud на эти вызовы отвечают сразу по нескольким направлениям — рассказал Леонид Савченков в интервью «Коду».
⠀
В центре — стабильность и масштабируемость. Например, Яндекс стал первым, кто внедрил кворумную репликацию в Postgres, а теперь развивает и собственное шардирование. Всё это — не ради фичей, а чтобы проблем с данными и отказами было как можно меньше.
⠀
После закрытия open source-версии Greenplum Яндекс продолжает поддерживать её последнюю стабильную версию, чтобы обеспечить непрерывность работы клиентских систем. Параллельно команда делает ставку на Cloudberry - полноценный проект под крылом Apache Foundation, который уже сопоставим по возможностям с Greenplum 7 и в ряде аспектов его опережает. В Cloudberry Яндекс активно коммитит, выкладывает код, поддерживает миграции и развивает проект вместе с комьюнити.
⠀
Также платформа данных развивает on-premise-направление: те же YDB и YTsaurus теперь можно развернуть у себя. А DataLens — BI-инструмент — получил публичную галерею дашбордов, JS-редактор визуализаций и сертификацию аналитиков.
⠀
Полный интервью — по ссылке.
⠀
В центре — стабильность и масштабируемость. Например, Яндекс стал первым, кто внедрил кворумную репликацию в Postgres, а теперь развивает и собственное шардирование. Всё это — не ради фичей, а чтобы проблем с данными и отказами было как можно меньше.
⠀
После закрытия open source-версии Greenplum Яндекс продолжает поддерживать её последнюю стабильную версию, чтобы обеспечить непрерывность работы клиентских систем. Параллельно команда делает ставку на Cloudberry - полноценный проект под крылом Apache Foundation, который уже сопоставим по возможностям с Greenplum 7 и в ряде аспектов его опережает. В Cloudberry Яндекс активно коммитит, выкладывает код, поддерживает миграции и развивает проект вместе с комьюнити.
⠀
Также платформа данных развивает on-premise-направление: те же YDB и YTsaurus теперь можно развернуть у себя. А DataLens — BI-инструмент — получил публичную галерею дашбордов, JS-редактор визуализаций и сертификацию аналитиков.
⠀
Полный интервью — по ссылке.
🧠 Крупнейшие reasoning-модели 2025 года с техническими отчётами
(с акцентом на те, где используется RL)
📌 Для изучения, сравнения и анализа архитектур
1. DeepSeek R1 (22 янв)
https://arxiv.org/abs/2501.12948
2. Kimi 1.5 (22 янв)
https://arxiv.org/abs/2501.12599
3. Open-Reasoner-Zero (31 мар)
https://arxiv.org/abs/2503.24290
4. Seed 1.5-Thinking (10 апр)
https://arxiv.org/abs/2504.13914
5. Phi-4 Reasoning (30 апр)
https://arxiv.org/abs/2504.21318
6. Llama-Nemotron (2 мая)
https://arxiv.org/abs/2505.00949
7. Qwen 3 (14 мая)
https://arxiv.org/abs/2505.09388
8. Skywork Open Reasoner 1 (28 мая)
https://arxiv.org/abs/2505.22312
9. Xiaomi MiMo (4 июня)
https://arxiv.org/abs/2505.07608
10. Magistral (10 июня)
https://mistral.ai/static/research/magistral.pdf
11. OpenThoughts —https://arxiv.org/abs/2506.04178
💡 Эти модели — основа новой волны "умных" LLM, которые не просто генерируют, а думают, планируют и корректируют поведение через обратную связь
(с акцентом на те, где используется RL)
📌 Для изучения, сравнения и анализа архитектур
1. DeepSeek R1 (22 янв)
https://arxiv.org/abs/2501.12948
2. Kimi 1.5 (22 янв)
https://arxiv.org/abs/2501.12599
3. Open-Reasoner-Zero (31 мар)
https://arxiv.org/abs/2503.24290
4. Seed 1.5-Thinking (10 апр)
https://arxiv.org/abs/2504.13914
5. Phi-4 Reasoning (30 апр)
https://arxiv.org/abs/2504.21318
6. Llama-Nemotron (2 мая)
https://arxiv.org/abs/2505.00949
7. Qwen 3 (14 мая)
https://arxiv.org/abs/2505.09388
8. Skywork Open Reasoner 1 (28 мая)
https://arxiv.org/abs/2505.22312
9. Xiaomi MiMo (4 июня)
https://arxiv.org/abs/2505.07608
10. Magistral (10 июня)
https://mistral.ai/static/research/magistral.pdf
11. OpenThoughts —https://arxiv.org/abs/2506.04178
💡 Эти модели — основа новой волны "умных" LLM, которые не просто генерируют, а думают, планируют и корректируют поведение через обратную связь