Eso-LM - это новый класс языковых моделей, сочетающий автогрегрессионные (AR) и маскированные диффузионные методы (MDM), чтобы сбалансировать качество генерации и скорость работы.
Основная идея состоит в том, чтобы устранить слабые места обеих технологий: медленное выполнение AR-моделей и низкую эффективность MDM при сохранении их ключевых преимуществ - параллелизма.
Архитектура строится на гибридной функции потерь, которая одновременно обучает модель как AR-генератору, так и MDM-декодеру. Это достигается через модифицированный механизм внимания, который динамически переключается между причинным (для AR-фазы) и двусторонним (для MDM-фазы) режимами.
В отличие от классических MDM, Eso-LM использует разреженные матрицы внимания, позволяя кэшировать KV даже во время диффузионного этапа. Эта техника ощутимо сокращает вычислительную нагрузку за счет обработки только тех токенов, которые нужно «демаскировать» на каждом шаге.
Процесс генерации разбит на 2 стадии:
Обе стадии используют единый KV-кэш, что исключает повторные вычисления и ускоряет работу в разы. В итоге, для длинных последовательностей (8192 токена), Eso-LM работает в 65 раз быстрее, чем стандартные MDM.
Экспериментальные модели обучали на сетах LM1B (1 млрд. слов) и OpenWebText с использованием токенизаторов BERT и GPT-2 соответственно.
Тесты показали, что Eso-LM не только улучшает скорость, но и устраняет «модовое коллапсирование» (деградацию качества при малом числе шагов), характерное для предыдущих решений (BD3-LM).
На наборе OWT модель достигла уровня perplexity 21.87 при высокой скорости генерации, оставаясь конкурентоспособной как с MDM, так и с AR-моделями.
@ai_machinelearning_big_data
#AI #ML #LLM #EsoLM #HybridModel
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Анализ данных (Data analysis)
Apple внезапно опубликовала исследование, которое разоблачает популярные LLM с "цепочкой размышлений" (Chain-of-Thought) — такие как Gemini 2.5 Pro, OpenAI o3 и DeepSeek R1.
📌 Что тестировали?
Логические задачи:
• башни Ханоя (100+ шагов!)
• загадка про волка, козу и капусту
• головоломки с правилами и условиями
И всё это — с усложнением.
💥 Результаты:
— 🔁 Модели не думают, а вспоминают
Они не решают задачу шаг за шагом, а ищут похожие примеры в своей базе знаний. Это имитация мышления, а не само мышление.
— 🤯 "Переосмысление" вредит
Если задача простая, модель находит верный ответ — и… продолжает «думать» дальше, усложняя всё и случайно портя решение.
— 🧠 Больше размышлений ≠ лучше результат
Дать больше токенов и времени на размышления не помогает. На сложных задачах модели просто сдаются быстрее. Даже "бесконечный" бюджет не спасает.
— 🧪 Few-shot примеры не работают
Даже если расписать пошаговое решение и дать примеры — модель всё равно ломается, если задача ей незнакома.
— 🏗 Модели обожают Ханой, но ненавидят загадки
Башни Ханоя решаются идеально даже на 100+ шагов.
А вот в простой задаче с козой и капустой — модели сдаются на 4-м шаге. Почему? Ханой — в датасетах, загадки про реку — нет.
🍏 Интересно, что Apple выпустила это исследование за день до WWDC 2025.
Подколка конкурентам? А завтра, может, и своё покажут. 🤔
📎 Исследование: https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf
@data_analysis_ml
#AI #LLM #AGI #Apple #WWDC2025 #PromptEngineering #NeuralNetworks
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Когда мир говорит: «Ты слишком» — Сбер отвечает: «Нам подходит»
Слишком амбициозный?
Слишком нестандартный?
Слишком умный, громкий, яркий?
Для Сбера — это преимущество!
Веди за собой команду, создавай новые продукты, помогай людям.
Будь собой — в команде, где возможно всё 💚
Please open Telegram to view this post
VIEW IN TELEGRAM
📈 Количество пользователей растет у всех , но ChatGPT — вне конкуренции
Но ChatGPT растет быстрее всех.
Почти все крупные сайты растут, но ChatGPT показывает непрерывный и аномальный взлёт. В мае 2025 года его посещаемость выросла на +6,82% по сравнению с апрелем.
И это говорит о двух вещах:
1️⃣ ИИ стал по-настоящему массовым
Все меньше людей , которые не использует ИИ — в работе, учёбе или просто в быту. Это уже не будущее — это часть повседневности.
2️⃣ OpenAI наращивает отрыв
Именно поэтому GPT‑5 — будет не просто новой моделью, это стратегическая ставка на доминирование на ИИ рынке.
У модели есть шанс пробить магическую планку в 1 миллиард пользователей и окончательно закрепить лидерство OpenAI.
@ai_machinelearning_big_data
#chatgpt #openai #news #ml #ai
Но ChatGPT растет быстрее всех.
Почти все крупные сайты растут, но ChatGPT показывает непрерывный и аномальный взлёт. В мае 2025 года его посещаемость выросла на +6,82% по сравнению с апрелем.
И это говорит о двух вещах:
1️⃣ ИИ стал по-настоящему массовым
Все меньше людей , которые не использует ИИ — в работе, учёбе или просто в быту. Это уже не будущее — это часть повседневности.
2️⃣ OpenAI наращивает отрыв
Именно поэтому GPT‑5 — будет не просто новой моделью, это стратегическая ставка на доминирование на ИИ рынке.
У модели есть шанс пробить магическую планку в 1 миллиард пользователей и окончательно закрепить лидерство OpenAI.
@ai_machinelearning_big_data
#chatgpt #openai #news #ml #ai