This media is not supported in your browser
VIEW IN TELEGRAM
Новую функцию внедрили как обновление Dream Screen. Ранее опция позволяла только сгенерировать для видео фон.
Результат затем можно добавить к «живым» съёмкам с помощью простой склейки. Учитывая, что представленная в декабре Veo 2 уже отличилась высоким вниманием к деталям в промтах, нас вполне может ждать целый бум контента, который будет сложно навскидку отличить от реального.
Хотя первые примеры применения модели в Shorts, честно, не впечатляют — особенно если вспомнить, какие результаты нам показывали на генерациях с Veo 2. Но зато этот инструмент уже доступен всем и бесплатно.
Please open Telegram to view this post
VIEW IN TELEGRAM
Первые контракты на получение размеченных материалов участники инициативы смогут заключить уже в феврале. Проходить всё это будет на безвозмездной основе, рассказал Ведомостям представитель аппарата вице-премьера Дмитрия Григоренко.
Оператором передачи данных выступает Минцифры. В соглашениях, разработанных согласно утверждённому Григоренко плану, обозначены задачи, сроки передачи, период, в течение которого получающая сторона может использовать эту информацию, а также гарантии целевого использования и защиты от их распространения третьим лицам.
Вообще, сам запуск такой инициативы выглядит интересно. В отдельных кейсах применение госданным явно найдётся: например, в 2024 году была выполнена разметка материалов на основе съёмки с БПЛА и из космоса для определения категорий ТС, древесного состава и состояния лесов, а также сельхозугодий.
Please open Telegram to view this post
VIEW IN TELEGRAM
Ведомости
Государство даст компаниям и физлицам доступ к собранным властями данным
На этих размеченных базах разработчики смогут обучать и тестировать алгоритмы искусственного интеллекта
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
Утверждается, что в Humanity's Last Exam сервис набрал 21,1% против 26,6% у версии OpenAI. Казалось бы, вот она, революция! Одними экспериментами Hugging Face дело больше не ограничивается. Но на практике всё оказалось куда скучнее.
Прошёлся по Perplexity с вопросами из сферы исторических исследований и рыночного анализа. Несмотря на все уточнения, получил максимально поверхностные ответы, в основном собранные из онлайн-энциклопедий и первых результатов выдачи в поиске.
В общем, не верим бенчмаркам и хайпожорам-убийцам OpenAI, смотрим на фактическую производительность :)
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
www.perplexity.ai
Introducing Perplexity Deep Research
Deep Research accelerates question answering by completing in 2-4 minutes what would take a human expert many hours.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Ух ты, Микрософт опенсорснул новую версию OmniParser V2. С коннекторами.
Нет, это не ответочка Operator-y и не агент для управления вашим компом.
Это улучшайзер первой части работы Оператора и ему подобных систем - сильно оптимизированное распознавание содержимого вашего экрана.
Так и пишут: OMNIPARSER, метод разбора скриншотов пользовательского интерфейса на структурированные элементы, который значительно повышает способность GPT-4V генерировать действия.
Более того, этот парсер-распознаватель экрана может быть пристегнут (опенсорс жеж) как плагин и к другим LLM.
И по этому поводу они также релизнули OmniTool: Control a Windows 11 VM with OmniParser + your vision model of choice. И вот это круто ибо тул может работать с: OpenAI (4o/o1/o3-mini), DeepSeek (R1), Qwen (2.5VL) или Anthropic Computer Use
Интересно наблюдать за процессом "декомпозиции" мозгов LLM. Помните писал про Глубокую Клодку, что расщепление на рассуждающую и отвечающую часть, приводит к улучшению качества ответов. Теперь можно отщепить "зрение" или воспринимающую часть. И комбинировать разные "восприниматоры" и "отвечаторы".
А "восприниматоры" тоже можно разделить по областям: распознаватели экрана, спортивных трансляций, жизни насекомых. Надеваем на LLM разные очки и ну улучшать качество ответов вижен-моделей и не только.
В общем мозги для ИИ сделали, пока заняться нервной системой.
Код и все дела тут:
https://microsoft.github.io/OmniParser/
@cgevent
Нет, это не ответочка Operator-y и не агент для управления вашим компом.
Это улучшайзер первой части работы Оператора и ему подобных систем - сильно оптимизированное распознавание содержимого вашего экрана.
Так и пишут: OMNIPARSER, метод разбора скриншотов пользовательского интерфейса на структурированные элементы, который значительно повышает способность GPT-4V генерировать действия.
Более того, этот парсер-распознаватель экрана может быть пристегнут (опенсорс жеж) как плагин и к другим LLM.
И по этому поводу они также релизнули OmniTool: Control a Windows 11 VM with OmniParser + your vision model of choice. И вот это круто ибо тул может работать с: OpenAI (4o/o1/o3-mini), DeepSeek (R1), Qwen (2.5VL) или Anthropic Computer Use
Интересно наблюдать за процессом "декомпозиции" мозгов LLM. Помните писал про Глубокую Клодку, что расщепление на рассуждающую и отвечающую часть, приводит к улучшению качества ответов. Теперь можно отщепить "зрение" или воспринимающую часть. И комбинировать разные "восприниматоры" и "отвечаторы".
А "восприниматоры" тоже можно разделить по областям: распознаватели экрана, спортивных трансляций, жизни насекомых. Надеваем на LLM разные очки и ну улучшать качество ответов вижен-моделей и не только.
В общем мозги для ИИ сделали, пока заняться нервной системой.
Код и все дела тут:
https://microsoft.github.io/OmniParser/
@cgevent
🇨🇳Председатель Си встретился лично с крупнейшими предпринимателями страны, занимающимися технологическим бизнесом – от производства микросхем и электромобилей до искусственного интеллекта. СМИ пишут, что эта встреча знаменует изменение прохладного отношения китайского руководства к частному технологическому бизнесу, в котором оно пребывало последние несколько лет. На саммите присутствовали Джек Ма из Alibaba, Пони Ма из Tencent. Говорят, там был и Лян Вэньфэн, основатель DeepSeek, но камеры госТВ его не показывали и про DeepSeek не упоминали. В условиях замедления китайской экономики, партия и правительство, видимо, надеются выехать на частном ИИ-бизнесе, и возможно, как и США, собирается ослабить регуляторную удавку. Интересно даже, что сказал бы на это председатель Мао.
Между тем, власти Южной Кореи запретили скачивание приложения DeepSeek после того, как компания признала, что не учла некоторые из правил ведомства по защите персональных данных. Работа приложения будет возобновлена, как только будут внесены изменения в соответствии с законом о защите персональных данных.
Акции Tencent достигли рекордных уровней после того, как компания заявила, что начала тестировать доступ к AI-модели DeepSeek для функции поиска в своем приложении Weixin в дополнение к своей собственной модели Hunyuan. Tencent изучает возможность интеграции нескольких продуктов с DeepSeek, включая Tencent Cloud AI Code Assistant и приложение-ассистент Tencent Yuanbao.
Но когда она все-таки будет доработана, Apple планирует добавить Apple Intelligence в гарнитуру Vision Pro, так бездарно провалившуюся. Компания планирует внедрить интерфейс Writing Tools, Genmojis и приложение Image Playground в рамках обновления программного обеспечения visionOS 2.4, которое планируется выпустить в апреле.
Впрочем, скоро, возможно, мы услышим про плоскую землю и заговор сионских мудрецов и от ChatGPT. OpenAI меняет методы обучения ИИ-моделей, чтобы четко придерживаться «интеллектуальной свободы... независимо от того, насколько сложной или противоречивой может быть тема», - говорится в новой политике компании. В результате ChatGPT сможет отвечать на большее количество вопросов, предлагать больше точек зрения и сократить количество тем, о которых чатбот ИИ не будет говорить.
Отчет о вскрытии разоблачителя OpenAI и ее бывшего сотрудника Сучира Баладжи говорит, что он застрелился сам. В октябре прошлого года Баладжи через СМИ обвинил OpenAI в нарушении копирайта для обучения своих AI-моделей. Он предоставил информацию The New York Times, которая позже назвала его ключевой фигурой с «уникальными документами» в иске газеты против OpenAI. А 26 ноября он был найден мертвым в своей квартире в Сан-Франциско. За несколько дней до смерти Баладжи, по словам его родителей, был в приподнятом настроении, праздновал свой 26-й день рождения и планировал некоммерческую деятельность в области машинного обучения.
Please open Telegram to view this post
VIEW IN TELEGRAM
Bloomberg.com
Xi Jinping Attends Meeting With Chinese Private Sector Leaders
Chinese President Xi Jinping presided over a meeting with Alibaba co-founder Jack Ma and other prominent entrepreneurs on Monday, signaling Beijing’s endorsement for a long-marginalized private sector now considered key to reviving the world’s No. 2 economy.
Неискусственный интеллект
Please open Telegram to view this post
VIEW IN TELEGRAM
Скоро у каждой собаки ИИ-модели будут свои чипы
Незаслуженно незамеченной в телеграме прошла новость о том, что DeepSeek планирует разработать собственный чип для искусственного интеллекта. Как говорят источники в СМИ, это поможет снизить зависимость от американских технологий и укрепить позиции компании на рынке ИИ. На фоне новостей о том, что компания использует Ascend 910C от Хуавей для инференса, а также количества стартапов в Китае, которые пытаются делать свои ИИ-чипы, эта новость выглядит несколько странно.Хотя недавно DeepSeek обвиняли в обходе экспортных ограничений США при покупке чипов Nvidia через посредников в Сингапуре.
Возможно, история с Хуавей была вброшена для поднятия патриотических настроений. А может, DeepSeek хочет продавить Хуавей на более выгодные цены за облако и ускорители? В любом случае, новость выглядит так, что теперь каждый уважающий себя ИИ-стартап должен начать разработку своего ИИ-чипа. В России, к слову, этим тоже занимается "ИИ-стартап у нас дома" — Сбер, который взял за основую открытую процессорную архитектуру RISC-V. Отечественный поисковый гигант пока молчит.
@anti_agi
Незаслуженно незамеченной в телеграме прошла новость о том, что DeepSeek планирует разработать собственный чип для искусственного интеллекта. Как говорят источники в СМИ, это поможет снизить зависимость от американских технологий и укрепить позиции компании на рынке ИИ. На фоне новостей о том, что компания использует Ascend 910C от Хуавей для инференса, а также количества стартапов в Китае, которые пытаются делать свои ИИ-чипы, эта новость выглядит несколько странно.Хотя недавно DeepSeek обвиняли в обходе экспортных ограничений США при покупке чипов Nvidia через посредников в Сингапуре.
Возможно, история с Хуавей была вброшена для поднятия патриотических настроений. А может, DeepSeek хочет продавить Хуавей на более выгодные цены за облако и ускорители? В любом случае, новость выглядит так, что теперь каждый уважающий себя ИИ-стартап должен начать разработку своего ИИ-чипа. В России, к слову, этим тоже занимается "ИИ-стартап у нас дома" — Сбер, который взял за основую открытую процессорную архитектуру RISC-V. Отечественный поисковый гигант пока молчит.
@anti_agi
DIGITIMES
DeepSeek reportedly exploring in-house chip development
Chinese AI company DeepSeek has initiated a major recruitment drive for semiconductor design talent, signaling potential plans to develop its proprietary processors, according to industry sources in China.
Forwarded from Kali Novskaya
🌸Опенсорс от HuggingFace: рекап за год🌸
#nlp #про_nlp #nlp_papers
HuggingFace подвели итоги всех открытых проектов, которые научная команда стартапа нициировала за прошедший год. Давайте вместе посмотрим, как много на самом деле значит сила открытого сообщества и организованного труда!
Январь 2025
🐳Open-R1 – открытая инициатива по воспроизведению результатов DeepSeek R1, включая методы пост-тренинга и датасеты. Результаты воспроизводятся! Apache 2.0
🛠️SmolAgents – фреймворк с полезным абстракциями для построения LLM-агентов, с типичной логикой и классами. Из коробки предлагается использовать поиск DuckDuckGo
и открытые LLM. Apache 2.0
Декабрь 2024
📈Scaling Test Time Compute – подробный разбор стратегий test-time compute методов на примере моделей Llama
📐FineMath – подкорпус на 54 млрд токенов из FineWeb, содержащий математический контент, в том числе пошаговые решения. Есть еще его корпус-побратим FineWeb-edu с образовательными текстами. Лицензия ODC-by
Ноябрь 2024
🤓SmolVLM – visual-версия SmolLM, принимает на вход картинки и текст. Apache 2.0
Октябрь 2024
🔎LLM Evaluation Guidebook – подробный материал с лучшими практиками по оценке языковых моделей, включая составление тестов, инструкции аннотаторам, использование LLM-as-a-judge
🗺️FineTasks – бечнмарк для оценки качества претрейна LLM на множестве языков. Лицензия ODC-by
Сентябрь 2024
🎥FineVideo – датасет на 43 тысячи видео для обучения SORA-like моделей видео-генерации, своя лицензия License CC-By
Лето 2024
📣Speech-to-Speech, Speech-to-Speech Multilingual – попытка создания модульной GPT4-o. Модули вклают в себя открытые LLM, а также модели STT и TTS, и даже voice activity detection от Silero
🥇Win AIMO – AI Mathemathical Olympiad соревнование выиграно на основе открытых моделей
🤗SmolLM – семейство открытых моделей мини-размера: 135M, 360M, and 1.7B параметров. Пригодно для on-device и real-time задач, при этом сами модели получены не путем дистиллирования, а просто обучены на очень качественных данных: курируемых датасетах с кодом, образовательным контентом и фактологией. Apache 2.0
🤖LeRobot,LeRobot Tutorial – курируемый набор моделей, фреймворков, датасетов и туториалов для робототехнического прототипирования. Apache 2.0
Весна 2024
🍷FineWeb – огромный очищенный интернет-корпус для предобучения больших языковых моделей на 15 триллионов токенов. Есть мультиязычная версия, я теперь еще и бенчмарк, доказывающий, что корпус лучше остальных для сходимости моделей. Лицензия ODC-by
🏆Zephyr Mixtral , Zephyr Gemma – быстрые повторения моделей Gemma и Mixtral на основе синтетических датасетов, обе под своими собственными лицензиями.
⛅Lighteval Release – открытый фреймворк для эффективной и полной оценки LLM (теперь еще и многоязычный). MIT License
⭐️The Stack v2 – очищенный (и лицензионно чистый) датасет для обучения кодовых LLM. Своя собственная лицензия
⭐️StarCoder2 – улучшенная версия модели для генерации кода StarCoder. OpenRAIL license
🌌Cosmopedia – синтетически сгенерированный корпус с фактологически верной информацией, основанной на лицензионно чистых источниках. Apache 2.0
В целом, исключительно постоянная организационная работа с сообществом и позволяет нагнать закрытые модели, потому что постоянно создаются строящиеся кирпичики, на которых создается дальнейшая воспроизводимость – инфраструктура, модели, датасеты, подходы.
🟣 Блог-пост с проектами
https://huggingface.co/science
#nlp #про_nlp #nlp_papers
HuggingFace подвели итоги всех открытых проектов, которые научная команда стартапа нициировала за прошедший год. Давайте вместе посмотрим, как много на самом деле значит сила открытого сообщества и организованного труда!
Январь 2025
🐳Open-R1 – открытая инициатива по воспроизведению результатов DeepSeek R1, включая методы пост-тренинга и датасеты. Результаты воспроизводятся! Apache 2.0
🛠️SmolAgents – фреймворк с полезным абстракциями для построения LLM-агентов, с типичной логикой и классами. Из коробки предлагается использовать поиск DuckDuckGo
и открытые LLM. Apache 2.0
Декабрь 2024
📈Scaling Test Time Compute – подробный разбор стратегий test-time compute методов на примере моделей Llama
📐FineMath – подкорпус на 54 млрд токенов из FineWeb, содержащий математический контент, в том числе пошаговые решения. Есть еще его корпус-побратим FineWeb-edu с образовательными текстами. Лицензия ODC-by
Ноябрь 2024
🤓SmolVLM – visual-версия SmolLM, принимает на вход картинки и текст. Apache 2.0
Октябрь 2024
🔎LLM Evaluation Guidebook – подробный материал с лучшими практиками по оценке языковых моделей, включая составление тестов, инструкции аннотаторам, использование LLM-as-a-judge
🗺️FineTasks – бечнмарк для оценки качества претрейна LLM на множестве языков. Лицензия ODC-by
Сентябрь 2024
🎥FineVideo – датасет на 43 тысячи видео для обучения SORA-like моделей видео-генерации, своя лицензия License CC-By
Лето 2024
📣Speech-to-Speech, Speech-to-Speech Multilingual – попытка создания модульной GPT4-o. Модули вклают в себя открытые LLM, а также модели STT и TTS, и даже voice activity detection от Silero
🥇Win AIMO – AI Mathemathical Olympiad соревнование выиграно на основе открытых моделей
🤗SmolLM – семейство открытых моделей мини-размера: 135M, 360M, and 1.7B параметров. Пригодно для on-device и real-time задач, при этом сами модели получены не путем дистиллирования, а просто обучены на очень качественных данных: курируемых датасетах с кодом, образовательным контентом и фактологией. Apache 2.0
🤖LeRobot,LeRobot Tutorial – курируемый набор моделей, фреймворков, датасетов и туториалов для робототехнического прототипирования. Apache 2.0
Весна 2024
🍷FineWeb – огромный очищенный интернет-корпус для предобучения больших языковых моделей на 15 триллионов токенов. Есть мультиязычная версия, я теперь еще и бенчмарк, доказывающий, что корпус лучше остальных для сходимости моделей. Лицензия ODC-by
🏆Zephyr Mixtral , Zephyr Gemma – быстрые повторения моделей Gemma и Mixtral на основе синтетических датасетов, обе под своими собственными лицензиями.
⛅Lighteval Release – открытый фреймворк для эффективной и полной оценки LLM (теперь еще и многоязычный). MIT License
⭐️The Stack v2 – очищенный (и лицензионно чистый) датасет для обучения кодовых LLM. Своя собственная лицензия
⭐️StarCoder2 – улучшенная версия модели для генерации кода StarCoder. OpenRAIL license
🌌Cosmopedia – синтетически сгенерированный корпус с фактологически верной информацией, основанной на лицензионно чистых источниках. Apache 2.0
В целом, исключительно постоянная организационная работа с сообществом и позволяет нагнать закрытые модели, потому что постоянно создаются строящиеся кирпичики, на которых создается дальнейшая воспроизводимость – инфраструктура, модели, датасеты, подходы.
https://huggingface.co/science
Please open Telegram to view this post
VIEW IN TELEGRAM
huggingface.co
science (Hugging Face Science)
Org profile for Hugging Face Science on Hugging Face, the AI community building the future.
Утверждается, что Mistral Saba на 24 млрд параметров, работает с арабским контентом намного лучше, чем сопоставимая по масштабу Mistral Small 3. Преимущество модель также показала с языками индийского происхождения: особенно с южноиндийскими языками, такими как тамильский и малаялам.
Разработчики позиционируют свою модель как альтернативу топовым китайским и американским LLM и обещают обратить внимание на другие региональные языки в будущем.
Среди бонусов Mistral Saba отмечают возможность развернуть модель локально, что явно станет преимуществом для компаний, работающих в «чувствительных отраслях».
Министр цифровых технологий и искусственного интеллекта Клара Шаппас также заявила, что Франция определила 35 мест, которые можно использовать для строительства новых ЦОД с ускоренной процедурой административного согласования. Инвестиции ОАЭ, скорее всего, будут осуществляться в рамках этой программы.
Пока в странах БРИКС+ более 86% совокупного эффекта от внедрения ИИ приходится на Китай. По удельному эффекту на экономику ОАЭ и Индия отстают от этой страны примерно в два раза. Зато они вместе с Китаем входят в топ-15 мировых рынков частных инвестиций в ИИ.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
Grok 3 уже доступен обладателям подписки Premium+ на X. Разработчики также запускают отдельную опцию SuperGrok для пользователей мобильного приложения и веб-версии чат-бота. Предыдущую версию Grok 2 в скором времени выложат в opensource по уже сложившейся традиции.
Из интересного отмечают, что для обучения новой Grok 3 xAI запустила кластер на 100 тысяч видеокарт H100, а затем увеличила его в два раза. Для следующей версии модели планируется расширение мощностей сразу в 5 раз — до 1 млн GPU, которые будут потреблять 1,2 ГВт энергии.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Про самый умный на планете Grok, который не стал прорывом даже по внутренним бенчмаркам x.AI, мы уже написали, но надо дождаться независимых оценок. Релиз сделан очень кстати к новому раунду финансирования x.AI – компания надеется поднять $10 млрд по оценке в $75 млрд. Последняя известная оценка была $51 млрд. Ранее x.AI подняла 6 ярдов в декабре и 6 ярдов в мае.
Стартап Ильи Суцкевера Safe Superintelligence, как говорилось на прошлой неделе, оценивается в $30 млрд. Теперь стала известна привлекаемая сумма – более $1 млрд. Возглавит сделку Greenoaks Capital Partners, венчурная фирма из Сан-Франциско, которая планирует инвестировать $500 млн. Greenoaks также проинвестировал в Scale AI и Databricks. Ранее SSI оценивалась в 5 ярдов, привлекая деньги от Sequoia Capital и Andreessen Horowitz. Напомним, что Суцкевер хочет добиться безопасного для человечества AGI, и не собирается выводить продукт на рынок, пока не сделает этого. Безопасность ИИ в последние пару лет стала скорее лозунгом в политических баталиях. Сегодня в AI-гонке баланс явно сдвигается от безопасности к ускорению развития (и гори оно всё огнем!).
Политическим лозунгом стало и развитие ИИ в интересах всего человечества, а не горстки олигархов, которые теперь любят использовать этот лозунг друг против друга. Он стал краеугольным в попытках Маска вернуть себе влияние в OpenAI, из которого он так опрометчиво вышел несколько лет назад. Теперь же OpenAI рассматривает варианты защиты от враждебного поглощения со стороны Маска. Предлагается предоставить некоммерческому совету особое право голоса, чтобы сохранить власть. Оно позволит некоммерческому совету отменить решение крупных инвесторов, включая Microsoft и SoftBank, обеспечивая сохранение права принятия решений.
Крупный трансфер. Китайский ByteDance смог переманить крупного исследователя из Google. Ву Йонгуй 17 лет проработал в Гугле, был там вице-президентом и одним из ключевых исследователей, отвечавших за Gemini, а теперь возглавит AI R&D в ByteDance. Он уже приступил к работе в новой должности.
Из забавного: в то время как акции западных AI-компаний болтает вверх-вниз в зависимости от новостей из Китая, акции китайских компаний зависят от курса партии и правительства. СМИ не заметили на бизнес-саммите китайских технолидеров с участием председателя Си основателя Baidu Робена Ли. В итоге компания потеряла $2,4 млрд капитализации на торгах в Гонконге, после того как ее акции упали на 7%. Пекин – пуп земли!
The New York Times разрешила использовать ИИ продуктовым и редакционным сотрудникам. Компания сообщила о этом сотрудникам по электронной почте, объявив о дебюте своего нового внутреннего AI-инструмента суммаризации под названием Echo. Среди одобренных инструментов: для написания кода –помощник GitHub Copilot, для разработки продуктов – Vertex от Google, а также NotebookLM, некоторые AI-продукты Amazon и API OpenAI без ChatGPT через бизнес-аккаунт. ИИ сможет предлагать правки в статью, использоваться для мозгового штурма при составлении вопросов для интервью и помогать в проведении расследований. При этом запрещается использовать ИИ для создания или существенного редактирования статьи, а также загружать в него конфиденциальную информацию.
Please open Telegram to view this post
VIEW IN TELEGRAM
Китайский AI-стартап DeepSeek обновил информацию о своем бизнесе: по данным корпоративного реестра Tianyancha, теперь его сфера деятельности включает «информационные услуги в Интернете». По мнению аналитиков этот первый признак стремления DeepSeek монетизировать свою технологию – компания намерена отказаться от чистого R&D.
В предыдущем описании деятельности DeepSeek говорилось, что компания занимается инжинирингом и разработкой софта для искусственного интеллекта, что говорит о более исследовательском подходе.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
South China Morning Post
AI start-up DeepSeek moves towards monetisation with expanded business scope
DeepSeek, whose large language models are free to use, plans to expand into ‘internet information services’.
Please open Telegram to view this post
VIEW IN TELEGRAM
В выделенном режиме Dedicated Inference Endpoint клиент резервирует вычислительные мощности, подобрав конфигурацию после консультации со специалистами Яндекса. Так достигается стабильная работа сервиса даже при высоких нагрузках. Ещё на «выделенке» можно зафиксировать для работы определённые версии нейросетей для конкретных бизнес-задач.
Если говорить о пользе совсем «на пальцах»: новые модели появляются постоянно, и держать все из них на «горячем старте» в облаке нерационально. В случае с новой опцией клиенту не нужно самостоятельно готовить инфраструктуру, каждый раз настраивать работу модели и её мониторинг — всё сделают специалисты Яндекса.
У самого Яндекса с сентября прошлого года есть AI Studio, которая объединяет нейросети YandexGPT и YandexART, технологии синтеза и распознавания речи, интерактивную среду для обучения нейросетей и другие ML-решения компании. Для интеграции там также доступны и сторонние LLM, но не на выделенных мощностях.
Но вообще, конечно, ждём релиза какой-никакой, а открытой версии YandexGPT. Ну а пока наслаждаемся интеграциями с другими моделями: интересно, будут ли нас ждать новые коллаборации, вроде недавнего запуска модели DeepSeek Janus-Pro-7B в Шедевруме?
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
yandex.cloud
Foundation Models
Технологии машинного обучения для решения бизнес задач. Генеративные модели для создания, обработки и анализа текстов и изображений. Дообучение по методу Fine tuning.