Telegram Group Search
Памятка для тех, кто пойдет сегодня на первое свидание.
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Кажется, что brainrot-контента в соцсетях станет ещё больше. Сегодня YouTube запустил генерацию видео для Shorts с помощью модели Veo 2. Пока она доступна только пользователям в США, Австралии, Канаде и Новой Зеландии.

Новую функцию внедрили как обновление Dream Screen. Ранее опция позволяла только сгенерировать для видео фон.

✔️ Кнопка «Создать» теперь появляется при каждом запуске камеры в Shorts и предлагает пользователю ввести текстовый запрос, выбрать стиль видео или кинематографический эффект. Затем нужно выбрать один из четырёх вариантов по превью, чтобы YouTube сгенерировал короткую анимацию.

Результат затем можно добавить к «живым» съёмкам с помощью простой склейки. Учитывая, что представленная в декабре Veo 2 уже отличилась высоким вниманием к деталям в промтах, нас вполне может ждать целый бум контента, который будет сложно навскидку отличить от реального.

Хотя первые примеры применения модели в Shorts, честно, не впечатляют — особенно если вспомнить, какие результаты нам показывали на генерациях с Veo 2. Но зато этот инструмент уже доступен всем и бесплатно.

🔤🔤YouTube сегодня называют лидером по количеству публикаций с ИИ-контентом. Учитывая, что новые генерации будут помечены цифровым водяным знаком SynthID, мы не удивимся, если исключать подобный контент из выдачи со временем предложат за деньги. Ждём новую версию подписки Premium — AI-free?
Please open Telegram to view this post
VIEW IN TELEGRAM
📍 Каемся: совсем пропустили новость, что в России планируют открыть доступ к размеченным и обезличенным госданным для бизнеса, госорганов и физлиц. Их предлагают использовать для обучения и тестирования ИИ-алгоритмов.

Первые контракты на получение размеченных материалов участники инициативы смогут заключить уже в феврале. Проходить всё это будет на безвозмездной основе, рассказал Ведомостям представитель аппарата вице-премьера Дмитрия Григоренко.

Первые 10 наборов с размеченными данными были сформированы еще в 2023 году, остальные 40 — в конце ноября 2024 года. В основном это «фото и видеоматериалы, пригодные для машинного обучения и решения задач в таких отраслях, как городская среда и ЖКХ, транспорт, экология, сельскохозяйственная деятельность».

Оператором передачи данных выступает Минцифры. В соглашениях, разработанных согласно утверждённому Григоренко плану, обозначены задачи, сроки передачи, период, в течение которого получающая сторона может использовать эту информацию, а также гарантии целевого использования и защиты от их распространения третьим лицам.

✔️ Первые запросы на использование государственных наборов данных уже направили правительства Тюменской и Липецкой областей. В первой планируют применить материалы в области управления городским хозяйством и развития интеллектуальных транспортных систем. Во второй — для «распознавания изображений», но каких, не уточняется.

Вообще, сам запуск такой инициативы выглядит интересно. В отдельных кейсах применение госданным явно найдётся: например, в 2024 году была выполнена разметка материалов на основе съёмки с БПЛА и из космоса для определения категорий ТС, древесного состава и состояния лесов, а также сельхозугодий.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 Картинка, заставляющая задуматься — уровень доверия к ИИ в разных странах. Все-таки доверие к ИИ в обществе — один из важнейших факторов, влияющих на его внедрение в стране. И Китай (а еще больше Индия77%!) готов к ИИ намного больше западных экономик (у немцев 29%). Что касается России, то в данном опросе ее нет, но недавний отчет ВЦИОМа показал, что мы тут на уровне Бразилии — 52%.

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 Побудем в роли догоняющих, но всё же. Вчера Perplexity представила свою версию Deep Research, и что самое главное — сделала её бесплатной для всех. В день можно отправить до 5 запросов, подписчики Pro могут генерировать дл 500 отчётов в день.

Утверждается, что в Humanity's Last Exam сервис набрал 21,1% против 26,6% у версии OpenAI. Казалось бы, вот она, революция! Одними экспериментами Hugging Face дело больше не ограничивается. Но на практике всё оказалось куда скучнее.

По ощущениям, модель работает как ленивый первокурсник на стажировке. На обработку наших запросов Deep Research тратил не более нескольких минут и с явной неохотой брал в расчёт более 20 источников. Выдаваемый результат — хорошо структурирован и крайне стерилен, но почти бесполезен.

Прошёлся по Perplexity с вопросами из сферы исторических исследований и рыночного анализа. Несмотря на все уточнения, получил максимально поверхностные ответы, в основном собранные из онлайн-энциклопедий и первых результатов выдачи в поиске.

🔤🔤С учётом того, что всё это нужно ещё и проверять на предмет галлюцинаций, в итоге оказалось проще погуглить самому. Отчётами я бы это не назвал даже близко: моим фаворитом в этом направлении до сих пор остаётся STORM от Стэнфордского университета с его полифонией экспертных голосов.

В общем, не верим бенчмаркам и хайпожорам-убийцам OpenAI, смотрим на фактическую производительность :)

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Ух ты, Микрософт опенсорснул новую версию OmniParser V2. С коннекторами.

Нет, это не ответочка Operator-y и не агент для управления вашим компом.

Это улучшайзер первой части работы Оператора и ему подобных систем - сильно оптимизированное распознавание содержимого вашего экрана.

Так и пишут: OMNIPARSER, метод разбора скриншотов пользовательского интерфейса на структурированные элементы, который значительно повышает способность GPT-4V генерировать действия.

Более того, этот парсер-распознаватель экрана может быть пристегнут (опенсорс жеж) как плагин и к другим LLM.

И по этому поводу они также релизнули OmniTool: Control a Windows 11 VM with OmniParser + your vision model of choice. И вот это круто ибо тул может работать с: OpenAI (4o/o1/o3-mini), DeepSeek (R1), Qwen (2.5VL) или Anthropic Computer Use

Интересно наблюдать за процессом "декомпозиции" мозгов LLM. Помните писал про Глубокую Клодку, что расщепление на рассуждающую и отвечающую часть, приводит к улучшению качества ответов. Теперь можно отщепить "зрение" или воспринимающую часть. И комбинировать разные "восприниматоры" и "отвечаторы".

А "восприниматоры" тоже можно разделить по областям: распознаватели экрана, спортивных трансляций, жизни насекомых. Надеваем на LLM разные очки и ну улучшать качество ответов вижен-моделей и не только.

В общем мозги для ИИ сделали, пока заняться нервной системой.

Код и все дела тут:
https://microsoft.github.io/OmniParser/

@cgevent
🤖 AID от @anti_agi

🇨🇳Председатель Си встретился лично с крупнейшими предпринимателями страны, занимающимися технологическим бизнесом – от производства микросхем и электромобилей до искусственного интеллекта. СМИ пишут, что эта встреча знаменует изменение прохладного отношения китайского руководства к частному технологическому бизнесу, в котором оно пребывало последние несколько лет. На саммите присутствовали Джек Ма из Alibaba, Пони Ма из Tencent. Говорят, там был и Лян Вэньфэн, основатель DeepSeek, но камеры госТВ его не показывали и про DeepSeek не упоминали. В условиях замедления китайской экономики, партия и правительство, видимо, надеются выехать на частном ИИ-бизнесе, и возможно, как и США, собирается ослабить регуляторную удавку. Интересно даже, что сказал бы на это председатель Мао.

Между тем, власти Южной Кореи запретили скачивание приложения DeepSeek после того, как компания признала, что не учла некоторые из правил ведомства по защите персональных данных. Работа приложения будет возобновлена, как только будут внесены изменения в соответствии с законом о защите персональных данных.

Акции Tencent достигли рекордных уровней после того, как компания заявила, что начала тестировать доступ к AI-модели DeepSeek для функции поиска в своем приложении Weixin в дополнение к своей собственной модели Hunyuan. Tencent изучает возможность интеграции нескольких продуктов с DeepSeek, включая Tencent Cloud AI Code Assistant и приложение-ассистент Tencent Yuanbao.

🍏Apple, собирающийся в мае запустить в Китае свою AI-платформу Apple Intelligence вместе с Alibaba и Baidu, сталкивается с проблемами и багами в самостоятельной AI-модернизации Siri, которая должна стать центральным элементом этой платформы. Некоторые функции, первоначально запланированные на апрель, возможно, придется отложить до мая или позже.

Но когда она все-таки будет доработана, Apple планирует добавить Apple Intelligence в гарнитуру Vision Pro, так бездарно провалившуюся. Компания планирует внедрить интерфейс Writing Tools, Genmojis и приложение Image Playground в рамках обновления программного обеспечения visionOS 2.4, которое планируется выпустить в апреле.

✖️Маск пообещал показать возможности Grok 3 сегодня вечером (в Москве будет уже утро вторника). Обещает самый умный ИИ в мире, пока из того, что показывает сам Маск, мы не удивимся, если третий Грок начнет, к примеру, симпатизировать Гитлеру в рамках развенчания всемирного заговора.

📂Между тем, правление OpenAI единогласно отвергло предложение Маска о покупке за $97,4 млрд, заявив, что стартап не продается и что любые будущие предложения будут рассматриваться, как лицемерные.

Впрочем, скоро, возможно, мы услышим про плоскую землю и заговор сионских мудрецов и от ChatGPT. OpenAI меняет методы обучения ИИ-моделей, чтобы четко придерживаться «интеллектуальной свободы... независимо от того, насколько сложной или противоречивой может быть тема», - говорится в новой политике компании. В результате ChatGPT сможет отвечать на большее количество вопросов, предлагать больше точек зрения и сократить количество тем, о которых чатбот ИИ не будет говорить.

Отчет о вскрытии разоблачителя OpenAI и ее бывшего сотрудника Сучира Баладжи говорит, что он застрелился сам. В октябре прошлого года Баладжи через СМИ обвинил OpenAI в нарушении копирайта для обучения своих AI-моделей. Он предоставил информацию The New York Times, которая позже назвала его ключевой фигурой с «уникальными документами» в иске газеты против OpenAI. А 26 ноября он был найден мертвым в своей квартире в Сан-Франциско. За несколько дней до смерти Баладжи, по словам его родителей, был в приподнятом настроении, праздновал свой 26-й день рождения и планировал некоммерческую деятельность в области машинного обучения.
Please open Telegram to view this post
VIEW IN TELEGRAM
Скоро у каждой собаки ИИ-модели будут свои чипы

Незаслуженно незамеченной в телеграме прошла новость о том, что DeepSeek планирует разработать собственный чип для искусственного интеллекта. Как говорят источники в СМИ, это поможет снизить зависимость от американских технологий и укрепить позиции компании на рынке ИИ. На фоне новостей о том, что компания использует Ascend 910C от Хуавей для инференса, а также количества стартапов в Китае, которые пытаются делать свои ИИ-чипы, эта новость выглядит несколько странно.Хотя недавно DeepSeek обвиняли в обходе экспортных ограничений США при покупке чипов Nvidia через посредников в Сингапуре.

Возможно, история с Хуавей была вброшена для поднятия патриотических настроений. А может, DeepSeek хочет продавить Хуавей на более выгодные цены за облако и ускорители? В любом случае, новость выглядит так, что теперь каждый уважающий себя ИИ-стартап должен начать разработку своего ИИ-чипа. В России, к слову, этим тоже занимается "ИИ-стартап у нас дома" — Сбер, который взял за основую открытую процессорную архитектуру RISC-V. Отечественный поисковый гигант пока молчит.

@anti_agi
Forwarded from Kali Novskaya
🌸Опенсорс от HuggingFace: рекап за год🌸
#nlp #про_nlp  #nlp_papers

HuggingFace подвели итоги всех открытых проектов, которые научная команда стартапа нициировала за прошедший год. Давайте вместе посмотрим, как много на самом деле значит сила открытого сообщества и организованного труда!

Январь 2025
🐳Open-R1  – открытая инициатива по воспроизведению результатов DeepSeek R1, включая методы пост-тренинга и датасеты. Результаты воспроизводятся! Apache 2.0
🛠️SmolAgents  – фреймворк с полезным абстракциями для построения LLM-агентов, с типичной логикой и классами. Из коробки предлагается использовать поиск DuckDuckGo
и открытые LLM. Apache 2.0

Декабрь 2024
📈Scaling Test Time Compute – подробный разбор стратегий test-time compute методов на примере моделей Llama
📐FineMath – подкорпус на 54 млрд токенов из FineWeb, содержащий математический контент, в том числе пошаговые решения. Есть еще его корпус-побратим FineWeb-edu с образовательными текстами. Лицензия ODC-by

Ноябрь 2024
🤓SmolVLM  – visual-версия SmolLM, принимает на вход картинки и текст. Apache 2.0
Октябрь 2024
🔎LLM Evaluation Guidebook  – подробный материал с лучшими практиками по оценке языковых моделей, включая составление тестов, инструкции аннотаторам, использование LLM-as-a-judge
🗺️FineTasks – бечнмарк для оценки качества претрейна LLM на множестве языков. Лицензия ODC-by

Сентябрь 2024
🎥FineVideo  – датасет на 43 тысячи видео для обучения SORA-like моделей видео-генерации, своя лицензия License CC-By

Лето 2024
📣Speech-to-Speech, Speech-to-Speech Multilingual  – попытка создания модульной GPT4-o. Модули вклают в себя открытые LLM, а также модели STT и TTS, и даже voice activity detection от Silero
🥇Win AIMO – AI Mathemathical Olympiad соревнование выиграно на основе открытых моделей
🤗SmolLM – семейство открытых моделей мини-размера:  135M, 360M, and 1.7B параметров. Пригодно для on-device и real-time задач, при этом сами модели получены не путем дистиллирования, а просто обучены на очень качественных данных: курируемых датасетах с кодом, образовательным контентом и фактологией.  Apache 2.0
🤖LeRobot,LeRobot Tutorial  – курируемый набор моделей, фреймворков, датасетов и туториалов для робототехнического прототипирования. Apache 2.0

Весна 2024
🍷FineWeb – огромный очищенный интернет-корпус для предобучения больших языковых моделей на 15 триллионов токенов. Есть мультиязычная версия, я теперь еще и бенчмарк, доказывающий, что корпус лучше остальных для сходимости моделей. Лицензия ODC-by
🏆Zephyr Mixtral , Zephyr Gemma  – быстрые повторения моделей Gemma и Mixtral на основе синтетических датасетов, обе под своими собственными лицензиями.
Lighteval Release – открытый фреймворк для эффективной и полной оценки LLM (теперь еще и многоязычный). MIT License
⭐️The Stack v2 – очищенный (и лицензионно чистый) датасет для обучения кодовых LLM. Своя собственная лицензия
⭐️StarCoder2 – улучшенная версия модели для генерации кода StarCoder. OpenRAIL license
🌌Cosmopedia – синтетически сгенерированный корпус с фактологически верной информацией, основанной на лицензионно чистых источниках. Apache 2.0

В целом, исключительно постоянная организационная работа  с сообществом и позволяет нагнать закрытые модели, потому что постоянно создаются строящиеся кирпичики, на которых создается дальнейшая воспроизводимость – инфраструктура, модели, датасеты, подходы. 

🟣Блог-пост с проектами
https://huggingface.co/science
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 Арабы и французы — братья навек! Поэтому парижский стартап Mistral, известный благодаря своему Le Chat, первым из крупного западного ИТ решил выпустить новую модель с прицелом на арабский язык и культуру.

Утверждается, что Mistral Saba на 24 млрд параметров, работает с арабским контентом намного лучше, чем сопоставимая по масштабу Mistral Small 3. Преимущество модель также показала с языками индийского происхождения: особенно с южноиндийскими языками, такими как тамильский и малаялам.

🐷 Сообщается, что Mistral хочет привлечь инвесторов с Ближнего Востока в рамках предстоящего раунда финансирования. До этого её в основном спонсировали инвесторы из США, вроде Lightspeed Venture Partners, Andreessen Horowitz и Salesforce Ventures. Но теперь геополитическая ситуация... кхм-кхм, немного изменилась (и насколько теперь здесь уместна свинья-копилка?)

Разработчики позиционируют свою модель как альтернативу топовым китайским и американским LLM и обещают обратить внимание на другие региональные языки в будущем.

Среди бонусов Mistral Saba отмечают возможность развернуть модель локально, что явно станет преимуществом для компаний, работающих в «чувствительных отраслях».

✔️ Напомним, что за несколько дней до парижского саммита AI Action Макрон и премьер-министр ОАЭ Мохаммед бин Заид Аль Нахайян договорились инвестировать от 30 до 50 млрд евро в строительство мощностей для работы с ИИ во Франции. При этом основная часть должна пойти на создание ЦОД мощностью до 1 ГВт.

Министр цифровых технологий и искусственного интеллекта Клара Шаппас также заявила, что Франция определила 35 мест, которые можно использовать для строительства новых ЦОД с ускоренной процедурой административного согласования. Инвестиции ОАЭ, скорее всего, будут осуществляться в рамках этой программы.

🔤🔤Кажется, рассвет Глобального Юга приходит оттуда, откуда не ждали. Правда, как бы он не оказался новой колонизацией для арабов за свой же счёт.

Пока в странах БРИКС+ более 86% совокупного эффекта от внедрения ИИ приходится на Китай. По удельному эффекту на экономику ОАЭ и Индия отстают от этой страны примерно в два раза. Зато они вместе с Китаем входят в топ-15 мировых рынков частных инвестиций в ИИ.

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 Да здравствует «революция»! Илон Маск и его команда показали долгожданный Grok 3. Обошлось без неожиданностей: по бенчмаркам модель не сильно, но всё же обходит конкурентов. Что касается функций — в модель добавили поддержку рассуждений, режим голосового ассистента (появится скоро) и опцию DeepSearch для более глубокого аналитического поиска с «мозговым штурмом».

Grok 3 уже доступен обладателям подписки Premium+ на X. Разработчики также запускают отдельную опцию SuperGrok для пользователей мобильного приложения и веб-версии чат-бота. Предыдущую версию Grok 2 в скором времени выложат в opensource по уже сложившейся традиции.

Из интересного отмечают, что для обучения новой Grok 3 xAI запустила кластер на 100 тысяч видеокарт H100, а затем увеличила его в два раза. Для следующей версии модели планируется расширение мощностей сразу в 5 раз — до 1 млн GPU, которые будут потреблять 1,2 ГВт энергии.

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 AID от @anti_agi

Про самый умный на планете Grok, который не стал прорывом даже по внутренним бенчмаркам x.AI, мы уже написали, но надо дождаться независимых оценок. Релиз сделан очень кстати к новому раунду финансирования x.AI – компания надеется поднять $10 млрд по оценке в $75 млрд. Последняя известная оценка была $51 млрд. Ранее x.AI подняла 6 ярдов в декабре и 6 ярдов в мае.

Стартап Ильи Суцкевера Safe Superintelligence, как говорилось на прошлой неделе, оценивается в $30 млрд. Теперь стала известна привлекаемая сумма – более $1 млрд. Возглавит сделку Greenoaks Capital Partners, венчурная фирма из Сан-Франциско, которая планирует инвестировать $500 млн. Greenoaks также проинвестировал в Scale AI и Databricks. Ранее SSI оценивалась в 5 ярдов, привлекая деньги от Sequoia Capital и Andreessen Horowitz. Напомним, что Суцкевер хочет добиться безопасного для человечества AGI, и не собирается выводить продукт на рынок, пока не сделает этого. Безопасность ИИ в последние пару лет стала скорее лозунгом в политических баталиях. Сегодня в AI-гонке баланс явно сдвигается от безопасности к ускорению развития (и гори оно всё огнем!).

Политическим лозунгом стало и развитие ИИ в интересах всего человечества, а не горстки олигархов, которые теперь любят использовать этот лозунг друг против друга. Он стал краеугольным в попытках Маска вернуть себе влияние в OpenAI, из которого он так опрометчиво вышел несколько лет назад. Теперь же OpenAI рассматривает варианты защиты от враждебного поглощения со стороны Маска. Предлагается предоставить некоммерческому совету особое право голоса, чтобы сохранить власть. Оно позволит некоммерческому совету отменить решение крупных инвесторов, включая Microsoft и SoftBank, обеспечивая сохранение права принятия решений.

Крупный трансфер. Китайский ByteDance смог переманить крупного исследователя из Google. Ву Йонгуй 17 лет проработал в Гугле, был там вице-президентом и одним из ключевых исследователей, отвечавших за Gemini, а теперь возглавит AI R&D в ByteDance. Он уже приступил к работе в новой должности.

Из забавного: в то время как акции западных AI-компаний болтает вверх-вниз в зависимости от новостей из Китая, акции китайских компаний зависят от курса партии и правительства. СМИ не заметили на бизнес-саммите китайских технолидеров с участием председателя Си основателя Baidu Робена Ли. В итоге компания потеряла $2,4 млрд капитализации на торгах в Гонконге, после того как ее акции упали на 7%. Пекин – пуп земли!

The New York Times разрешила использовать ИИ продуктовым и редакционным сотрудникам. Компания сообщила о этом сотрудникам по электронной почте, объявив о дебюте своего нового внутреннего AI-инструмента суммаризации под названием Echo. Среди одобренных инструментов: для написания кода –помощник GitHub Copilot, для разработки продуктов – Vertex от Google, а также NotebookLM, некоторые AI-продукты Amazon и API OpenAI без ChatGPT через бизнес-аккаунт. ИИ сможет предлагать правки в статью, использоваться для мозгового штурма при составлении вопросов для интервью и помогать в проведении расследований. При этом запрещается использовать ИИ для создания или существенного редактирования статьи, а также загружать в него конфиденциальную информацию.
Please open Telegram to view this post
VIEW IN TELEGRAM
🪔DeepSeek готовится к монетизации?

Китайский AI-стартап DeepSeek обновил информацию о своем бизнесе: по данным корпоративного реестра Tianyancha, теперь его сфера деятельности включает «информационные услуги в Интернете». По мнению аналитиков этот первый признак стремления DeepSeek монетизировать свою технологию – компания намерена отказаться от чистого R&D.

В предыдущем описании деятельности DeepSeek говорилось, что компания занимается инжинирингом и разработкой софта для искусственного интеллекта, что говорит о более исследовательском подходе.

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
☁️  Тренд на активные тесты и интеграцию opensource-моделей становится виден всё чётче. Сегодня Yandex Cloud добавил в свой сервис Foundation Models опцию, которая позволяет запустить ML-модели на выделенных мощностях. Так можно развернуть не только разные версии YandexGPT, но и Qwen, Mixtral, DeepSeek, LLaMA и другие, которые «уже есть или появятся в будущем».

В выделенном режиме Dedicated Inference Endpoint клиент резервирует вычислительные мощности, подобрав конфигурацию после консультации со специалистами Яндекса. Так достигается стабильная работа сервиса даже при высоких нагрузках. Ещё на «выделенке» можно зафиксировать для работы определённые версии нейросетей для конкретных бизнес-задач.

В Foundation Models можно использовать сразу несколько запущенных моделей, комбинировать их или подбирать наиболее оптимальные для конкретной задачи. А «легитимность» работе с опенсорсом придаёт тот факт, что сервисы компании соответствуют индустриальным ИБ-стандартам и закону «О персональных данных».

Если говорить о пользе совсем «на пальцах»: новые модели появляются постоянно, и держать все из них на «горячем старте» в облаке нерационально. В случае с новой опцией клиенту не нужно самостоятельно готовить инфраструктуру, каждый раз настраивать работу модели и её мониторинг — всё сделают специалисты Яндекса.

🐷 Уточнили про деньги: за консультацию и подбор мощностей отдельно плату не берут. А сама стоимость конфигурации будет определяться индивидуально для каждого пользователя, конкретных тарифов пока нет.

ℹ️ Напомним, что ранее в начале февраля МТС представила платформу MWS GPT, которую позиционируют как «b2b-агрегатор языковых моделей». Там так же обещают «полный цикл работ с командой MWS» с упором на тесты и интеграцию opensource-моделей. Стоит это удовольствие 1,10 рубля за 1 тысячу токенов, что оказалось выше рынка по словам отдельных экспертов.

У самого Яндекса с сентября прошлого года есть AI Studio, которая объединяет нейросети YandexGPT и YandexART, технологии синтеза и распознавания речи, интерактивную среду для обучения нейросетей и другие ML-решения компании. Для интеграции там также доступны и сторонние LLM, но не на выделенных мощностях.

🔤🔤В Яндексе также напомнили, что сами участвуют в развитии opensource. Летом компания открыла исходный код YaFSDP — библиотеки, которая позволяет ускорить обучение больших языковых моделей до 25% и помогает сократить расходы на использование GPU.

Но вообще, конечно, ждём релиза какой-никакой, а открытой версии YandexGPT. Ну а пока наслаждаемся интеграциями с другими моделями: интересно, будут ли нас ждать новые коллаборации, вроде недавнего запуска модели DeepSeek Janus-Pro-7B в Шедевруме?

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/02/19 09:23:20
Back to Top
HTML Embed Code: