Telegram Group & Telegram Channel
Google открытый доступ к Gemini 2.0 PRO

Куда ушли свыше 150 млрд капитальных расходов в инфраструктуру под ИИ с 2017 года (избыточные расходы под вычислительные мощности для развертывания LLM сверх штатных расходов на функционирование ИТ инфраструктуры), не считая десятков миллиардов долларов на исследования и разработки?

В ночь на 6 февраля Google открыла доступ к многообещающей модели Gemini 2.0 PRO, а ранее доступ был к более упрощенной версии Gemini 2.0 Flash.

Эта версия доступна бесплатно в среде для разработчиков Google AI Studio и Vertex AI.

Ожидания были высокие, т.к. бесплатная Gemini 2.0 Flash существенно опережала основную публичную версию Gemini 1.5 PRO, которая интегрирована в платные продукты Gemini Advanced.

В свою очередь Gemini 1.5 PRO была значительно сильнее, чем Gemini 1.5 Flash, что давало надежды на ощутимое доминирование Gemini 2.0 PRO над Gemini 2.0 Flash.

Однако, реальность оказалась другой. Даже по внутренним тестам Google превосходство Gemini 2.0 PRO оказалось символическим над Gemini 2.0 Flash в пределах погрешности, но более явное улучшение в рамках ответов на вопросы и рассуждений (бенчмарк SimpleQA для оценки фактической точности ответов языковых моделей).

Существенного технологического прорыва не произошло. Это означает, что Google удастся лишь приблизиться к DeepSeek R1 и OpenAI o1/o3, но не обогнать.

Учитывая, что впереди расширенная версия o3, не говоря уже о o3 PRO, которая даст более явное преимущество над o3 mini, - OpenAI продолжит доминировать в этом году, т.к. Google не располагает более мощными LLM ни в настоящий момент, ни в краткосрочной перспективе до сентября 2025.

Конкуренция ошеломляющая, эпическая битва за ИИ доминирование.

За последние две недели плотность релизов LLM невероятная: DeepSeek R1 стал доступе с 20 января, далее 28 января – Qwen 2.5 Max, 31 января – OpenAI o3 mini, вот сейчас Google с Gemini 2.0 PRO.

Нет идеальных LLM, у каждой есть сильные и слабые стороны, поэтому лучше использовать комбинацию в разных задачах.

После тестирования могу сказать, что OpenAI o3 mini high будет лучше, чем OpenAI o1, имея немного более улучшенную цепочку рассуждений, более высокую скорость работы и главное – выход в сеть, но ограничена мультимодальность, нет возможности обмениваться разным типом контента (файлы, изображения).

DeepSeek R1 прекрасен, но в нем совершенно нет гибкости и необходимой глубины настройки, что решается через локальное развертывание, но для этого нужно очень мощное оборудование. Мне удалось локально развернуть DeepSeek R1 на 32 млрд параметров, но выше не тянет.

Gemini 2.0 PRO имеет невероятное контекстное окно – 2 млн токенов, что в 10 раз больше, чем у OpenAI и в 15 раз больше, чем у DeepSeek. Однако, Gemini 2.0 PRO не имеет доступа к сети, что сильно ограничивает модель.

Очень интересно следить за технологическим прогрессом, особенно с подобной интенсивностью. Личный обновленный ТОП лучших LLMs представлю позже после всестороннего тестирования обновлений.

Ждем Grok 3 от Илона Маска, Claude 4 от Anthropic и Llama 4 от Meta, но пока неоспоримым лидером является OpenAI и совсем рядом с ним DeepSeek.



group-telegram.com/spydell_finance/7002
Create:
Last Update:

Google открытый доступ к Gemini 2.0 PRO

Куда ушли свыше 150 млрд капитальных расходов в инфраструктуру под ИИ с 2017 года (избыточные расходы под вычислительные мощности для развертывания LLM сверх штатных расходов на функционирование ИТ инфраструктуры), не считая десятков миллиардов долларов на исследования и разработки?

В ночь на 6 февраля Google открыла доступ к многообещающей модели Gemini 2.0 PRO, а ранее доступ был к более упрощенной версии Gemini 2.0 Flash.

Эта версия доступна бесплатно в среде для разработчиков Google AI Studio и Vertex AI.

Ожидания были высокие, т.к. бесплатная Gemini 2.0 Flash существенно опережала основную публичную версию Gemini 1.5 PRO, которая интегрирована в платные продукты Gemini Advanced.

В свою очередь Gemini 1.5 PRO была значительно сильнее, чем Gemini 1.5 Flash, что давало надежды на ощутимое доминирование Gemini 2.0 PRO над Gemini 2.0 Flash.

Однако, реальность оказалась другой. Даже по внутренним тестам Google превосходство Gemini 2.0 PRO оказалось символическим над Gemini 2.0 Flash в пределах погрешности, но более явное улучшение в рамках ответов на вопросы и рассуждений (бенчмарк SimpleQA для оценки фактической точности ответов языковых моделей).

Существенного технологического прорыва не произошло. Это означает, что Google удастся лишь приблизиться к DeepSeek R1 и OpenAI o1/o3, но не обогнать.

Учитывая, что впереди расширенная версия o3, не говоря уже о o3 PRO, которая даст более явное преимущество над o3 mini, - OpenAI продолжит доминировать в этом году, т.к. Google не располагает более мощными LLM ни в настоящий момент, ни в краткосрочной перспективе до сентября 2025.

Конкуренция ошеломляющая, эпическая битва за ИИ доминирование.

За последние две недели плотность релизов LLM невероятная: DeepSeek R1 стал доступе с 20 января, далее 28 января – Qwen 2.5 Max, 31 января – OpenAI o3 mini, вот сейчас Google с Gemini 2.0 PRO.

Нет идеальных LLM, у каждой есть сильные и слабые стороны, поэтому лучше использовать комбинацию в разных задачах.

После тестирования могу сказать, что OpenAI o3 mini high будет лучше, чем OpenAI o1, имея немного более улучшенную цепочку рассуждений, более высокую скорость работы и главное – выход в сеть, но ограничена мультимодальность, нет возможности обмениваться разным типом контента (файлы, изображения).

DeepSeek R1 прекрасен, но в нем совершенно нет гибкости и необходимой глубины настройки, что решается через локальное развертывание, но для этого нужно очень мощное оборудование. Мне удалось локально развернуть DeepSeek R1 на 32 млрд параметров, но выше не тянет.

Gemini 2.0 PRO имеет невероятное контекстное окно – 2 млн токенов, что в 10 раз больше, чем у OpenAI и в 15 раз больше, чем у DeepSeek. Однако, Gemini 2.0 PRO не имеет доступа к сети, что сильно ограничивает модель.

Очень интересно следить за технологическим прогрессом, особенно с подобной интенсивностью. Личный обновленный ТОП лучших LLMs представлю позже после всестороннего тестирования обновлений.

Ждем Grok 3 от Илона Маска, Claude 4 от Anthropic и Llama 4 от Meta, но пока неоспоримым лидером является OpenAI и совсем рядом с ним DeepSeek.

BY Spydell_finance





Share with your friend now:
group-telegram.com/spydell_finance/7002

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

That hurt tech stocks. For the past few weeks, the 10-year yield has traded between 1.72% and 2%, as traders moved into the bond for safety when Russia headlines were ugly—and out of it when headlines improved. Now, the yield is touching its pandemic-era high. If the yield breaks above that level, that could signal that it’s on a sustainable path higher. Higher long-dated bond yields make future profits less valuable—and many tech companies are valued on the basis of profits forecast for many years in the future. In view of this, the regulator has cautioned investors not to rely on such investment tips / advice received through social media platforms. It has also said investors should exercise utmost caution while taking investment decisions while dealing in the securities market. Anastasia Vlasova/Getty Images Now safely in France with his spouse and three of his children, Kliuchnikov scrolls through Telegram to learn about the devastation happening in his home country. Although some channels have been removed, the curation process is considered opaque and insufficient by analysts.
from vn


Telegram Spydell_finance
FROM American