Telegram Group & Telegram Channel
Google открытый доступ к Gemini 2.0 PRO

Куда ушли свыше 150 млрд капитальных расходов в инфраструктуру под ИИ с 2017 года (избыточные расходы под вычислительные мощности для развертывания LLM сверх штатных расходов на функционирование ИТ инфраструктуры), не считая десятков миллиардов долларов на исследования и разработки?

В ночь на 6 февраля Google открыла доступ к многообещающей модели Gemini 2.0 PRO, а ранее доступ был к более упрощенной версии Gemini 2.0 Flash.

Эта версия доступна бесплатно в среде для разработчиков Google AI Studio и Vertex AI.

Ожидания были высокие, т.к. бесплатная Gemini 2.0 Flash существенно опережала основную публичную версию Gemini 1.5 PRO, которая интегрирована в платные продукты Gemini Advanced.

В свою очередь Gemini 1.5 PRO была значительно сильнее, чем Gemini 1.5 Flash, что давало надежды на ощутимое доминирование Gemini 2.0 PRO над Gemini 2.0 Flash.

Однако, реальность оказалась другой. Даже по внутренним тестам Google превосходство Gemini 2.0 PRO оказалось символическим над Gemini 2.0 Flash в пределах погрешности, но более явное улучшение в рамках ответов на вопросы и рассуждений (бенчмарк SimpleQA для оценки фактической точности ответов языковых моделей).

Существенного технологического прорыва не произошло. Это означает, что Google удастся лишь приблизиться к DeepSeek R1 и OpenAI o1/o3, но не обогнать.

Учитывая, что впереди расширенная версия o3, не говоря уже о o3 PRO, которая даст более явное преимущество над o3 mini, - OpenAI продолжит доминировать в этом году, т.к. Google не располагает более мощными LLM ни в настоящий момент, ни в краткосрочной перспективе до сентября 2025.

Конкуренция ошеломляющая, эпическая битва за ИИ доминирование.

За последние две недели плотность релизов LLM невероятная: DeepSeek R1 стал доступе с 20 января, далее 28 января – Qwen 2.5 Max, 31 января – OpenAI o3 mini, вот сейчас Google с Gemini 2.0 PRO.

Нет идеальных LLM, у каждой есть сильные и слабые стороны, поэтому лучше использовать комбинацию в разных задачах.

После тестирования могу сказать, что OpenAI o3 mini high будет лучше, чем OpenAI o1, имея немного более улучшенную цепочку рассуждений, более высокую скорость работы и главное – выход в сеть, но ограничена мультимодальность, нет возможности обмениваться разным типом контента (файлы, изображения).

DeepSeek R1 прекрасен, но в нем совершенно нет гибкости и необходимой глубины настройки, что решается через локальное развертывание, но для этого нужно очень мощное оборудование. Мне удалось локально развернуть DeepSeek R1 на 32 млрд параметров, но выше не тянет.

Gemini 2.0 PRO имеет невероятное контекстное окно – 2 млн токенов, что в 10 раз больше, чем у OpenAI и в 15 раз больше, чем у DeepSeek. Однако, Gemini 2.0 PRO не имеет доступа к сети, что сильно ограничивает модель.

Очень интересно следить за технологическим прогрессом, особенно с подобной интенсивностью. Личный обновленный ТОП лучших LLMs представлю позже после всестороннего тестирования обновлений.

Ждем Grok 3 от Илона Маска, Claude 4 от Anthropic и Llama 4 от Meta, но пока неоспоримым лидером является OpenAI и совсем рядом с ним DeepSeek.



tg-me.com/spydell_finance/7002
Create:
Last Update:

Google открытый доступ к Gemini 2.0 PRO

Куда ушли свыше 150 млрд капитальных расходов в инфраструктуру под ИИ с 2017 года (избыточные расходы под вычислительные мощности для развертывания LLM сверх штатных расходов на функционирование ИТ инфраструктуры), не считая десятков миллиардов долларов на исследования и разработки?

В ночь на 6 февраля Google открыла доступ к многообещающей модели Gemini 2.0 PRO, а ранее доступ был к более упрощенной версии Gemini 2.0 Flash.

Эта версия доступна бесплатно в среде для разработчиков Google AI Studio и Vertex AI.

Ожидания были высокие, т.к. бесплатная Gemini 2.0 Flash существенно опережала основную публичную версию Gemini 1.5 PRO, которая интегрирована в платные продукты Gemini Advanced.

В свою очередь Gemini 1.5 PRO была значительно сильнее, чем Gemini 1.5 Flash, что давало надежды на ощутимое доминирование Gemini 2.0 PRO над Gemini 2.0 Flash.

Однако, реальность оказалась другой. Даже по внутренним тестам Google превосходство Gemini 2.0 PRO оказалось символическим над Gemini 2.0 Flash в пределах погрешности, но более явное улучшение в рамках ответов на вопросы и рассуждений (бенчмарк SimpleQA для оценки фактической точности ответов языковых моделей).

Существенного технологического прорыва не произошло. Это означает, что Google удастся лишь приблизиться к DeepSeek R1 и OpenAI o1/o3, но не обогнать.

Учитывая, что впереди расширенная версия o3, не говоря уже о o3 PRO, которая даст более явное преимущество над o3 mini, - OpenAI продолжит доминировать в этом году, т.к. Google не располагает более мощными LLM ни в настоящий момент, ни в краткосрочной перспективе до сентября 2025.

Конкуренция ошеломляющая, эпическая битва за ИИ доминирование.

За последние две недели плотность релизов LLM невероятная: DeepSeek R1 стал доступе с 20 января, далее 28 января – Qwen 2.5 Max, 31 января – OpenAI o3 mini, вот сейчас Google с Gemini 2.0 PRO.

Нет идеальных LLM, у каждой есть сильные и слабые стороны, поэтому лучше использовать комбинацию в разных задачах.

После тестирования могу сказать, что OpenAI o3 mini high будет лучше, чем OpenAI o1, имея немного более улучшенную цепочку рассуждений, более высокую скорость работы и главное – выход в сеть, но ограничена мультимодальность, нет возможности обмениваться разным типом контента (файлы, изображения).

DeepSeek R1 прекрасен, но в нем совершенно нет гибкости и необходимой глубины настройки, что решается через локальное развертывание, но для этого нужно очень мощное оборудование. Мне удалось локально развернуть DeepSeek R1 на 32 млрд параметров, но выше не тянет.

Gemini 2.0 PRO имеет невероятное контекстное окно – 2 млн токенов, что в 10 раз больше, чем у OpenAI и в 15 раз больше, чем у DeepSeek. Однако, Gemini 2.0 PRO не имеет доступа к сети, что сильно ограничивает модель.

Очень интересно следить за технологическим прогрессом, особенно с подобной интенсивностью. Личный обновленный ТОП лучших LLMs представлю позже после всестороннего тестирования обновлений.

Ждем Grok 3 от Илона Маска, Claude 4 от Anthropic и Llama 4 от Meta, но пока неоспоримым лидером является OpenAI и совсем рядом с ним DeepSeek.

BY Spydell_finance





Share with your friend now:
tg-me.com/spydell_finance/7002

View MORE
Open in Telegram


Spydell_finance Telegram | DID YOU KNOW?

Date: |

A project of our size needs at least a few hundred million dollars per year to keep going,” Mr. Durov wrote in his public channel on Telegram late last year. “While doing that, we will remain independent and stay true to our values, redefining how a tech company should operate.

Should I buy bitcoin?

“To the extent it is used I fear it’s often for illicit finance. It’s an extremely inefficient way of conducting transactions, and the amount of energy that’s consumed in processing those transactions is staggering,” the former Fed chairwoman said. Yellen’s comments have been cited as a reason for bitcoin’s recent losses. However, Yellen’s assessment of bitcoin as a inefficient medium of exchange is an important point and one that has already been raised in the past by bitcoin bulls. Using a volatile asset in exchange for goods and services makes little sense if the asset can tumble 10% in a day, or surge 80% over the course of a two months as bitcoin has done in 2021, critics argue. To put a finer point on it, over the past 12 months bitcoin has registered 8 corrections, defined as a decline from a recent peak of at least 10% but not more than 20%, and two bear markets, which are defined as falls of 20% or more, according to Dow Jones Market Data.

Spydell_finance from jp


Telegram Spydell_finance
FROM USA