Telegram Group & Telegram Channel
Google открытый доступ к Gemini 2.0 PRO

Куда ушли свыше 150 млрд капитальных расходов в инфраструктуру под ИИ с 2017 года (избыточные расходы под вычислительные мощности для развертывания LLM сверх штатных расходов на функционирование ИТ инфраструктуры), не считая десятков миллиардов долларов на исследования и разработки?

В ночь на 6 февраля Google открыла доступ к многообещающей модели Gemini 2.0 PRO, а ранее доступ был к более упрощенной версии Gemini 2.0 Flash.

Эта версия доступна бесплатно в среде для разработчиков Google AI Studio и Vertex AI.

Ожидания были высокие, т.к. бесплатная Gemini 2.0 Flash существенно опережала основную публичную версию Gemini 1.5 PRO, которая интегрирована в платные продукты Gemini Advanced.

В свою очередь Gemini 1.5 PRO была значительно сильнее, чем Gemini 1.5 Flash, что давало надежды на ощутимое доминирование Gemini 2.0 PRO над Gemini 2.0 Flash.

Однако, реальность оказалась другой. Даже по внутренним тестам Google превосходство Gemini 2.0 PRO оказалось символическим над Gemini 2.0 Flash в пределах погрешности, но более явное улучшение в рамках ответов на вопросы и рассуждений (бенчмарк SimpleQA для оценки фактической точности ответов языковых моделей).

Существенного технологического прорыва не произошло. Это означает, что Google удастся лишь приблизиться к DeepSeek R1 и OpenAI o1/o3, но не обогнать.

Учитывая, что впереди расширенная версия o3, не говоря уже о o3 PRO, которая даст более явное преимущество над o3 mini, - OpenAI продолжит доминировать в этом году, т.к. Google не располагает более мощными LLM ни в настоящий момент, ни в краткосрочной перспективе до сентября 2025.

Конкуренция ошеломляющая, эпическая битва за ИИ доминирование.

За последние две недели плотность релизов LLM невероятная: DeepSeek R1 стал доступе с 20 января, далее 28 января – Qwen 2.5 Max, 31 января – OpenAI o3 mini, вот сейчас Google с Gemini 2.0 PRO.

Нет идеальных LLM, у каждой есть сильные и слабые стороны, поэтому лучше использовать комбинацию в разных задачах.

После тестирования могу сказать, что OpenAI o3 mini high будет лучше, чем OpenAI o1, имея немного более улучшенную цепочку рассуждений, более высокую скорость работы и главное – выход в сеть, но ограничена мультимодальность, нет возможности обмениваться разным типом контента (файлы, изображения).

DeepSeek R1 прекрасен, но в нем совершенно нет гибкости и необходимой глубины настройки, что решается через локальное развертывание, но для этого нужно очень мощное оборудование. Мне удалось локально развернуть DeepSeek R1 на 32 млрд параметров, но выше не тянет.

Gemini 2.0 PRO имеет невероятное контекстное окно – 2 млн токенов, что в 10 раз больше, чем у OpenAI и в 15 раз больше, чем у DeepSeek. Однако, Gemini 2.0 PRO не имеет доступа к сети, что сильно ограничивает модель.

Очень интересно следить за технологическим прогрессом, особенно с подобной интенсивностью. Личный обновленный ТОП лучших LLMs представлю позже после всестороннего тестирования обновлений.

Ждем Grok 3 от Илона Маска, Claude 4 от Anthropic и Llama 4 от Meta, но пока неоспоримым лидером является OpenAI и совсем рядом с ним DeepSeek.



tg-me.com/spydell_finance/6996
Create:
Last Update:

Google открытый доступ к Gemini 2.0 PRO

Куда ушли свыше 150 млрд капитальных расходов в инфраструктуру под ИИ с 2017 года (избыточные расходы под вычислительные мощности для развертывания LLM сверх штатных расходов на функционирование ИТ инфраструктуры), не считая десятков миллиардов долларов на исследования и разработки?

В ночь на 6 февраля Google открыла доступ к многообещающей модели Gemini 2.0 PRO, а ранее доступ был к более упрощенной версии Gemini 2.0 Flash.

Эта версия доступна бесплатно в среде для разработчиков Google AI Studio и Vertex AI.

Ожидания были высокие, т.к. бесплатная Gemini 2.0 Flash существенно опережала основную публичную версию Gemini 1.5 PRO, которая интегрирована в платные продукты Gemini Advanced.

В свою очередь Gemini 1.5 PRO была значительно сильнее, чем Gemini 1.5 Flash, что давало надежды на ощутимое доминирование Gemini 2.0 PRO над Gemini 2.0 Flash.

Однако, реальность оказалась другой. Даже по внутренним тестам Google превосходство Gemini 2.0 PRO оказалось символическим над Gemini 2.0 Flash в пределах погрешности, но более явное улучшение в рамках ответов на вопросы и рассуждений (бенчмарк SimpleQA для оценки фактической точности ответов языковых моделей).

Существенного технологического прорыва не произошло. Это означает, что Google удастся лишь приблизиться к DeepSeek R1 и OpenAI o1/o3, но не обогнать.

Учитывая, что впереди расширенная версия o3, не говоря уже о o3 PRO, которая даст более явное преимущество над o3 mini, - OpenAI продолжит доминировать в этом году, т.к. Google не располагает более мощными LLM ни в настоящий момент, ни в краткосрочной перспективе до сентября 2025.

Конкуренция ошеломляющая, эпическая битва за ИИ доминирование.

За последние две недели плотность релизов LLM невероятная: DeepSeek R1 стал доступе с 20 января, далее 28 января – Qwen 2.5 Max, 31 января – OpenAI o3 mini, вот сейчас Google с Gemini 2.0 PRO.

Нет идеальных LLM, у каждой есть сильные и слабые стороны, поэтому лучше использовать комбинацию в разных задачах.

После тестирования могу сказать, что OpenAI o3 mini high будет лучше, чем OpenAI o1, имея немного более улучшенную цепочку рассуждений, более высокую скорость работы и главное – выход в сеть, но ограничена мультимодальность, нет возможности обмениваться разным типом контента (файлы, изображения).

DeepSeek R1 прекрасен, но в нем совершенно нет гибкости и необходимой глубины настройки, что решается через локальное развертывание, но для этого нужно очень мощное оборудование. Мне удалось локально развернуть DeepSeek R1 на 32 млрд параметров, но выше не тянет.

Gemini 2.0 PRO имеет невероятное контекстное окно – 2 млн токенов, что в 10 раз больше, чем у OpenAI и в 15 раз больше, чем у DeepSeek. Однако, Gemini 2.0 PRO не имеет доступа к сети, что сильно ограничивает модель.

Очень интересно следить за технологическим прогрессом, особенно с подобной интенсивностью. Личный обновленный ТОП лучших LLMs представлю позже после всестороннего тестирования обновлений.

Ждем Grok 3 от Илона Маска, Claude 4 от Anthropic и Llama 4 от Meta, но пока неоспоримым лидером является OpenAI и совсем рядом с ним DeepSeek.

BY Spydell_finance





Share with your friend now:
tg-me.com/spydell_finance/6996

View MORE
Open in Telegram


Spydell_finance Telegram | DID YOU KNOW?

Date: |

Spiking bond yields driving sharp losses in tech stocks

A spike in interest rates since the start of the year has accelerated a rotation out of high-growth technology stocks and into value stocks poised to benefit from a reopening of the economy. The Nasdaq has fallen more than 10% over the past month as the Dow has soared to record highs, with a spike in the 10-year US Treasury yield acting as the main catalyst. It recently surged to a cycle high of more than 1.60% after starting the year below 1%. But according to Jim Paulsen, the Leuthold Group's chief investment strategist, rising interest rates do not represent a long-term threat to the stock market. Paulsen expects the 10-year yield to cross 2% by the end of the year. A spike in interest rates and its impact on the stock market depends on the economic backdrop, according to Paulsen. Rising interest rates amid a strengthening economy "may prove no challenge at all for stocks," Paulsen said.

Why Telegram?

Telegram has no known backdoors and, even though it is come in for criticism for using proprietary encryption methods instead of open-source ones, those have yet to be compromised. While no messaging app can guarantee a 100% impermeable defense against determined attackers, Telegram is vulnerabilities are few and either theoretical or based on spoof files fooling users into actively enabling an attack.

Spydell_finance from ca


Telegram Spydell_finance
FROM USA