Прогремел очередной релиз, Google DeepMind 19 февраля 2026 года выпустила свою новую модель - Gemini 3.1 Pro.
Это стало неожиданностью даже для искушенного ИИ-сообщества. Обычно Google обновлял версии с шагом 0.5 (1.0 - 1.5 - 2.0 - 2.5 - 3.0), но здесь мы впервые видим обновление 3.1. И это при том, что предыдущая версия (Gemini 3 Pro) до сих пор носит гордую приставку Preview и так и не вышла в полноценный релиз. Согласитесь, немного похоже на ситуацию, когда вы ещё не допили чай, а вам уже наливают новую кружку, утверждая, что она горячее.
Но Google явно знает, что делает. Компания заявляет, что 3.1 Pro - это не просто косметическое обновление, а шаг вперёд в фундаментальных рассуждениях. Модель создана для решения задач, где простого ответа недостаточно, и ориентирована на агентные рабочие процессы и глубокое планирование.
Забегая вперёд, скажу, что новинка действительно впечатляет, но, как всегда, есть нюансы. Приятного прочтения!
Google не стал мелочиться и назвал Gemini 3.1 Pro своей самой интеллектуальной моделью для сложных задач. Звучит гордо, но давайте посмотрим, что стоит за этими словами.
Ключевое улучшение - ядро интеллекта
Главная фишка апдейта - это улучшенное базовое мышление. Если прошлые обновления Gemini 3 Pro были больше про расширение возможностей, то здесь инженеры Google DeepMind занялись прокачкой внутреннего процессора модели. Фактически, технология глубокого мышления, которую на прошлой неделе добавили в отдельный режим, теперь интегрирована прямо в основу модели. Это значит, что 3.1 Pro умеет думать над задачей дольше и качественнее, прокладывая несколько путей решения одновременно, а потом выбирая лучший.
Зачем это нужно? Как говорят в Google, для задач, где простого ответа недостаточно. Представьте, что вы просите нейросеть не просто пересказать статью из Википедии, а проанализировать несколько противоречивых научных работ и сделать обоснованный вывод. Вот для такого ей и нужны эти улучшенные мозги.
Мультимодальность и контекст: смотрим, слушаем, читаем
По части органов чувств у модели всё осталось на уровне топ-флагмана. Она понимает текст, изображения, видео, аудио и PDF-файлы.
Контекстное окно - те же 1 миллион токенов на входе. Для тех, кто не в теме: это примерно как «Война и мир», которую вы можете загрузить и задавать вопросы. На выходе модель выдает до 64 тысяч токенов. То есть она способна сгенерировать целую небольшую повесть или очень объемный кусок кода.
Кстати, про код. Разработчики утверждают, что 3.1 Pro специально оптимизирована для задач программирования и агентных рабочих процессов. Это когда вы даете ей не один запрос, а цепочку: «сделай это, потом на основе результата сделай то, и если увидишь ошибку - исправь».
Google традиционно приводит результаты бенчмарков. Вот где обещанное мышление проявило себя лучше всего:
ARC-AGI-2 - тест на способность решать новые, нестандартные логические задачи без опоры на шаблоны. Тут Gemini 3.1 Pro набрал 77,1%. Это более чем в два раза выше, чем у Gemini 3 Pro (31,1%). Рост, который сложно не заметить.
Humanity's Last Exam - проверка знаний в узкоспециализированных областях, где модель показала 44,4% . Для сравнения: Gemini 3 Pro было 37,5%, а GPT-5.2 - 34,5% .
Вот как эти цифры выглядят в сравнении (данные официальные, так что принимаем с долей здорового скептицизма):
|
Бенчмарк |
Gemini 3.1 Pro |
Gemini 3 Pro |
GPT-5.2 |
|
ARC-AGI-2 (логика) |
77.1% |
31.1% |
- |
|
Humanity's Last Exam |
44.4% |
37.5% |
34.5% |
Google не был бы Google, если бы не показал красивые демо. Они выкатили несколько примеров, наглядно демонстрирующих, зачем нужна такая умная модель:
Литература - веб-дизайн
Модель проанализировала роман «Грозовой перевал» и на основе его атмосферы сгенерировала полноценный сайт-портфолио для вымышленного фотографа. Дизайн реально передает мрачновато-романтическое настроение книги.
Интерактивная 3D-симуляция
Она написала код, который создаёт симуляцию полета стаи птиц (моделирование сложных систем). И это не просто картинка - пользователь может мышкой влиять на траекторию полёта, а звуковой фон меняется в зависимости от плотности стаи.
Аэрокосмический дашборд
Модель подключилась к открытому API, получает данные о местоположении МКС в реальном времени и строит интерактивную карту с траекторией полёта. Прямо как в центре управления полётами, только на коленке за пять минут.
Анимированные SVG
Из текстового описания вроде “анимированная иконка загрузки в стиле киберпанк” модель генерирует чистый код анимации, который можно сразу вставить на сайт.
Нюансы и мелкий шрифт
Разработчики, как всегда, честно предупреждают о некоторых особенностях. Это preview-версия, находящаяся в стадии предварительного доступа. Google выпустил её для проверки обновлений и усовершенствований, поэтому баги возможны. Если вы используете специализированный эндпоинт gemini-3.1-pro-preview-customtools и предоставляете модели свои инструменты, такие как view_file или search_code, её работа будет лучше. Однако без инструментов качество ответов может варьироваться. Модель не генерирует изображения, не работает с Live API и не умеет привязываться к Google Maps, но может написать код для отрисовки картинки. Знания модели актуальны до января 2025 года, поэтому спрашивать о последних мемах февраля 2026 года бессмысленно.
Что в сухом остатке
Gemini 3.1 Pro - это попытка Google сделать инструмент для решения сложных, многошаговых задач. Основной упор сделан на качество рассуждений и способность модели действовать как агент, а не просто отвечать на запросы. Технические характеристики (контекст, мультимодальность) остались на уровне топ-моделей, а вот мозги ей действительно подкрутили.
Официальные бенчмарки - это, конечно, красиво. 77,1% в ARC-AGI-2 звучит внушительно. Но как говорится, доверяй, но проверяй. Тем более что тесты вроде Humanity's Last Exam хоть и сложные, но всё равно остаются тестами. Мне было интересно другое. Как модель поведёт себя в реальных, почти бытовых задачах, с которыми сталкивается обычный разработчик или исследователь.
Для тестирования я использовала сервис BotHub - там модель уже доступна, не нужен VPN и можно спокойно работать с российской картой. Плюс 300 000 бесплатных токенов на старте по ссылке, чем не повод поэкспериментировать?
Я решила не ограничиваться стандартными тестами, а придумать сценарии, которые покрывают разные аспекты работы модели: от чисто технических до социальных и креативных. Поехали.
Рефакторинг легаси-кода
Gemini 3.1 Pro, судя по заявлениям Google об улучшенном core reasoning и оптимизации для задач программирования, должен не просто переписать код, а объяснить логику своих изменений. Ожидаю, что модель заметит потенциальное деление на ноль, упростит вложенные условия и добавит осмысленные имена переменных вместо a, b, c. В идеале - ещё и предложит разные варианты рефакторинга в зависимости от контекста использования.
Gemini 3.1 Pro выявила неочевидную логическую ошибку (невыполнимый код), которую многие программисты могли бы пропустить, механически отформатировав код. Поняла связь между входными данными, условиями и потоком выполнения, что позволило ей предсказать, какие ветки кода могут быть достигнуты. PEP 8, обработка ошибок, type hints, docstrings - всё это признаки промышленного кода. Модель не стала менять математическое выражение на y*0.6, хотя это короче, потому что исходная форма лучше отражает намерения автора. Это супер. Обрадовало, что модель увидела проблему, которой нет на поверхности. Код синтаксически корректен и даже работает (если не передавать ноль в специфических условиях), но содержит логическую ошибку, которая рано или поздно приведёт к багу.
Написание SQL-запроса с объяснением
Хороший запрос должен использовать JOIN, правильно фильтровать по дате (чтобы не сканировать всю таблицу), группировать и сортировать. В объяснении про индексы жду упоминания составного индекса по created_at и user_id, а также индекса для связи с таблицей пользователей. Если модель предложит ещё и покрывающий индекс - снимаю шляпу.
Модель написала оптимальный запрос с учётом всех правил производительности (SARGability, порядок соединений, корректная агрегация). Поняла, как запрос будет выполняться физически на уровне СУБД, и построила индексы, исходя из этого понимания. Учла различия между СУБД (PostgreSQL vs MySQL) и предложила адаптивные решения. Не ограничилась теорией, а дала практические рекомендации, что реально нужно в 95% случаев. 10/10. Модель подтвердила, что улучшения в core reasoning распространяются и на работу со структурированными данными и базами данных.
Отладка бага (без подсказки)
Тест на внимательность и здоровый скептицизм. Код, который я даю, на самом деле правильный, хотя выглядит подозрительно. Сможет ли модель распознать ловушку или начнёт копать там, где не надо? Если начнёт "исправлять" то, что не сломано, предлагая убрать проверку if char not in result или поменять логику - повод задуматься о её доверчивости. В бенчмарках программирования (SWE-Bench Verified) у модели 80,6%, что выше, чем у Gemini 3 Pro, так что надежда на адекватность есть.
Как я и рассчитывала, модель не поверила ложному утверждению в промпте, проверила код самостоятельно и уверенно заявила о его корректности. Показала свое знание не только синтаксиса Python, но и его историю (изменения в словарях с версии 3.7), типичные ошибки новичков (отступы) и подводные камни (регистр символов). Каждый пункт диагностики сопровождается объяснением механизма и примером результата - тоже плюсик.
Жизненная математика (кредитный калькулятор)
Здесь важно не просто выдать цифры, а показать ход мыслей. Учитывая рывок в тесте ARC-AGI-2 (77,1% против 31,1% у предшественника), модель должна справиться с формулой аннуитета без проблем. Главное, чтобы объяснение было понятным. Если Gemini начнёт сыпать терминами без пояснений - поставлю минус. Если разжует так, что даже гуманитарий пойдет брать кредит (или наоборот, передумает) - плюс в карму.
Все цифры верны, формула применена корректно, результат соответствует банковским стандартам. Модель показала всю цепочку вычислений, не оставив у меня вопросов. Особенно ценно, что она совместила математическую строгость с человеческим объяснением. Формула есть для тех, кто хочет проверить, и простые слова для тех, кто хочет понять. Тест пройден отлично. Финансовая грамотность у модели на высоте.
Парадокс Монти Холла (объяснить на пальцах)
Парадокс Монти Холла - классический пример задачи, в которой интуиция подводит большинство людей. Даже зная правильный ответ, многие продолжают сомневаться. Задача модели - не просто сообщить факт, а сделать так, чтобы у человека исчезли сомнения. Это тест на педагогические способности, эмпатию и умение подбирать правильные аналогии. Google позиционирует 3.1 Pro как модель для задач, где простого ответа недостаточно. Объяснить Монти Холла так, чтобы ребёнок понял - это как раз про умение находить правильный уровень абстракции. Жду аналогий с конфетами, пиратами или хотя бы с тремя коробками сюрпризов. Псевдографика была бы вообще шиком.
Модель поняла, почему ответ может вызвать отторжение у неподготовленного человека, и выстроила объяснение так, чтобы избежать этого. Объяснение работает одновременно на интуитивном (аналогия со 100 сундуками), логическом (перебор сценариев) и эмоциональном (вовлекающий стиль) уровнях. Модель признает, что задача действительно сложна для интуитивного восприятия, и объясняет механизм этой ловушки. Нет ни одной формулы, ни одного термина вроде "условная вероятность" или "теорема Байеса". При этом математическая строгость полностью сохранена - это высший пилотаж популяризации. Благодаря ярким образам ("башмаки", "сундуки", "фильтр", "на блюдечке") объяснение надолго остаётся в памяти. Это именно то, что мы хотим видеть, когда просим объяснить сложное для ребенка.
Задача на оптимизацию (переправа через реку)
Классические задачи на переправу - отличный тест алгоритмического мышления. Здесь нет готовой формулы, нужно подумать, прикинуть варианты, найти оптимальное решение. Такие задачи часто дают на собеседованиях, чтобы проверить, как человек мыслит, а не просто воспроизводит заученное. Здесь важно не просто назвать число, а показать, как к нему пришли. Хорошее решение будет использовать жадный алгоритм или метод ветвей и границ. Модель должна объяснить, почему нельзя сделать меньше рейсов, и предложить способ проверки.
Gemini 3.1 Pro абсолютно верно определила, что минимальное количество рейсов - 2. Более того, она предложила две рабочие комбинации загрузки. Модель доказала оптимальность решения через нижнюю границу и классифицировала задачу, предложив правильный алгоритм для общего случая. Она пошагово промоделировала работу алгоритма и объяснила сложную концепцию простой и запоминающейся метафорой, указав на ограничения метода.
Тест пройден блестяще, и улучшения в core reasoning оказались действительно работающей фичей.
Перевод юридического документа (с сохранением стиля)
Машинный перевод давно стал обыденностью, но юридические тексты - особый жанр. Здесь важна не просто передача смысла, а точность формулировок, сохранение канцелярского стиля и правильная интерпретация терминов. Ошибка в переводе договора может стоить очень дорого. Посмотрим, способен ли Gemini на такую ювелирную работу. Google заявляет о поддержке мультиязычности (MMMLU - 92,6%) , так что с английским проблем быть не должно.
Модель показала знание юридической лексики: "неисключительное право", "не подлежащее передаче", "срок действия подписки". Перевод не стал вольным пересказом, а сохранил канцелярскую точность. Еще модель дала краткие объяснения к некоторым терминам, я очень рассчитывала на это, получилось идеально. 10/10.
Написание письма-претензии (эмоциональный интеллект)
Письмо-претензия должно быть одновременно твердым и вежливым, содержать ссылки на закон и чёткие требования. Это тест не столько на знание законов, ведь модель может их просто загуглить, сколько на эмоциональный интеллект и чувство меры.
Здесь проверяется не столько знание законов, сколько умение выдержать правильный тон: не скатиться в истерику, но и не выглядеть тряпкой. Gemini 3.1 Pro, по заверениям Google, лучше справляется с агентными рабочими процессами, а написание официального письма - это как раз агентная задача. Я ждала грамотной структуры: шапка, факты, правовое обоснование, требование, подпись, никаких "умоляю, помогите". Я это получила, у меня вопросов нет.
Создание технической документации (README для проекта)
Модель сгенерировала хороший README, который начинается с понятного описания, содержит четкие инструкции по установке и примеры запуска. Особенно ценен раздел про возможные ошибки. Модель не начала просто перечислять функции без объяснений о том, как их вызывать, - огромный плюсик за это.
Официальные бенчмарки - это хорошо, но, согласитесь, куда интереснее посмотреть, как модель ведет себя в реальных руках. Я прошерстила различные интернет-ресурсы и собрала самые показательные примеры использования Gemini 3.1 Pro. Где-то модель блеснула, где-то - заставила задуматься. Поехали.
На Хабре вышел отличный разбор, где Gemini 3.1 Pro назвали бюджетным гением.
Согласно данным Artificial Analysis, чтобы прогнать модель через все тесты Intelligence Index, Gemini потребовалось всего 56 млн токенов. Для сравнения: GPT-5.2 (версия xhigh) съел 130 млн, а Claude Opus 4.6 (max) - 58 млн. Разница с Opus невелика, но тут в дело вступает ценообразование.
Все тесты для Gemini обошлись в 892 доллара. Прогон GPT-5.2 стоил бы 2304 доллара, а Claude Opus 4.6 - 2486 долларов. Получается, что использование Gemini более чем в 2,5 раза дешевле, чем Claude.
Вот это я понимаю - заявка на победу. Google выбрал интересную стратегию: мы крутые и при этом дешевле. В условиях, когда разработчики считают каждый токен (особенно в продакшене), такой аргумент может стать решающим. Особенно учитывая, что качество кода, по мнению автора, растёт так быстро, что разрыв с лидерами сокращается на глазах.
Одна из самых обсуждаемых фич - появление трёхуровневого режима мышления.
Раньше у Gemini 3 Pro было два уровня: низкий и высокий. Теперь добавили средний, а высокий по сути стал аналогом режима Deep Think (который раньше был отдельной опцией для подписчиков Ultra). Пользователи теперь могут сами крутить ручку мощности. Хочешь быстрый ответ на простой вопрос - ставь low, нужно поразмышлять над сложной задачей - включай high.
Эта фича решает реальную проблему разработчиков. Раньше, если ты делал продукт, тебе приходилось держать несколько моделей: одну для быстрых ответов, другую для сложных задач. Разные API, разные цены, своя логика маршрутизации. Теперь всё в одной модели. Умно и удобно.
Тут сообщество реально офигело. Один из пользователей попросил Gemini 3.1 Pro разработать современный сайт-портфолио для романа “Грозовой перевал” Эмили Бронте.
Модель не просто пересказала сюжет и не накидала шаблонных картинок. Gemini смог уловить мрачную, дикую, страстную атмосферу романа и превратить ее в современный минималистичный дизайн. Тёмные тона, размытые границы, ощущение ветра и одиночества - всё это было в сгенерированном коде.
Модель прочувствовала (насколько это вообще применимо к ИИ) стиль и настроение. Для дизайнеров, маркетологов, креативщиков - это просто золотая жила.
Тут вообще что-то из области магии. Пользователь попросил Gemini 3.1 Pro создать 3D-симуляцию полета стаи скворцов.
Модель сгенерировала код, который создал интерактивную 3D-сцену. Можно было рукой (через трекинг) влиять на траекторию полёта птиц, а звуковой фон менялся в зависимости от того, насколько плотно летит стая.
Представьте, какие возможности это открывает для образования, игр, визуализации данных. И всё это - из одного промпта.
Google в своих демо показал, как модель построила реальный аэрокосмический дашборд.
Модель подключилась к публичному API с телеметрией, получила данные о текущем местоположении Международной космической станции и визуализировала их на интерактивной карте с траекторией полёта.
Gemini 3.1 Pro способен работать с реальными API, парсить данные и строить на их основе полноценные приложения. Для разработчиков прототипов - просто подарок.
Не всё так радужно, конечно. Сообщество быстро нащупало и слабые места.
GDPval-AA тест. В этом тесте, который оценивает способность модели выполнять реальные рабочие задачи (сделать презентацию, таблицу, документ), Gemini 3.1 Pro набрал 1317 баллов. А вот Claude Sonnet 4.6 - 1633. Разрыв существенный.
Terminal-Bench 2.0. В тесте на работу в терминале и написание сложного кода GPT-5.3-Codex по-прежнему остаётся недосягаемым.
Arena Rankings. В рейтингах, где пользователи голосуют за «симпатичные» ответы, Claude Opus 4.6 всё ещё впереди на 4 очка.
Gemini отлично поднял планку логики и цены, но в офисных задачах и в умении понравиться пользователю конкуренты пока сильнее.
Много шума наделала возможность генерировать анимированные SVG прямо из текстового описания.
Раньше, чтобы сделать простую анимацию для сайта, нужно было или знать код, или разбираться в дизайнерских инструментах. Теперь можно просто написать: “сделай анимированную иконку загрузки в стиле киберпанк” - и модель выдаст готовый код.
Эту фичу уже окрестили началом ambient programming - когда код генерируется из воздуха, по первому требованию.
Знаете, что самое приятное в анонсе Gemini 3.1 Pro? Цена не изменилась. В мире, где инфляция растёт быстрее, чем контекстное окно у конкурентов, Google решил не драться с кошельком пользователя. И это, пожалуй, самое умное решение.
Давайте разберемся с цифрами. Вот как это выглядит в разбивке по объёму контекста:
|
Объем контекста |
Входные токены (за 1M) |
Выходные токены (за 1M) |
|
≤ 200K токенов |
$2.00 |
$12.00 |
|
> 200K токенов |
$4.00 |
$18.00 |
Важный нюанс: цена зависит от объёма контекста в конкретном запросе. Если вы грузите в модель небольшой текст (до 200 тысяч токенов), платите по минимальному тарифу. Если загружаете многотомную энциклопедию или репозиторий кода - цена вырастает, но всё равно остаётся адекватной.
Контекстное окно - те же 1 миллион токенов, что и у предшественника. Максимальный вывод вырос. Теперь модель может сгенерировать до 64-65 тысяч токенов за один запрос. Это, на минуточку, объем небольшой книги или очень подробного технического отчета.
Функция контекстного кэширования (когда модель помнит предыдущие диалоги) может снизить стоимость еще на 75%. То есть при грамотном использовании можно уложиться в копейки.
А теперь давайте посмотрим, сколько просят конкуренты за свои топовые модели. Цифры взяты из открытых источников и актуальны на февраль 2026 года.
|
Модель |
Вход (за 1M) |
Выход (за 1M) |
Контекст |
|
Gemini 3.1 Pro |
$2.00 |
$12.00 |
1 млн |
|
Claude Sonnet 4.6 |
$3.00 |
$15.00 |
200K |
|
GPT-5.2 |
~$10.00 |
~$30.00 |
~200K |
|
Claude Opus 4.6 |
$15.00 |
$75.00 |
200K |
Посчитаем на реальном примере. Допустим, вам нужно обработать 100 тысяч входных токенов и получить 10 тысяч выходных (это типичный сценарий для анализа документа или генерации кода):
Gemini 3.1 Pro: $0.32
Claude Sonnet 4.6: $0.45
GPT-5.2: ~$1.30
Claude Opus 4.6: $2.25
Gemini получается в 7 раз дешевле, чем Claude Opus 4.6. Для продакшн-нагрузок разница становится ощутимой.
Artificial Analysis провела любопытное исследование. Они прогнали все топ-модели через свой Intelligence Index (набор тестов на интеллект) и посчитали, сколько это стоило.
Gemini 3.1 Pro: потребовалось 56 млн токенов, стоимость прогона - $892
GPT-5.2 (xhigh): съел 130 млн токенов, цена - $2304
Claude Opus 4.6 (max): прожорливый режим - $2486
То есть получить одинаковый объем интеллекта на Gemini обходится в 2.6 раза дешевле, чем на Opus. И это при том, что по многим тестам Gemini выигрывает или как минимум не уступает.
Эффективность использования токенов тоже впечатляет. Gemini тратит заметно меньше токенов на решение задач, чем конкуренты в максимальных режимах мышления. Меньше токенов = дешевле и быстрее.
А что с тарифами для пользователей?
Если вы не разработчик, а просто хотите пользоваться моделью в вебе или приложении, у Google традиционная трёхуровневая система подписок:
|
План |
Цена в месяц |
Что даёт |
|
Google AI Plus |
$8 |
Pro-режим - до 30 запросов в день, Deep Research - 12 раз в день, 1000 изображений/день |
|
Google AI Pro |
$20 |
Pro-режим - до 100 запросов в день, Deep Research - 20 раз в день, Nano Banana Pro - 100 изображений/день |
|
Google AI Ultra |
$250 |
Всё выше + максимальный приоритет, Deep Think (расширенное мышление) |
Для обычного пользователя, который не пишет код тоннами, плана за $8 более чем достаточно. Там и Pro-доступ к Gemini 3.1 Pro, и Deep Research, и генерация картинок.
Почему Google не поднял цену? Тут есть несколько версий, и все они имеют право на жизнь.
Google последовательно делает ставку на то, чтобы сделать свои модели доступными. Бесплатный доступ в AI Studio, щедрые бесплатные токены, низкие цены на API могут спокойно быть частью статегии.
Anthropic выпустил Claude Sonnet 4.6 - модель среднего сегмента с отличным соотношением цены и качества. OpenAI тоже не дремлет. Чтобы удержать разработчиков, нужно предлагать лучшую цену за сопоставимое качество.
Модель пока в предварительном доступе. Google не даёт жестких гарантий SLA (доступности) и может позволить себе демпинговать, собирая обратную связь . Когда (и если) модель выйдет в релиз, цены могут пересмотреть.
Так что, если вы разработчик, который считает деньги (а кто их не считает?), выбор в пользу Gemini 3.1 Pro почти очевиден. Особенно для задач, где нужно обрабатывать много данных: анализ кодовых баз, работа с большими документами, агентные сценарии.
Gemini 3.1 Pro вышла очень хорошим обновлением. Google вложил кучу денег в улучшение логики и оставил ценник на доступном каждому уровне. Да, не идеальная, но очень привлекательна по некоторым характеристикам. Особенно для тех, кто считает деньги и умеет читать спецификации.
В остальном, конечно, добавлю, что нет идеального решения для всего.
Если вам нужно писать сложный системный код, тогда, возможно, GPT-5.3-Codex справится лучше. Если вы готовите презентации для совета директоров - Claude Sonnet 4.6 может сделать их аккуратнее. Если вы работаете с конфиденциальными данными и не можете отправлять их в облако, то вообще ни одна из этих моделей вам не подойдет, потому что все они живут на серверах США.
Более того, модели, которые выходят сегодня, уже завтра могут устареть. Пока я писала этот обзор, в тихих лабораториях Google, OpenAI и Anthropic инженеры не спали и, возможно, уже натренировали что-то, что сделает Gemini 3.1 Pro вчерашним днём. Поэтому найдите то, что достаточно хорошо справится с вашей задачей прямо сейчас, и кайфуйте.
Возьмите Gemini 3.1 Pro, попробуйте его на своих реальных задачах. Если зайдёт - радуйтесь и экономьте деньги. Если нет, то у вас есть из чего выбирать. Хороших моделей сейчас много, и это, пожалуй, лучшая новость.
Спасибо за прочтение!
Источник

