ИИ
June 19, 2025

Размер контекста и возможности последних моделей ИИ (июнь 2025)

Представляю сравнительные характеристики "мощи" современных ИИ, составленные Perplexity, Grok и ChatGPT. Основными критериями были размер контекстного окна (токены), объем текста и способность "держать нить" (долгое время следовать контексту).

Описание критериев

Размер контекста (токены)

Контекстное окно определяет, сколько текста модель может обработать за один раз. Токены — это единицы текста, где 1 токен примерно равен 0,75 слова или 4 символам. Например:

  • 128 000 токенов ≈ 96 000 слов ≈ 192 страницы текста (при 500 слов на страницу).
  • 1 000 000 токенов ≈ 750 000 слов ≈ 1500 страниц текста.

Большие контекстные окна позволяют моделям обрабатывать длинные документы или поддерживать длительные диалоги без потери контекста.

Примерный объем текста

Объем текста рассчитан на основе соотношения 1 токен = 0,75 слова. Это приблизительная оценка, так как точное количество слов зависит от языка и структуры текста. Например, технические тексты могут содержать больше токенов на слово из-за сложной терминологии.

Способность "держать нить"

Этот критерий отражает, насколько хорошо модель сохраняет связность и релевантность ответов в длинных диалогах или при обработке больших объемов текста. Модели с большим контекстным окном, такие как Gemini 2.5 Pro и Grok 3, демонстрируют превосходную способность поддерживать контекст благодаря возможности обработки больших объемов данных. Модели с меньшим окном, такие как ChatGPT (o3-pro) и DeepSeek-R1-0528, эффективны в пределах своего лимита, но могут терять детали при превышении контекстного окна.

Сравнение возможностей ИИ от Perplexity

Лидеры по размеру контекста: Gemini 2.0 Pro с 2 миллионами токенов и GPT-4.1 с более чем миллионом токенов находятся в авангарде по объему обрабатываемого контекста. Grok-3 также достигает миллиона токенов, что делает его конкурентоспособным в этом аспекте.

Специализация моделей: DeepSeek R1 выделяется в области математики и программирования, превосходя даже OpenAI o1 в математических тестах. Claude 3.7 Sonnet предлагает уникальный режим расширенного мышления с параллельным использованием инструментов.

Ограничения Perplexity: Несмотря на преимущества в поиске в реальном времени, Perplexity значительно ограничена по размеру контекста (32 000 токенов) и использует RAG-стратегию для работы с длинными текстами.

Мультимодальность: Gemini и GPT-4o лидируют в мультимодальных возможностях, обрабатывая текст, изображения, аудио и видео. Grok-3 также предлагает интеграцию с данными социальных сетей в реальном времени.

Сравнение возможностей ИИ от Grok

Каждая модель имеет уникальные сильные стороны и потенциальные ограничения, которые зависят от целевых задач:

  • ChatGPT (o3-pro): Разработана OpenAI, эта модель выделяется в задачах, требующих рассуждений, таких как программирование и математика. Поддерживает мультимодальность (текст, изображения, аудио). Однако сложные запросы могут увеличивать задержку или стоимость использования. Существует некоторая неопределенность относительно точной модели, используемой в ChatGPT. Для пользователей Pro вероятно используется o3-pro с контекстным окном 128 000 токенов, хотя API-версии, такие как GPT-4.1, могут поддерживать до 1 000 000 токенов. Для потребительской версии ChatGPT контекстное окно может быть ограничено 32 000 токенов для пользователей Plus (ИИ для бедных), но данные на июнь 2025 года подтверждают 128 000 токенов для o3-pro.
  • Gemini (Gemini 2.5 Pro): Модель от Google DeepMind с выдающимися возможностями обработки длинных контекстов и мультимодальности. Превосходит в кодировании и образовательных задачах, но требует значительных вычислительных ресурсов .
  • Claude (Claude 4): Разработана Anthropic, эта модель оптимизирована для длительных задач, таких как кодирование и агентные приложения. Может быть дороже для высоконагруженных сценариев .
  • DeepSeek (DeepSeek-R1-0528): Китайская модель, предлагающая высокую производительность по низкой стоимости. Подходит для задач рассуждения, но может вызывать опасения по безопасности данных. Несмотря на конкурентоспособную производительность, пользователи должны учитывать потенциальные риски, связанные с происхождением модели.
  • Grok (Grok 3): Модель от xAI с акцентом на правдивость и обработку больших контекстов. Интеграция с платформой X обеспечивает доступ к данным в реальном времени, но доступ может быть ограничен для пользователей вне X .
  • Perplexity (Sonar Pro): Собственная модель Perplexity, оптимизированная для поисковых задач с доступом к веб в реальном времени. Идеальна для исследований, но менее эффективна для творческих задач без поиска. Sonar Pro выделяется благодаря интеграции с поисковой системой, что делает его уникальным для задач, требующих актуальной информации из интернета.
  • Gemini и Grok: Их большие контекстные окна (1 000 000 токенов) делают их лидерами в обработке длинных документов, таких как книги или сложные кодовые базы.

Сравнение возможностей ИИ от ChatGPT

  • До 1 млн токенов: Gemini 2.5 Pro и GPT‑4.1 API — настоящий выбор для работы с огромным объёмом текста. Grok и Perplexity теоретически могут, но практический лимит ниже.
  • До 500 к токенов: Claude Enterprise — отличный вариант, если нужна максимальная связность.
  • До 128 к токенов: DeepSeek V3 и ChatGPT Pro / GPT‑4.1 Pro — для мощной аналитики на уровне больших, но не гигантских задач.
  • Ограниченные (32 к): ChatGPT Plus, Perplexity в обычном чате — подойдут для обычного использования.
  • Grok — оптимален для креатива, коротких заданий, но не для глубоких задач.

Источники

https://www.reddit.com/r/OpenAI/comments/1kmqxrv/chatgpt_pro_plan_just_dropped_model_41_but_no_1m/

https://explodingtopics.com/blog/list-of-llms

https://codingscape.com/blog/llms-with-largest-context-windows

https://www.reddit.com/r/OpenAI/comments/1kwg3c6/gpt41_supports_a_1m_token_contextwhy_is_chatgpt/

https://community.openai.com/t/why-context-length-is-becoming-a-big-deal-in-ai/1285618

https://blog.risingstack.com/state-of-openai-gpt-models/

https://openai.com/index/introducing-o3-and-o4-mini/

https://blog.google/technology/google-deepmind/gemini-model-thinking-updates-march-2025/

https://blog.google/technology/google-deepmind/google-gemini-updates-io-2025/

https://zappedia.com/claude-3-7-context-window/

https://www.byteplus.com/en/topic/375494

https://x.ai/news/grok-3

https://www.newoaks.ai/blog/beginners-guide-grok-3-api-2025/

https://fastbots.ai/blog/grok-3-xai-s-new-ai-model-in-2025

https://www.reddit.com/r/perplexity_ai/comments/1ivdadf/32k_context_windows_for_perplexity_explained/

https://zuplo.com/blog/2025/03/28/perplexity-api

Artificial Analysis AI Model Comparison ChatGPT Release Notes June 2025 Gemini 2.5 Pro Updates May 2025 Claude 4 Announcement May 2025 DeepSeek-R1-0528 Hugging Face Page Grok 3 Beta Announcement February 2025 Perplexity Sonar Pro API Introduction

https://www.reddit.com/r/OpenAI/comments/1kwg3c6/gpt41_supports_a_1m_token_contextwhy_is_chatgpt/ (reddit.com)

https://www.anthropic.com/news/claude-3-5-sonnet (anthropic.com)

https://support.anthropic.com/en/articles/8606394-how-large-is-the-context-window-on-paid-claude-ai-plans (support.anthropic.com)

https://huggingface.co/deepseek-ai/DeepSeek-V3 (huggingface.co)

https://perplexity.ai/hub/technical-faq/what-is-a-token-and-how-many-tokens-can-perplexity-read-at-once (threads.com, perplexity.ai)