Текстовая модель · google

Gemini 3.1 Pro

gemini-3-1-pro

Gemini 3.1 Pro — текстовая модель от Google, доступная через единый Ranvik API. Контекстное окно — 1M токенов. Максимум выходных токенов за один запрос — 66k. Поддерживаемые возможности: document_understanding, function_calling, streaming, text_to_image, vision, web_search.

от 560 ₽ / 1M

Технические характеристики

МодальностьТекстовая модель
Провайдерgoogle
Контекст1M токенов
Max output66k токенов
СтатусАктивна
ID для запросовgemini-3-1-pro

Возможности

Streaming (SSE)— Получение ответа по мере генерации — токен за токеном через Server-Sent Events.

Как работает

Передай stream: true в теле запроса — сервер вернёт SSE-поток с заголовком content-type: text/event-stream. Каждый чанк — строка вида data: {...}\n\n. Конец потока — data: [DONE]\n\n.

curl -N https://api.ranvik.ru/v1/chat/completions \
  -H "Authorization: Bearer rk_live_..." \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-5",
    "messages": [{"role": "user", "content": "Привет"}],
    "stream": true,
    "stream_options": {"include_usage": true}
  }'

Каждый чанк содержит choices[0].delta — частичные данные. Последний чанк перед [DONE] (если включить stream_options.include_usage: true) содержит usage с реальным числом токенов — используй для биллинг-учёта на клиенте.

Когда использовать

  • Чат-интерфейсы, где важна перцептивная скорость отклика.
  • Длинные ответы (> 1000 токенов) — пользователь видит прогресс.
  • Streaming tool-calls — delta.tool_calls[i].function.arguments приходят инкрементально.

Когда НЕ использовать

  • Backend-to-backend интеграции, где нужен только финальный JSON — добавляет парсинг SSE без выгод.
  • Когда обязательно знать стоимость до отправки в БД — без include_usage затраты неизвестны.

Особенности у Google Gemini

Native Gemini API использует streamGenerateContent с другим форматом чанков. В Ranvik проксируем через OpenAI-compatible слой — формат стандартный. stream_options.include_usage поддерживается.

Vision (анализ изображений)— Картинки на вход вместе с текстом — OCR, распознавание объектов, описание сцен, анализ графиков.

Как передать изображение

Через массив content в сообщении вместо строки. Поддерживается URL и base64 (data URI).

{
  "model": "gpt-5",
  "messages": [{
    "role": "user",
    "content": [
      {"type": "text", "text": "Что на этой схеме?"},
      {"type": "image_url", "image_url": {"url": "https://.../diagram.png"}}
    ]
  }]
}

Для base64: "url": "data:image/png;base64,iVBOR...". Размер ограничен ~20MB.

Биллинг изображений

Картинка считается как input-токены — точное число зависит от размера и detail. Грубо: 512×512 ≈ 250 токенов, 2048×2048 ≈ 1500. Минимизируй размер если нужно много кадров.

Что НЕ умеют vision-модели

  • Точные измерения (расстояния, размеры в пикселях).
  • Распознавание текста на сложных шрифтах при низком DPI — лучше OCR-модель.
  • Деанонимизация лиц / людей — модели отказываются.

Особенности у Google Gemini

Native Gemini принимает inlineData или fileData. Гемини выделяется поддержкой видео и аудио на вход — модальности video и audio в content. В /v1/chat/completions-shim используется формат OpenAI.

  • Document Understanding
  • Function Calling
  • Streaming
  • Text-to-image
  • Vision
  • Веб-поиск

Цены

ЕдиницаЦена
за 1М input · <= 200k560 ₽
за 1М input · > 200k1 120 ₽
за 1М output · <= 200k3 360 ₽
за 1М output · > 200k5 040 ₽
web_search3.92 ₽

Цены указаны в рублях. Списываются с баланса проекта при каждом успешном запросе.

Поддерживаемые параметры

Параметры передаются вендору как есть (pure proxy) — мы не валидируем их у себя на стороне. Если вендор не примет — вернётся его ошибка.

ПараметрТипДиапазон / valuesDefaultОписание
maxOutputTokensintegermin: 1 · max: 655368192 Максимум токенов в ответе.
temperaturenumbermin: 0 · max: 21 Креативность 0-2.
topPnumbermin: 0 · max: 10.95 Nucleus sampling.
topKintegermin: 1 Top-K sampling.
candidateCountintegermin: 1 · max: 81 Количество вариантов ответа.
stopSequencesarray Стоп-последовательности (макс 5).
responseMimeTypeenumtext/plain, application/jsontext/plain application/json для structured output.
responseSchemaobject JSON Schema для структурированного ответа (требует responseMimeType=application/json).
responseModalitiesarray Модальности ответа: ["TEXT"], ["IMAGE"], ["AUDIO"], etc.
thinkingConfigobject {thinkingBudget:N} — для 2.5-pro / 3.x reasoning моделей.
seedinteger Для воспроизводимости.
presencePenaltynumbermin: -2 · max: 2 Штраф за уже использованные токены.
frequencyPenaltynumbermin: -2 · max: 2 Штраф за повторение токенов.
responseLogprobsbooleanfalse Возвращать log-вероятности.
logprobsintegermin: 1 · max: 20 Количество top-N logprobs.
mediaResolutionenumMEDIA_RESOLUTION_LOW, MEDIA_RESOLUTION_MEDIUM, MEDIA_RESOLUTION_HIGH Разрешение обработки картинок/видео.
toolsarray Function declarations / google_search / code_execution.
toolConfigobject {functionCallingConfig:{mode:"AUTO|ANY|NONE",allowedFunctionNames:[...]}}.
safetySettingsarray Список {category, threshold} для блокировки harmful content.
contentsrequiredarray Массив контента: история сообщений в формате Gemini. Каждый элемент — {role: "user"|"model", parts: [{text}|{inlineData}|{fileData}|{functionCall}|{functionResponse}|...]}.
примеры значений
Примеры
[
  {
    "role": "user",
    "parts": [
      {
        "text": "Привет!"
      }
    ]
  }
]
systemInstructionobject System prompt — описание роли модели. Формат: {parts: [{text: "..."}]}.
примеры значений
Примеры
{
  "parts": [
    {
      "text": "You are a helpful assistant."
    }
  ]
}
cachedContentstring Имя кэшированного контента (для prompt caching через cachedContents API). Формат: cachedContents/{id}.

Пример запроса

from openai import OpenAI

client = OpenAI(api_key="rk_live_...", base_url="https://api.ranvik.ru/v1")
resp = client.chat.completions.create(
    model="gemini-3-1-pro",
    messages=[{"role": "user", "content": "Привет!"}],
)
print(resp.choices[0].message.content)

# ── С веб-поиском ──
resp = client.chat.completions.create(
    model="gemini-3-1-pro",
    messages=[{"role": "user", "content": "Что нового в AI сегодня?"}],
    tools=[{"type": "web_search"}],
)
print(resp.choices[0].message.content)

Замените rk_live_... на ваш ключ из кабинета.

О провайдере: Google

Google DeepMind разрабатывает семейство моделей Gemini — мультимодальные LLM с нативной поддержкой текста, изображений, аудио и видео в одном запросе. Известны рекордно длинным контекстом (до 2M токенов).

Официальный сайт: https://deepmind.google

Документация модели у вендора: https://ai.google.dev/gemini-api/docs/models