Gemini 3.1 Pro
1M contextgemini-3-1-pro — текстовая модель-модель от Google.
document_understandingfunction_callingstreamingtext_to_imagevisionweb_search
Попробуйте прямо здесь
Gemini 3.1 Pro Открыть в Playground
Что умеет Gemini 3.1 Pro
- Document Understanding
- Function Calling
- Streaming
- Text-to-image
- Vision
- Веб-поиск
Стоимость
за 1М input
<= 200k
560 ₽
> 200k
1 120 ₽
за 1М output
<= 200k
3 360 ₽
> 200k
5 040 ₽
web_search
3.92 ₽
Цены указаны в рублях и списываются с баланса проекта за успешные запросы. Надбавки (+) суммируются с базовой ставкой.
Технические характеристики
Контекст
1,048,576
токенов
Output
65,536
токенов
Vendor
google
Modality
text
Параметры запроса
Параметры, которые принимает модель. Передаются в теле запроса.
ПараметрТипДиапазон / значенияПо умолчаниюОписание
maxOutputTokensinteger
min: 1 · max: 65536
8192Максимум токенов в ответе.
temperaturenumber
min: 0 · max: 2
1Креативность 0-2.
topPnumber
min: 0 · max: 1
0.95Nucleus sampling.
topKinteger
min: 1
—Top-K sampling.
candidateCountinteger
min: 1 · max: 8
1Количество вариантов ответа.
stopSequencesarray
—
—Стоп-последовательности (макс 5).
responseMimeTypeenum
text/plain, application/json
text/plainapplication/json для structured output.
responseSchemaobject
—
—JSON Schema для структурированного ответа (требует responseMimeType=application/json).
responseModalitiesarray
—
—Модальности ответа: ["TEXT"], ["IMAGE"], ["AUDIO"], etc.
thinkingConfigobject
—
—{thinkingBudget:N} — для 2.5-pro / 3.x reasoning моделей.
seedinteger
—
—Для воспроизводимости.
presencePenaltynumber
min: -2 · max: 2
—Штраф за уже использованные токены.
frequencyPenaltynumber
min: -2 · max: 2
—Штраф за повторение токенов.
responseLogprobsboolean
—
falseВозвращать log-вероятности.
logprobsinteger
min: 1 · max: 20
—Количество top-N logprobs.
mediaResolutionenum
MEDIA_RESOLUTION_LOW, MEDIA_RESOLUTION_MEDIUM, MEDIA_RESOLUTION_HIGH
—Разрешение обработки картинок/видео.
toolsarray
—
—Function declarations / google_search / code_execution.
toolConfigobject
—
—{functionCallingConfig:{mode:"AUTO|ANY|NONE",allowedFunctionNames:[...]}}.
safetySettingsarray
—
—Список {category, threshold} для блокировки harmful content.
contentsreqarray
—
—Массив контента: история сообщений в формате Gemini. Каждый элемент — {role: "user"|"model", parts: [{text}|{inlineData}|{fileData}|{functionCall}|{functionResponse}|...]}.
1 пример
Примеры
[
{
"role": "user",
"parts": [
{
"text": "Привет!"
}
]
}
]systemInstructionobject
—
—System prompt — описание роли модели. Формат: {parts: [{text: "..."}]}.
1 пример
Примеры
{
"parts": [
{
"text": "You are a helpful assistant."
}
]
}cachedContentstring
—
—Имя кэшированного контента (для prompt caching через cachedContents API). Формат: cachedContents/{id}.
Пример кода
gemini-3-1-pro_example.py
from openai import OpenAI
client = OpenAI(api_key="rk_live_...", base_url="https://api.ranvik.ru/v1")
resp = client.chat.completions.create(
model="gemini-3-1-pro",
messages=[{"role": "user", "content": "Привет!"}],
)
print(resp.choices[0].message.content)
# ── С веб-поиском ──
resp = client.chat.completions.create(
model="gemini-3-1-pro",
messages=[{"role": "user", "content": "Что нового в AI сегодня?"}],
tools=[{"type": "web_search"}],
)
print(resp.choices[0].message.content)