o3
200k contexto3 — текстовая модель-модель от Openai.
function_callingreasoningstreamingvision
Попробуйте прямо здесь
Что умеет o3
- Function Calling
- Reasoning
- Streaming
- Vision
Стоимость
за 1М cache read
140 ₽
за 1М input
560 ₽
за 1М output
2 240 ₽
web_search
2.8 ₽
Цены указаны в рублях и списываются с баланса проекта за успешные запросы. Надбавки (+) суммируются с базовой ставкой.
Технические характеристики
Контекст
200,000
токенов
Output
100,000
токенов
Vendor
openai
Modality
text
Параметры запроса
Параметры, которые принимает модель. Передаются в теле запроса.
ПараметрТипДиапазон / значенияПо умолчаниюОписание
max_completion_tokensreqinteger
min: 1 · max: 100000
16384Включает reasoning_tokens. Ставьте с запасом.
reasoning_effortenum
minimal, low, medium, high
mediumУправление глубиной reasoning перед ответом. minimal — почти без, high — глубокое обдумывание (медленнее, дороже). У o-series влияет на качество и стоимость.
response_formatobject
—
—{type:"json_object"} или {type:"json_schema",...}.
toolsarray
—
—Function/tool definitions (только o3/o4-mini).
tool_choiceobject
—
—parallel_tool_callsboolean
—
trueseedinteger
—
—service_tierenum
auto, default, flex, priority
autostoreboolean
—
falsemetadataobject
—
—safety_identifierstring
max: 64
—streamboolean
—
falsemessagesreqarray
—
—Массив сообщений диалога: [{role: "system"|"user"|"assistant"|"developer"|"tool", content: string|array}]. content может быть multimodal — массив частей {type: "text"|"image_url"|"input_audio"|...}.
1 пример
Примеры
[
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "Привет!"
}
]web_search_optionsobject
—
—Конфигурация built-in web search tool. {search_context_size: "low"|"medium"|"high", user_location: {...}}.
prompt_cache_keystring
—
—Опциональный cache key для prompt caching. Помогает OpenAI идентифицировать схожие запросы и обеспечивает cache hit-ы.
Пример кода
o3_example.py
from openai import OpenAI
client = OpenAI(api_key="rk_live_...", base_url="https://api.ranvik.ru/v1")
resp = client.chat.completions.create(
model="o3",
messages=[{"role": "user", "content": "Привет!"}],
)
print(resp.choices[0].message.content)
# ── С веб-поиском ──
resp = client.responses.create(
model="o3",
input="Что нового в AI сегодня?",
tools=[{"type": "web_search"}],
)
print(resp.output_text)