GPT-4o mini
gpt-4o-mini
GPT-4o mini — текстовая модель от OpenAI, доступная через единый Ranvik API. Контекстное окно — 128k токенов. Максимум выходных токенов за один запрос — 16k. Поддерживаемые возможности: function_calling, streaming, vision.
от 42 ₽ / 1M
Технические характеристики
gpt-4o-miniВозможности
Streaming (SSE)— Получение ответа по мере генерации — токен за токеном через Server-Sent Events.
Как работает
Передай stream: true в теле запроса — сервер вернёт SSE-поток с заголовком
content-type: text/event-stream. Каждый чанк — строка вида data: {...}\n\n.
Конец потока — data: [DONE]\n\n.
curl -N https://api.ranvik.ru/v1/chat/completions \
-H "Authorization: Bearer rk_live_..." \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-5",
"messages": [{"role": "user", "content": "Привет"}],
"stream": true,
"stream_options": {"include_usage": true}
}'
Каждый чанк содержит choices[0].delta — частичные данные. Последний чанк перед
[DONE] (если включить stream_options.include_usage: true) содержит usage
с реальным числом токенов — используй для биллинг-учёта на клиенте.
Когда использовать
- Чат-интерфейсы, где важна перцептивная скорость отклика.
- Длинные ответы (> 1000 токенов) — пользователь видит прогресс.
- Streaming tool-calls —
delta.tool_calls[i].function.argumentsприходят инкрементально.
Когда НЕ использовать
- Backend-to-backend интеграции, где нужен только финальный JSON — добавляет парсинг SSE без выгод.
- Когда обязательно знать стоимость до отправки в БД — без
include_usageзатраты неизвестны.
Особенности у OpenAI
Стандарт. include_usage: true обязателен для получения final usage в
последнем чанке.
Vision (анализ изображений)— Картинки на вход вместе с текстом — OCR, распознавание объектов, описание сцен, анализ графиков.
Как передать изображение
Через массив content в сообщении вместо строки. Поддерживается URL и base64
(data URI).
{
"model": "gpt-5",
"messages": [{
"role": "user",
"content": [
{"type": "text", "text": "Что на этой схеме?"},
{"type": "image_url", "image_url": {"url": "https://.../diagram.png"}}
]
}]
}
Для base64: "url": "data:image/png;base64,iVBOR...". Размер ограничен ~20MB.
Биллинг изображений
Картинка считается как input-токены — точное число зависит от размера и
detail. Грубо: 512×512 ≈ 250 токенов, 2048×2048 ≈ 1500. Минимизируй размер
если нужно много кадров.
Что НЕ умеют vision-модели
- Точные измерения (расстояния, размеры в пикселях).
- Распознавание текста на сложных шрифтах при низком DPI — лучше OCR-модель.
- Деанонимизация лиц / людей — модели отказываются.
Особенности у OpenAI
Параметр detail: "low" | "high" | "auto". low фиксирует обработку под
85 токенов (грубее, дешевле); high — сетка 512×512 кропов до 1500+ токенов.
Default auto решает по размеру.
- Function Calling
- Streaming
- Vision
Цены
| Единица | Цена |
|---|---|
| за 1М input | 42 ₽ |
| за 1М output | 168 ₽ |
| web_search | 2.8 ₽ |
Цены указаны в рублях. Списываются с баланса проекта при каждом успешном запросе.
Поддерживаемые параметры
Параметры передаются вендору как есть (pure proxy) — мы не валидируем их у себя на стороне. Если вендор не примет — вернётся его ошибка.
| Параметр | Тип | Диапазон / values | Default | Описание |
|---|---|---|---|---|
max_completion_tokens | integer | min: 1 · max: 16384 | 4096 | Лимит output. max_tokens deprecated, используйте этот. |
temperature | number | min: 0 · max: 2 | 1 | 0 — детерминированно, 2 — максимум креативности. |
top_p | number | min: 0 · max: 1 | 1 | Nucleus sampling. Альтернатива temperature. |
n | integer | min: 1 · max: 10 | 1 | Сколько вариантов сгенерировать. |
stop | array | — | — | До 4 строк, на которых остановиться. |
frequency_penalty | number | min: -2 · max: 2 | 0 | Штраф за повторение токенов. |
presence_penalty | number | min: -2 · max: 2 | 0 | Штраф за уже использованные токены. |
response_format | object | — | — | {type:"text"} | {type:"json_object"} | {type:"json_schema",json_schema:{...}}. |
seed | integer | — | — | Для воспроизводимости (beta). |
logprobs | boolean | — | false | Возвращать log-вероятности. |
top_logprobs | integer | min: 0 · max: 20 | — | Количество top-N logprobs. |
logit_bias | object | — | — | {token_id: bias} — изменение вероятностей. |
tools | array | — | — | Function/tool definitions. |
tool_choice | object | — | — | none | auto | required | {type:"function",function:{name:"X"}}. |
parallel_tool_calls | boolean | — | true | — |
service_tier | enum | auto, default, flex, scale, priority | auto | — |
metadata | object | — | — | До 16 key-value пар для трекинга. |
store | boolean | — | false | Сохранять output для distillation/evals. |
prompt_cache_key | string | — | — | Ключ оптимизации кэша. |
safety_identifier | string | max: 64 | — | Stable identifier юзера для safety. |
stream | boolean | — | false | — |
messagesrequired | array | — | — | Массив сообщений диалога: [{role: "system"|"user"|"assistant"|"developer"|"tool", content: string|array}]. content может быть multimodal — массив частей {type: "text"|"image_url"|"input_audio"|...}. примеры значенийПримеры [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "Привет!"
}
] |
web_search_options | object | — | — | Конфигурация built-in web search tool. {search_context_size: "low"|"medium"|"high", user_location: {...}}. |
Пример запроса
from openai import OpenAI
client = OpenAI(api_key="rk_live_...", base_url="https://api.ranvik.ru/v1")
resp = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": "Привет!"}],
)
print(resp.choices[0].message.content)
# ── С веб-поиском ──
resp = client.responses.create(
model="gpt-4o-mini",
input="Что нового в AI сегодня?",
tools=[{"type": "web_search"}],
)
print(resp.output_text) Замените rk_live_... на ваш ключ из кабинета.
О провайдере: OpenAI
OpenAI — американская компания, создатель ChatGPT и серии моделей GPT. Один из лидеров индустрии генеративного ИИ. Модели OpenAI отличаются балансом скорости, качества и широкой поддержкой инструментов (function calling, vision, structured output).
Официальный сайт: https://openai.com
Документация модели у вендора: https://platform.openai.com/docs/models/gpt-4o-mini