DeepSeek V4 Flash
1M contextdeepseek-v4-flash — текстовая модель-модель от Deepseek.
streamingfunction_callingjson_modeprompt_cachingreasoning
Попробуйте прямо здесь
DeepSeek V4 Flash Открыть в Playground
Что умеет DeepSeek V4 Flash
- Streaming
- Function Calling
- JSON Mode
- Prompt Caching
- Reasoning
Стоимость
за 1М cache read
0.784 ₽
за 1М input
39.2 ₽
за 1М output
78.4 ₽
Цены указаны в рублях и списываются с баланса проекта за успешные запросы. Надбавки (+) суммируются с базовой ставкой.
Технические характеристики
Контекст
1,048,576
токенов
Output
393,216
токенов
Vendor
deepseek
Modality
text
Параметры запроса
Параметры, которые принимает модель. Передаются в теле запроса.
ПараметрТипДиапазон / значенияПо умолчаниюОписание
max_tokensinteger
min: 1 · max: 393216
4096Лимит output. v4 поддерживает до 384K.
temperaturenumber
min: 0 · max: 2
1Креативность 0-2.
top_pnumber
min: 0 · max: 1
1Nucleus sampling.
response_formatobject
—
—{type:"json_object"} для JSON mode (требует упоминания JSON в промпте).
stoparray
—
—До 16 строк-стопов.
toolsarray
—
—До 128 функций.
tool_choiceobject
—
—none | auto | required | {type:"function",function:{name:"X"}}.
logprobsboolean
—
falsetop_logprobsinteger
min: 0 · max: 20
—thinkingobject
—
—{type:"enabled"|"disabled"} — переключает reasoning-режим. По умолчанию disabled на flash, enabled на pro.
user_idstring
max: 512
—ID юзера, до 512 символов [a-zA-Z0-9-_].
streamboolean
—
falsemessagesreqarray
—
—Массив сообщений OpenAI-compatible: [{role: "system"|"user"|"assistant", content: string}]. У DeepSeek Reasoner — поля reasoning_content в response.
1 пример
Примеры
[
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "Привет!"
}
]frequency_penaltynumber
min: -2 · max: 2
0Penalty за повторение токенов (-2..2).
presence_penaltynumber
min: -2 · max: 2
0Penalty за повторение тем (-2..2).
logit_biasobject
—
—Map token_id → bias (-100..100).
Пример кода
deepseek-v4-flash_example.py
from openai import OpenAI
client = OpenAI(api_key="rk_live_...", base_url="https://api.ranvik.ru/v1")
resp = client.chat.completions.create(
model="deepseek-v4-flash",
messages=[{"role": "user", "content": "Привет!"}],
)
print(resp.choices[0].message.content)