DeepSeek V4 Pro

1M context
ПровайдерDeepseek

deepseek-v4-pro — текстовая модель-модель от Deepseek.

streamingfunction_callingjson_modeprompt_cachingreasoning

Попробуйте прямо здесь

Что умеет DeepSeek V4 Pro

  • Streaming
  • Function Calling
  • JSON Mode
  • Prompt Caching
  • Reasoning

Стоимость

за 1М cache read
4.06 ₽
за 1М input
487 ₽
за 1М output
974 ₽

Цены указаны в рублях и списываются с баланса проекта за успешные запросы. Надбавки (+) суммируются с базовой ставкой.

Технические характеристики

Контекст
1,048,576
токенов
Output
393,216
токенов
Vendor
deepseek
Modality
text

Параметры запроса

Параметры, которые принимает модель. Передаются в теле запроса.

ПараметрТипДиапазон / значенияПо умолчаниюОписание
max_tokens
integer
min: 1 · max: 393216
4096
Лимит output. v4 поддерживает до 384K.
temperature
number
min: 0 · max: 2
1
Креативность 0-2.
top_p
number
min: 0 · max: 1
1
Nucleus sampling.
response_format
object
{type:"json_object"} для JSON mode (требует упоминания JSON в промпте).
stop
array
До 16 строк-стопов.
tools
array
До 128 функций.
tool_choice
object
none | auto | required | {type:"function",function:{name:"X"}}.
logprobs
boolean
false
top_logprobs
integer
min: 0 · max: 20
thinking
object
{type:"enabled"|"disabled"} — переключает reasoning-режим. По умолчанию disabled на flash, enabled на pro.
user_id
string
max: 512
ID юзера, до 512 символов [a-zA-Z0-9-_].
stream
boolean
false
messagesreq
array
Массив сообщений OpenAI-compatible: [{role: "system"|"user"|"assistant", content: string}]. У DeepSeek Reasoner — поля reasoning_content в response.
1 пример
Примеры
[
  {
    "role": "system",
    "content": "You are a helpful assistant."
  },
  {
    "role": "user",
    "content": "Привет!"
  }
]
frequency_penalty
number
min: -2 · max: 2
0
Penalty за повторение токенов (-2..2).
presence_penalty
number
min: -2 · max: 2
0
Penalty за повторение тем (-2..2).
logit_bias
object
Map token_id → bias (-100..100).

Пример кода

deepseek-v4-pro_example.py
from openai import OpenAI

client = OpenAI(api_key="rk_live_...", base_url="https://api.ranvik.ru/v1")
resp = client.chat.completions.create(
    model="deepseek-v4-pro",
    messages=[{"role": "user", "content": "Привет!"}],
)
print(resp.choices[0].message.content)
Полная документация модели