Интеграция DeepSeek API
DeepSeek — китайский провайдер LLM с моделями, конкурирующими с GPT-4o при значительно меньшей стоимости. DeepSeek-R1 — reasoning-модель с открытыми весами, сравнимая с o1 от OpenAI. DeepSeek Coder V2 — специализированная кодовая модель. Важно: данные обрабатываются в Китае, что критично для compliance-чувствительных задач.
Базовая интеграция (OpenAI-совместимый API)
from openai import OpenAI
# DeepSeek полностью совместим с OpenAI SDK
client = OpenAI(
api_key="DEEPSEEK_API_KEY",
base_url="https://api.deepseek.com",
)
# Chat
response = client.chat.completions.create(
model="deepseek-chat", # DeepSeek-V3
messages=[
{"role": "system", "content": "Ты — опытный Python разработчик"},
{"role": "user", "content": "Напиши async функцию для batch-запросов к API"},
],
temperature=0.1,
)
print(response.choices[0].message.content)
# Reasoning (deepseek-reasoner = R1)
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=[{"role": "user", "content": "Докажи что sqrt(2) иррационально"}],
)
# R1 возвращает reasoning_content (цепочка рассуждений) + content (ответ)
print(response.choices[0].message.reasoning_content) # Размышления
print(response.choices[0].message.content) # Финальный ответ
Streaming
with client.chat.completions.stream(
model="deepseek-chat",
messages=[{"role": "user", "content": "Длинный ответ..."}],
) as stream:
for chunk in stream.text_stream:
print(chunk, end="", flush=True)
Заполнение кода (FIM) — DeepSeek Coder
response = client.completions.create(
model="deepseek-chat",
prompt="<|fim▁begin|>def calculate_tax(income: float",
suffix="<|fim▁end|>",
max_tokens=128,
stop=["<|fim▁end|>"],
)
print(response.choices[0].text)
Стоимость DeepSeek (2025)
| Модель | Input (1M) | Output (1M) | Примечание |
|---|---|---|---|
| DeepSeek-V3 | $0.27 | $1.10 | Кэшированный input $0.07 |
| DeepSeek-R1 | $0.55 | $2.19 | Reasoning модель |
Для сравнения: GPT-4o $2.50/$10, что делает DeepSeek в 5–10× дешевле при сопоставимом качестве.
Когда использовать
- Задачи требующие вычислений или глубокого анализа — R1
- Код, SQL, data analysis — DeepSeek-V3 или Coder V2
- Высоконагруженные сценарии с ценочувствительностью — DeepSeek-V3
- Compliance-требования с хранением данных в РФ/ЕС — не подходит
Локальный запуск
ollama pull deepseek-r1:7b # 4.7 GB
ollama pull deepseek-r1:70b # 43 GB (требует GPU с 40GB VRAM)
Сроки
- Базовая интеграция: 0.5 дня (OpenAI-совместимый API)
- Тестирование качества на конкретных задачах: 1–2 дня







