Интеграция Anthropic Claude API Claude 4 Opus Sonnet Haiku

Проектируем и внедряем системы искусственного интеллекта: от прототипа до production-ready решения. Наша команда объединяет экспертизу в машинном обучении, дата-инжиниринге и MLOps, чтобы AI работал не в лаборатории, а в реальном бизнесе.
Показано 1 из 1 услугВсе 1566 услуг
Интеграция Anthropic Claude API Claude 4 Opus Sonnet Haiku
Простая
~1 рабочий день
Часто задаваемые вопросы
Направления AI-разработки
Этапы разработки AI-решения
Последние работы
  • image_website-b2b-advance_0.png
    Разработка сайта компании B2B ADVANCE
    1218
  • image_web-applications_feedme_466_0.webp
    Разработка веб-приложения для компании FEEDME
    1161
  • image_websites_belfingroup_462_0.webp
    Разработка веб-сайта для компании БЕЛФИНГРУПП
    853
  • image_ecommerce_furnoro_435_0.webp
    Разработка интернет магазина для компании FURNORO
    1047
  • image_logo-advance_0.png
    Разработка логотипа компании B2B Advance
    561
  • image_crm_enviok_479_0.webp
    Разработка веб-приложения для компании Enviok
    825

Интеграция Anthropic Claude API: Claude 4, Opus, Sonnet, Haiku

Anthropic предоставляет семейство Claude с моделями для разных задач. Claude Opus — максимальное качество для сложных задач. Claude Sonnet — баланс качество/скорость/стоимость для большинства production-сценариев. Claude Haiku — быстрые и дешёвые операции. Отличительные черты Claude: большое контекстное окно (200K токенов), надёжный JSON output, Tool Use для агентов.

Базовая интеграция

import anthropic
from pydantic import BaseModel

client = anthropic.Anthropic()  # ANTHROPIC_API_KEY из env

# Базовый вызов
def chat(prompt: str, model: str = "claude-sonnet-4-5") -> str:
    message = client.messages.create(
        model=model,
        max_tokens=1024,
        messages=[{"role": "user", "content": prompt}]
    )
    return message.content[0].text

# С system prompt
def chat_with_system(system: str, prompt: str) -> str:
    message = client.messages.create(
        model="claude-sonnet-4-5",
        max_tokens=2048,
        system=system,
        messages=[{"role": "user", "content": prompt}],
        temperature=0.1,
    )
    return message.content[0].text

# Streaming
def stream_response(prompt: str):
    with client.messages.stream(
        model="claude-sonnet-4-5",
        max_tokens=1024,
        messages=[{"role": "user", "content": prompt}],
    ) as stream:
        for text in stream.text_stream:
            yield text

# Vision
def analyze_image(image_base64: str, media_type: str, question: str) -> str:
    message = client.messages.create(
        model="claude-sonnet-4-5",
        max_tokens=1024,
        messages=[{
            "role": "user",
            "content": [
                {
                    "type": "image",
                    "source": {
                        "type": "base64",
                        "media_type": media_type,
                        "data": image_base64,
                    },
                },
                {"type": "text", "text": question},
            ],
        }]
    )
    return message.content[0].text

Tool Use (Function Calling)

tools = [{
    "name": "get_weather",
    "description": "Get current weather for a city",
    "input_schema": {
        "type": "object",
        "properties": {
            "city": {"type": "string", "description": "City name"},
            "units": {"type": "string", "enum": ["celsius", "fahrenheit"]},
        },
        "required": ["city"]
    }
}]

def run_agent_loop(user_message: str) -> str:
    messages = [{"role": "user", "content": user_message}]

    while True:
        response = client.messages.create(
            model="claude-sonnet-4-5",
            max_tokens=1024,
            tools=tools,
            messages=messages,
        )

        if response.stop_reason == "end_turn":
            return response.content[-1].text

        # Обрабатываем tool_use блоки
        tool_results = []
        for block in response.content:
            if block.type == "tool_use":
                result = dispatch_tool(block.name, block.input)
                tool_results.append({
                    "type": "tool_result",
                    "tool_use_id": block.id,
                    "content": str(result),
                })

        messages.append({"role": "assistant", "content": response.content})
        messages.append({"role": "user", "content": tool_results})

Prompt Caching для экономии

# Кэширование больших статичных промптов (документы, инструкции)
# Кэш хранится 5 минут, экономия до 90% стоимости на повторных вызовах
def cached_analysis(system_doc: str, question: str) -> str:
    message = client.messages.create(
        model="claude-sonnet-4-5",
        max_tokens=1024,
        system=[{
            "type": "text",
            "text": system_doc,
            "cache_control": {"type": "ephemeral"},  # Кэшируем этот блок
        }],
        messages=[{"role": "user", "content": question}]
    )
    return message.content[0].text

Стоимость моделей Claude (2025)

Модель Input (1M) Output (1M) Контекст
claude-opus-4 $15 $75 200K
claude-sonnet-4-5 $3 $15 200K
claude-haiku-4-5 $0.80 $4 200K

Сроки

  • Базовая интеграция: 0.5–1 день
  • Tool Use + agent loop: 2–3 дня
  • Prompt caching + оптимизация стоимости: 1 день