Интеграция Perplexity API для AI-поиска

Проектируем и внедряем системы искусственного интеллекта: от прототипа до production-ready решения. Наша команда объединяет экспертизу в машинном обучении, дата-инжиниринге и MLOps, чтобы AI работал не в лаборатории, а в реальном бизнесе.
Показано 1 из 1 услугВсе 1566 услуг
Интеграция Perplexity API для AI-поиска
Простая
~1 рабочий день
Часто задаваемые вопросы
Направления AI-разработки
Этапы разработки AI-решения
Последние работы
  • image_website-b2b-advance_0.png
    Разработка сайта компании B2B ADVANCE
    1218
  • image_web-applications_feedme_466_0.webp
    Разработка веб-приложения для компании FEEDME
    1161
  • image_websites_belfingroup_462_0.webp
    Разработка веб-сайта для компании БЕЛФИНГРУПП
    853
  • image_ecommerce_furnoro_435_0.webp
    Разработка интернет магазина для компании FURNORO
    1047
  • image_logo-advance_0.png
    Разработка логотипа компании B2B Advance
    561
  • image_crm_enviok_479_0.webp
    Разработка веб-приложения для компании Enviok
    825

Интеграция Perplexity API для AI-поиска

Perplexity — LLM с встроенным веб-поиском в реальном времени. Отличие от обычных LLM: модель автоматически ищет актуальную информацию и возвращает ответ со ссылками на источники. Полезно для задач, где требуется актуальность данных (новости, цены, технические изменения).

Базовая интеграция

from openai import OpenAI

# Perplexity использует OpenAI-совместимый API
client = OpenAI(
    api_key="PERPLEXITY_API_KEY",
    base_url="https://api.perplexity.ai",
)

# Поиск с актуальной информацией
response = client.chat.completions.create(
    model="llama-3.1-sonar-large-128k-online",  # online = с поиском
    messages=[{
        "role": "user",
        "content": "Какие новые возможности появились в Python 3.13?"
    }],
)
print(response.choices[0].message.content)
# Ответ содержит актуальную информацию + ссылки на источники

# Цитаты в ответе
if hasattr(response, 'citations'):
    for citation in response.citations:
        print(f"Источник: {citation}")

Настройка поиска

# search_domain_filter — ограничение поиска конкретными доменами
response = client.chat.completions.create(
    model="llama-3.1-sonar-large-128k-online",
    messages=[{"role": "user", "content": "Последние новости про GPT-5"}],
    extra_body={
        "search_domain_filter": ["openai.com", "techcrunch.com"],
        "search_recency_filter": "week",  # Только за последнюю неделю
        "return_images": False,
        "return_related_questions": True,
    }
)

Офлайн модели (без поиска)

# Когда поиск не нужен — дешевле и быстрее
response = client.chat.completions.create(
    model="llama-3.1-sonar-large-128k-chat",  # chat = без поиска
    messages=[{"role": "user", "content": "Объясни алгоритм Дейкстры"}],
)

Модели Perplexity

Модель Поиск Контекст Стоимость (1M)
llama-3.1-sonar-huge-128k-online Да 127K $5 + $5/1000 поисков
llama-3.1-sonar-large-128k-online Да 127K $1 + $5/1000 поисков
llama-3.1-sonar-small-128k-online Да 127K $0.20 + $5/1000
llama-3.1-sonar-large-128k-chat Нет 127K $1

Сценарии использования

  • Мониторинг новостей и конкурентов (актуальная информация)
  • Проверка технической документации на актуальность
  • Ответы на вопросы о текущих событиях
  • Research-ассистент с верифицируемыми источниками

Сроки

  • Базовая интеграция: 0.5 дня
  • Парсинг цитат и источников: 1 день
  • Интеграция в корпоративный поиск: 1 неделя