Разработка AI-модели на базе GAN для генерации рыночных сценариев

Проектируем и внедряем системы искусственного интеллекта: от прототипа до production-ready решения. Наша команда объединяет экспертизу в машинном обучении, дата-инжиниринге и MLOps, чтобы AI работал не в лаборатории, а в реальном бизнесе.
Показано 1 из 1 услугВсе 1566 услуг
Разработка AI-модели на базе GAN для генерации рыночных сценариев
Сложная
~1-2 недели
Часто задаваемые вопросы
Направления AI-разработки
Этапы разработки AI-решения
Последние работы
  • image_website-b2b-advance_0.png
    Разработка сайта компании B2B ADVANCE
    1218
  • image_web-applications_feedme_466_0.webp
    Разработка веб-приложения для компании FEEDME
    1161
  • image_websites_belfingroup_462_0.webp
    Разработка веб-сайта для компании БЕЛФИНГРУПП
    853
  • image_ecommerce_furnoro_435_0.webp
    Разработка интернет магазина для компании FURNORO
    1047
  • image_logo-advance_0.png
    Разработка логотипа компании B2B Advance
    561
  • image_crm_enviok_479_0.webp
    Разработка веб-приложения для компании Enviok
    825

AI-генерация рыночных сценариев с GAN и LLM

Синтетические рыночные сценарии используются для стресс-тестирования торговых стратегий, обучения ML-моделей на редких событиях (кризисы, flash crash), бэктестинга без lookahead bias. GAN-подход генерирует статистически правдоподобные ценовые ряды, LLM-подход — нарративные экономические сценарии.

TimeGAN для синтетических временных рядов

import torch
import torch.nn as nn
import numpy as np
from dataclasses import dataclass

@dataclass
class TimeGANConfig:
    seq_len: int = 24          # длина последовательности
    n_features: int = 5        # OHLCV
    hidden_dim: int = 24
    num_layers: int = 3
    batch_size: int = 128
    epochs: int = 1000
    learning_rate: float = 1e-3

class EmbeddingNetwork(nn.Module):
    """Кодирует реальные данные в латентное пространство"""
    def __init__(self, input_dim: int, hidden_dim: int, num_layers: int):
        super().__init__()
        self.rnn = nn.GRU(input_dim, hidden_dim, num_layers, batch_first=True)
        self.fc = nn.Linear(hidden_dim, hidden_dim)

    def forward(self, x):
        h, _ = self.rnn(x)
        return torch.sigmoid(self.fc(h))

class Generator(nn.Module):
    """Генерирует синтетические данные из шума"""
    def __init__(self, noise_dim: int, hidden_dim: int, output_dim: int, num_layers: int):
        super().__init__()
        self.rnn = nn.GRU(noise_dim + hidden_dim, hidden_dim, num_layers, batch_first=True)
        self.fc = nn.Linear(hidden_dim, hidden_dim)

    def forward(self, z, h):
        # z: шум, h: исторический контекст из эмбеддинга
        combined = torch.cat([z, h], dim=-1)
        out, _ = self.rnn(combined)
        return torch.sigmoid(self.fc(out))

class TimeGAN:
    def __init__(self, config: TimeGANConfig):
        self.config = config
        self.embedder = EmbeddingNetwork(config.n_features, config.hidden_dim, config.num_layers)
        self.generator = Generator(config.hidden_dim, config.hidden_dim, config.n_features, config.num_layers)
        self.discriminator = nn.GRU(config.hidden_dim, config.hidden_dim, config.num_layers, batch_first=True)

    def train(self, real_data: np.ndarray) -> None:
        """
        real_data: (N, seq_len, n_features) нормализованный OHLCV
        4 фазы: Embedder, Supervised, Generator, Joint
        """
        real_tensor = torch.FloatTensor(real_data)
        # ... обучение по 4 фазам TimeGAN

    def generate(self, n_samples: int) -> np.ndarray:
        with torch.no_grad():
            z = torch.randn(n_samples, self.config.seq_len, self.config.hidden_dim)
            h_init = torch.zeros(n_samples, self.config.seq_len, self.config.hidden_dim)
            synthetic = self.generator(z, h_init)
            # Декодируем через recovery network
        return synthetic.numpy()

LLM-генерация нарративных сценариев

from openai import AsyncOpenAI
import json

client = AsyncOpenAI()

async def generate_market_scenario(
    asset: str,
    timeframe: str = "3 months",
    scenario_type: str = "stress"  # stress, bull, bear, sideways, black_swan
) -> dict:
    SCENARIO_CONTEXTS = {
        "stress": "финансовый кризис, рост волатильности, снижение ликвидности",
        "black_swan": "неожиданное событие: геополитика, технологический сбой, природная катастрофа",
        "bull": "устойчивый рост, позитивные макроэкономические данные",
        "bear": "рецессия, рост инфляции, ужесточение монетарной политики"
    }

    response = await client.chat.completions.create(
        model="gpt-4o",
        messages=[{
            "role": "system",
            "content": f"""Ты — квалифицированный финансовый аналитик.
            Сгенерируй детальный рыночный сценарий.
            Тип сценария: {scenario_type} — {SCENARIO_CONTEXTS.get(scenario_type, '')}.
            Верни JSON с полями:
            - narrative: текстовое описание сценария
            - macro_drivers: макроэкономические триггеры (список)
            - price_trajectory: ожидаемая динамика цены [{{"month": N, "expected_change_pct": X}}]
            - volatility_profile: ожидаемая волатильность по периодам
            - key_risk_factors: ключевые риски
            - correlation_shifts: как меняются корреляции с другими активами
            Горизонт: {timeframe}.
            ВАЖНО: это гипотетический сценарий для тестирования стратегий, не инвестиционная рекомендация."""
        }, {
            "role": "user",
            "content": f"Актив: {asset}"
        }],
        response_format={"type": "json_object"}
    )
    return json.loads(response.choices[0].message.content)

Синтетические сценарии для бэктестинга

import pandas as pd
from scipy.stats import norm

class MarketScenarioGenerator:
    def generate_gbm_scenario(
        self,
        initial_price: float,
        mu: float,       # годовой дрейф
        sigma: float,    # годовая волатильность
        T: float = 1.0,  # лет
        n_steps: int = 252,
        n_scenarios: int = 1000
    ) -> np.ndarray:
        """Geometric Brownian Motion — baseline сценарий"""
        dt = T / n_steps
        prices = np.zeros((n_scenarios, n_steps + 1))
        prices[:, 0] = initial_price

        for t in range(1, n_steps + 1):
            z = np.random.standard_normal(n_scenarios)
            prices[:, t] = prices[:, t-1] * np.exp(
                (mu - 0.5 * sigma**2) * dt + sigma * np.sqrt(dt) * z
            )
        return prices

    def generate_jump_diffusion(
        self,
        initial_price: float,
        mu: float,
        sigma: float,
        lambda_jump: float = 0.1,  # частота прыжков (в год)
        mu_jump: float = -0.1,     # средний размер прыжка
        sigma_jump: float = 0.05,
        T: float = 1.0,
        n_steps: int = 252
    ) -> np.ndarray:
        """Merton Jump-Diffusion — моделирует flash crash сценарии"""
        dt = T / n_steps
        prices = [initial_price]

        for _ in range(n_steps):
            # Диффузионная компонента
            diffusion = (mu - 0.5 * sigma**2) * dt + sigma * np.sqrt(dt) * norm.rvs()

            # Прыжковая компонента
            n_jumps = np.random.poisson(lambda_jump * dt)
            jump = sum(norm.rvs(mu_jump, sigma_jump) for _ in range(n_jumps))

            prices.append(prices[-1] * np.exp(diffusion + jump))

        return np.array(prices)

Валидация синтетических данных

def validate_synthetic_data(real: np.ndarray, synthetic: np.ndarray) -> dict:
    """Проверяем статистическое правдоподобие синтетических данных"""
    from scipy.stats import ks_2samp

    real_returns = np.diff(np.log(real.flatten()))
    synth_returns = np.diff(np.log(synthetic.flatten()))

    ks_stat, ks_p = ks_2samp(real_returns, synth_returns)

    return {
        "ks_statistic": float(ks_stat),          # < 0.1 хорошо
        "ks_p_value": float(ks_p),                # > 0.05 принимаем H0
        "real_mean": float(real_returns.mean()),
        "synth_mean": float(synth_returns.mean()),
        "real_std": float(real_returns.std()),
        "synth_std": float(synth_returns.std()),
        "real_skewness": float(pd.Series(real_returns).skew()),
        "synth_skewness": float(pd.Series(synth_returns).skew()),
        "real_kurtosis": float(pd.Series(real_returns).kurtosis()),
        "synth_kurtosis": float(pd.Series(synth_returns).kurtosis()),
    }

Сроки: GBM/Jump-Diffusion сценарии + LLM нарративы — 1–2 недели. Полноценный TimeGAN с обучением на исторических данных — 3–4 недели.