Развёртывание Stable Diffusion на выделенном сервере (Self-Hosted)

Проектируем и внедряем системы искусственного интеллекта: от прототипа до production-ready решения. Наша команда объединяет экспертизу в машинном обучении, дата-инжиниринге и MLOps, чтобы AI работал не в лаборатории, а в реальном бизнесе.
Показано 1 из 1 услугВсе 1566 услуг
Развёртывание Stable Diffusion на выделенном сервере (Self-Hosted)
Средняя
от 1 рабочего дня до 3 рабочих дней
Часто задаваемые вопросы
Направления AI-разработки
Этапы разработки AI-решения
Последние работы
  • image_website-b2b-advance_0.png
    Разработка сайта компании B2B ADVANCE
    1218
  • image_web-applications_feedme_466_0.webp
    Разработка веб-приложения для компании FEEDME
    1161
  • image_websites_belfingroup_462_0.webp
    Разработка веб-сайта для компании БЕЛФИНГРУПП
    854
  • image_ecommerce_furnoro_435_0.webp
    Разработка интернет магазина для компании FURNORO
    1051
  • image_logo-advance_0.png
    Разработка логотипа компании B2B Advance
    561
  • image_crm_enviok_479_0.webp
    Разработка веб-приложения для компании Enviok
    827

Self-hosted деплой Stable Diffusion

Self-hosted Stable Diffusion даёт полный контроль над генерацией: кастомные модели, LoRA, отсутствие content policy ограничений API-сервисов, предсказуемые затраты при высоких объёмах. При 5000+ изображений в месяц self-hosted дешевле API.

Варианты деплоя

Automatic1111 WebUI — наиболее популярный, богатая экосистема расширений:

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
cd stable-diffusion-webui

# Загружаем модель
wget -O models/Stable-diffusion/sd_xl_base_1.0.safetensors \
  https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors

# Запуск с API
./webui.sh --api --listen --port 7860 --xformers

ComfyUI — более гибкий, node-based workflow, лучший для automation:

git clone https://github.com/comfyanonymous/ComfyUI
cd ComfyUI
pip install -r requirements.txt
python main.py --listen 0.0.0.0 --port 8188

Docker деплой

# docker-compose.yml
version: "3.8"
services:
  stable-diffusion:
    image: universonic/stable-diffusion-webui:latest
    ports:
      - "7860:7860"
    volumes:
      - ./models:/app/stable-diffusion-webui/models
      - ./outputs:/app/stable-diffusion-webui/outputs
    environment:
      - COMMANDLINE_ARGS=--api --xformers --medvram
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: 1
              capabilities: [gpu]
    restart: unless-stopped

Automatic1111 API клиент

import httpx
import base64
import json

class SDWebUIClient:
    def __init__(self, base_url: str = "http://localhost:7860"):
        self.base_url = base_url

    async def txt2img(
        self,
        prompt: str,
        negative_prompt: str = "low quality, blurry",
        width: int = 1024,
        height: int = 1024,
        steps: int = 30,
        cfg_scale: float = 7.0,
        sampler: str = "DPM++ 2M Karras",
        seed: int = -1
    ) -> bytes:
        payload = {
            "prompt": prompt,
            "negative_prompt": negative_prompt,
            "width": width,
            "height": height,
            "steps": steps,
            "cfg_scale": cfg_scale,
            "sampler_name": sampler,
            "seed": seed,
            "batch_size": 1
        }

        async with httpx.AsyncClient(timeout=120) as client:
            response = await client.post(f"{self.base_url}/sdapi/v1/txt2img", json=payload)
            result = response.json()
            return base64.b64decode(result["images"][0])

    async def img2img(self, init_image: bytes, prompt: str, denoising_strength: float = 0.7) -> bytes:
        payload = {
            "init_images": [base64.b64encode(init_image).decode()],
            "prompt": prompt,
            "denoising_strength": denoising_strength,
        }
        async with httpx.AsyncClient(timeout=120) as client:
            response = await client.post(f"{self.base_url}/sdapi/v1/img2img", json=payload)
            return base64.b64decode(response.json()["images"][0])

    async def get_models(self) -> list[str]:
        async with httpx.AsyncClient() as client:
            response = await client.get(f"{self.base_url}/sdapi/v1/sd-models")
            return [m["title"] for m in response.json()]

    async def switch_model(self, model_title: str) -> None:
        async with httpx.AsyncClient(timeout=60) as client:
            await client.post(
                f"{self.base_url}/sdapi/v1/options",
                json={"sd_model_checkpoint": model_title}
            )

Масштабирование под нагрузку

from celery import Celery
import redis

# Несколько GPU-воркеров
app = Celery("sd_tasks", broker="redis://localhost:6379/0")
app.conf.worker_concurrency = 1  # 1 задача на GPU воркер
app.conf.worker_prefetch_multiplier = 1

@app.task(queue="gpu_0")
def generate_on_gpu0(prompt: str, settings: dict) -> str:
    client = SDWebUIClient("http://gpu0-server:7860")
    return asyncio.run(client.txt2img(prompt, **settings))

@app.task(queue="gpu_1")
def generate_on_gpu1(prompt: str, settings: dict) -> str:
    client = SDWebUIClient("http://gpu1-server:7860")
    return asyncio.run(client.txt2img(prompt, **settings))

TCO: self-hosted vs API

Объём DALL-E 3 standard FLUX Dev (Replicate) Self-hosted (RTX 4090)
1 000 изображений/мес $40 $15 $50 (амортизация)
10 000 изображений/мес $400 $150 $55
100 000 изображений/мес $4 000 $1 500 $100

Порог окупаемости self-hosted (RTX 4090 ~$1800): ~15 000–20 000 изображений в месяц. Сроки деплоя: базовый single-GPU сервер — 1–2 дня. Multi-GPU с балансировкой и мониторингом — 1 неделя.