Serverless-разработка: AWS Lambda, Vercel Functions, Cloudflare Workers, Edge
Serverless не означает «без сервера». Серверы есть — вы просто не управляете ими. Правильнее читать это как «без менеджмента серверов»: нет патчинга ОС, нет настройки nginx, нет мониторинга дискового пространства. Функция получает событие, обрабатывает, возвращает ответ. Провайдер сам решает, на чём это запустить.
AWS Lambda: мощь и операционная сложность
Lambda — самая зрелая платформа с наибольшим набором триггеров: API Gateway, SQS, SNS, S3, DynamoDB Streams, EventBridge. Это важно для сложных event-driven архитектур.
Cold start — главная боль Lambda на Node.js: от 200ms до 1.5s в зависимости от размера бандла и VPC. В VPC холодный старт был до 10 секунд до 2019 года, сейчас улучшили, но он всё ещё дольше. Для production-функций с latency-требованиями: Provisioned Concurrency (держит инстансы прогретыми), SnapStart для Java, минимизация бандла через tree-shaking.
Практический кейс: функция обработки загружаемых изображений (ресайз, WebP-конвертация, загрузка в S3). Бандл с sharp весил 40MB из-за нативных бинарников. Решение — Lambda Layer с sharp, основная функция 800KB. Cold start упал с 3.2s до 400ms.
Lambda Layers — общие зависимости между функциями. До 5 слоёв на функцию, каждый до 250MB. Стандартная практика: layer с heavy dependencies (sharp, puppeteer, ffmpeg), layer с общей бизнес-логикой.
Инфраструктура Lambda через AWS CDK или Terraform. SAM — для тех, кто только начинает, CDK — для серьёзных проектов с типобезопасностью.
Vercel Functions и Edge Runtime
Vercel Functions — это Lambda под капотом (us-east-1 по умолчанию), но с минимальным порогом входа для Next.js-проектов. API Routes и Route Handlers деплоятся автоматически. Serverless функции на Node.js runtime с лимитом в 300 секунд на Vercel Pro.
Edge Runtime принципиально другой: функция запускается на V8 isolate в ближайшей к пользователю точке CDN-сети Vercel (120+ регионов). Нет cold start как такового — isolate стартует за ~0ms. Но жёсткие ограничения: нет Node.js API (fs, crypto через Web API), нет доступа к базам данных через TCP (только через HTTP API), размер бандла до 4MB.
Edge Runtime идеален для: middleware (auth check, redirect, A/B test), трансформации ответов, геолокационной логики, Edge Config. Не подходит для: обращения к PostgreSQL, тяжёлых вычислений, работы с файловой системой.
Cloudflare Workers: настоящий Edge
Workers запускаются на V8 isolates в 300+ точках присутствия Cloudflare. Latency для пользователя — буквально ближайший дата-центр. Cold start < 1ms.
Workers Durable Objects решают проблему состояния в Edge: каждый Durable Object — это одна точка координации, выполняется в одном регионе. Идеально для: игровых комнат, документов с реальным временем, rate limiting без гонок.
Workers KV — eventually consistent хранилище. Запись распространяется по всем регионам за ~60 секунд. Не подходит для финансовых транзакций, подходит для конфигов, feature flags, кэша.
D1 — SQLite на Edge. На одной реплике для чтения работает отлично, write latency зависит от расстояния до primary региона. Для глобальных write-heavy приложений — не лучший выбор.
Ecosystem: Hono.js — минималистичный роутер, работающий на Workers, Deno, Bun, Node.js. Если нужен единый код для Edge и сервера — хороший выбор.
Когда serverless не подходит
Длительные вычисления (>15 минут на Lambda, >30 секунд на Vercel) — нужен Fargate или обычный сервер. WebSocket-сервер с состоянием — нет постоянного процесса. Задачи с частым обращением к диску — эфемерный storage, /tmp на Lambda 512MB–10GB. Если функция вызывается тысячи раз в секунду постоянно — EC2 или Fargate дешевле.
Vendor lock-in — реальная проблема. Lambda-специфичный код (handler-сигнатура, Lambda context) сложно портировать. Hono.js, Remix, или адаптеры типа @hono/node-server помогают держать логику portable.
Observability
Без нормального observability serverless — чёрный ящик. Стандарт: AWS X-Ray или Powertools for AWS Lambda (structured logging, tracing, metrics из коробки). Для мультиоблачного стека — OpenTelemetry с экспортом в Grafana Cloud или Honeycomb.
Distributed tracing критичен когда функция А вызывает функцию Б через SQS — без trace ID невозможно связать логи.
Процесс работы
Начинаем с анализа паттерна нагрузки: если трафик непредсказуемый или редкий — serverless даст экономию. Если стабильно высокий — может оказаться дороже. Проектируем границы функций по принципу single responsibility. Разрабатываем локально через SST, Wrangler или LocalStack. CI/CD с preview deployments обязательно.
Сроки
Serverless API для стартапа (10–20 функций): 2–5 недель. Миграция монолитного Laravel/Node API на Lambda: 4–10 недель в зависимости от объёма. Edge Middleware + Workers для глобального продукта: 2–4 недели.







