Блокчейн-инфраструктура: ноды, RPC, индексация
Subgraph перестал индексировать события в 3:47 ночи. К утру пользователи видят устаревшие балансы, транзакции «висят» в UI, поддержка завалена тикетами. Причина: handler в subgraph упал на конкретной транзакции с нестандартным event log — и весь индекс встал. Инфраструктура блокчейна не прощает gaps в observability.
Архитектура RPC-слоя
Каждое взаимодействие dApp с блокчейном идёт через RPC — JSON-RPC API, которую предоставляет нода. Три варианта:
Managed providers — Alchemy, QuickNode, Infura, Ankr. Минимальные операционные расходы, SLA, встроенный мониторинг. Ограничения: rate limits (Alchemy Free: 300 RU/sec), vendor lock, потенциальные downtime при инцидентах провайдера. Для большинства проектов — правильный выбор на старте.
Собственные ноды — полный контроль, нет rate limits, нет зависимости от третьих сторон. Стоимость: архивная нода Ethereum занимает 2.5–3TB SSD (2025), требует мощный сервер и DevOps-поддержку. Sync с нуля на Ethereum через Geth/Nethermind — 3–7 дней. Оправдано при высокой нагрузке или требованиях к latency.
Гибрид — собственная нода как primary, managed provider как fallback. Стандарт для протоколов с TVL от $10M.
| Провайдер | Сильная сторона | Ограничение |
|---|---|---|
| Alchemy | Supernode, Enhanced APIs, webhooks | Дорогой на high-volume |
| QuickNode | Низкая latency, multi-chain | Дороже Alchemy на базовом плане |
| Infura | Историческая надёжность | Rate limits на бесплатном, один downtime лёг пол-DeFi в 2020 |
| Ankr | Дешёвый, 40+ чейнов | Менее стабильный |
Клиенты нод Ethereum
Execution clients: Geth (наиболее используемый), Nethermind (C#, быстрая sync), Besu (Java, enterprise), Erigon (самый быстрый sync, архивный режим эффективен по диску).
Consensus clients (post-Merge): Lighthouse (Rust), Prysm (Go), Teku (Java), Nimbus (Nim). Каждая нода после The Merge требует пары execution + consensus client.
Для DevOps: eth-docker — Docker Compose конфигурации для всех комбинаций клиентов. Настройка мониторинга через Grafana + Prometheus — обязательна, стандартный дашборд есть в репозитории каждого клиента.
The Graph: индексация событий
The Graph Protocol — decentralized indexing. Subgraph описывает какие события с каких контрактов индексировать и как трансформировать их в GraphQL схему.
Структура subgraph:
-
subgraph.yaml— манифест: адреса контрактов, startBlock, события которые обрабатываются -
schema.graphql— GraphQL схема entities -
src/mapping.ts— AssemblyScript обработчики событий
dataSources:
- kind: ethereum
name: UniswapV3Pool
network: mainnet
source:
address: "0x88e6A0c2dDD26FEEb64F039a2c41296FcB3f5640"
abi: UniswapV3Pool
startBlock: 12370624
mapping:
eventHandlers:
- event: Swap(indexed address,indexed address,int256,int256,uint160,uint128,int24)
handler: handleSwap
AssemblyScript handlers — не TypeScript. Нет nullable types, нет closures, нет многих стандартных API. Ошибка в handler останавливает индексацию subgraph-а на той транзакции. Важно: добавлять try-catch на операции которые могут падать (например store.get() для entity которая может не существовать).
Hosted Service vs Decentralized Network
Graph Hosted Service (бесплатный, централизованный) deprecated в пользу Subgraph Studio + Graph Network. Для продакшн: деплой на Graph Network с GRT curation signal — субграф получает indexers пропорционально curation.
Альтернативы The Graph: Ponder (TypeScript, self-hosted, проще дебагать), Envio (ultra-fast indexer, поддерживает EVM + non-EVM), Subsquid (TypeScript, своя сеть), Moralis Streams (managed, webhook-based).
Webhooks и real-time нотификации
Alchemy Webhooks и QuickNode Streams позволяют получать события в реальном времени через HTTP webhook или WebSocket. Для мониторинга адресов, новых транзакций, минтов — это быстрее чем polling RPC.
Tenderly — платформа для мониторинга и алертов. Можно настроить alert на конкретный event из контракта, на изменение баланса, на вызов функции с определёнными параметрами. Симуляция транзакций через Tenderly API — бесценно для debugging.
Мониторинг и observability
Минимальный стек мониторинга для протокола:
On-chain: OpenZeppelin Defender Sentinel — watches contract events, вызывает webhook или Autotask при срабатывании условий. Forta Network — community-maintained боты детектируют аномалии (большие withdrawals, flash loans, governance attacks).
Infrastructure: Grafana + Prometheus для нод, Datadog или Grafana Cloud для managed метрик. Alert на: нода отстала на 10+ блоков, RPC latency > 500ms, subgraph lag > 100 блоков.
Uptime: Better Uptime или PagerDuty на RPC endpoint и subgraph health endpoint (The Graph предоставляет _meta { hasIndexingErrors, block { number } }).
Мультичейн инфраструктура
Протокол на 5 чейнах = 5 отдельных RPC endpoints, 5 subgraphs, 5 мониторинг-конфигов. Это управляемо, но нужна автоматизация деплоя.
Для subgraph multi-network деплой: graph deploy --network mainnet, graph deploy --network arbitrum-one и т.д. с единой кодовой базой и network-specific адресами в отдельных файлах конфигурации.
Chainlink CCIP и LayerZero для cross-chain messaging требуют мониторинга состояния обоих чейнов и транзакций на intermediate relayers. Реорг на source chain при уже подтверждённом минте на target chain — классическая проблема мостов. Решение: ждать finality (на Ethereum ~15 минут после Merge для экономической finality) перед подтверждением на target chain.
Процесс настройки инфраструктуры
Выбор провайдера — исходя из чейнов, объёма запросов, требований к latency.
RPC конфигурация — primary + fallback, load balancing для высоких нагрузок.
Subgraph разработка — манифест → схема → handlers → тестирование на локальной Graph Node → деплой на testnet → mainnet.
Мониторинг — Tenderly alerts на критические события, Grafana дашборд для инфраструктурных метрик.
Runbook — документация что делать при: subgraph fell behind, RPC downtime, нода desync.
Сроки
- Настройка RPC и базового мониторинга: 1–2 недели
- Subgraph для одного протокола: 2–4 недели
- Self-hosted нода с мониторингом: 2–3 недели
- Полная инфраструктура (multi-chain, мониторинг, runbooks): 6–10 недель







