Разработка системы токенизации AI-моделей

Проектируем и разрабатываем блокчейн-решения полного цикла: от архитектуры смарт-контрактов до запуска DeFi-протоколов, NFT-маркетплейсов и криптобирж. Аудит безопасности, токеномика, интеграция с существующей инфраструктурой.
Показано 1 из 1 услугВсе 1306 услуг
Разработка системы токенизации AI-моделей
Сложная
~1-2 недели
Часто задаваемые вопросы
Направления блокчейн-разработки
Этапы блокчейн-разработки
Последние работы
  • image_website-b2b-advance_0.png
    Разработка сайта компании B2B ADVANCE
    1221
  • image_web-applications_feedme_466_0.webp
    Разработка веб-приложения для компании FEEDME
    1163
  • image_websites_belfingroup_462_0.webp
    Разработка веб-сайта для компании БЕЛФИНГРУПП
    855
  • image_ecommerce_furnoro_435_0.webp
    Разработка интернет магазина для компании FURNORO
    1062
  • image_logo-advance_0.png
    Разработка логотипа компании B2B Advance
    561
  • image_crm_enviok_479_0.webp
    Разработка веб-приложения для компании Enviok
    828

Разработка системы токенизации AI-моделей

Токенизация AI-моделей — это не просто «обернуть модель в NFT». Это полноценная экономическая инфраструктура: права на использование, модели дохода для создателей, on-chain верификация вывода и механизмы управления версиями модели. Задача нетривиальная, потому что AI-модель — это не статичный актив вроде картинки, а живой артефакт с весами, версиями, fine-tune форками и вычислительной стоимостью инференса.

Рынок движется в сторону децентрализованных AI-маркетплейсов: Bittensor, Ritual, Gensyn, Hyperbolic — разные подходы к одной проблеме. Но большинство команд строит токенизацию поверх них или независимо, под конкретную вертикаль (медицина, финансы, генерация контента).

Архитектура: что именно токенизируем

Прежде чем писать смарт-контракты, нужно ответить на вопрос: что является токенизируемым активом?

Варианты:

  • Веса модели — сами параметры (checkpoint), хранятся off-chain (IPFS, Arweave, Filecoin), on-chain — хеш и метаданные
  • Права на инференс — доступ к API вычислений, не к весам
  • Fine-tune права — возможность создать производную модель от базовой
  • Доля в доходах модели — revenue share токен, не дающий доступа к весам напрямую

В большинстве продуктовых случаев токенизируют именно права на инференс плюс опционально revenue share. Веса публично доступны редко (это IP создателя).

Хранение весов и верификация целостности

contract AIModelRegistry {
    struct ModelVersion {
        bytes32 weightsHash;        // SHA-256 хеш checkpoint файла
        string storageURI;          // ipfs://... или ar://...
        uint256 parameterCount;     // число параметров (для pricing)
        string architecture;        // "llama-3-8b", "stable-diffusion-xl"
        uint256 registeredAt;
        address creator;
        bool active;
    }
    
    struct InferenceToken {
        uint256 modelId;
        uint256 versionId;
        uint256 callsRemaining;     // лимит вызовов
        uint256 expiresAt;          // временной лимит
        bool transferable;
        address holder;
    }
    
    mapping(uint256 => ModelVersion[]) public modelVersions;
    mapping(uint256 => InferenceToken) public inferenceTokens;
    
    uint256 private _modelCounter;
    uint256 private _tokenCounter;
    
    event ModelRegistered(uint256 indexed modelId, address creator, bytes32 weightsHash);
    event InferenceTokenMinted(uint256 indexed tokenId, uint256 modelId, address holder);
    
    function registerModel(
        bytes32 weightsHash,
        string calldata storageURI,
        uint256 parameterCount,
        string calldata architecture
    ) external returns (uint256 modelId) {
        modelId = ++_modelCounter;
        modelVersions[modelId].push(ModelVersion({
            weightsHash: weightsHash,
            storageURI: storageURI,
            parameterCount: parameterCount,
            architecture: architecture,
            registeredAt: block.timestamp,
            creator: msg.sender,
            active: true
        }));
        emit ModelRegistered(modelId, msg.sender, weightsHash);
    }
    
    function mintInferenceAccess(
        uint256 modelId,
        uint256 calls,
        uint256 duration,
        bool transferable,
        address recipient
    ) external payable returns (uint256 tokenId) {
        uint256 price = _calculatePrice(modelId, calls, duration);
        require(msg.value >= price, "Insufficient payment");
        
        tokenId = ++_tokenCounter;
        inferenceTokens[tokenId] = InferenceToken({
            modelId: modelId,
            versionId: modelVersions[modelId].length - 1,
            callsRemaining: calls,
            expiresAt: block.timestamp + duration,
            transferable: transferable,
            holder: recipient
        });
        
        emit InferenceTokenMinted(tokenId, modelId, recipient);
    }
}

On-chain верификация вывода модели: zkML

Самая сложная часть системы — доказать, что конкретный вывод (output) действительно получен от конкретной модели с конкретными весами, без пересчёта инференса on-chain (это невозможно при любом разумном размере модели).

Решение — zkML (zero-knowledge machine learning). Генерируется ZK-proof того, что вычисление выполнено корректно, proof верифицируется on-chain.

Стек zkML

Фреймворк Подход Ограничения Зрелость
ezkl PLONK circuits из ONNX Модели до ~100M параметров Production
RISC Zero zkVM, любой Rust код Высокая proving стоимость Production
Modulus Labs Кастомные circuits Требует партнёрства Beta
Giza Starknet-ориентированный Экосистема ограничена Alpha

ezkl — наиболее практичный выбор для большинства задач:

import ezkl
import torch
import json

# Экспорт модели в ONNX
model = YourModel()
model.eval()
dummy_input = torch.randn(1, 128)
torch.onnx.export(model, dummy_input, "model.onnx", opset_version=11)

# Настройка ezkl
settings = ezkl.PyRunArgs()
settings.input_visibility = "public"
settings.output_visibility = "public"
settings.param_visibility = "fixed"  # веса фиксированы в circuit

await ezkl.gen_settings("model.onnx", "settings.json", py_run_args=settings)
await ezkl.calibrate_settings("input.json", "model.onnx", "settings.json", "resources")

# Компиляция circuit
await ezkl.compile_circuit("model.onnx", "circuit.compiled", "settings.json")

# Генерация ключей
await ezkl.setup("circuit.compiled", "vk.key", "pk.key")

# Генерация witness и proof
await ezkl.gen_witness("input.json", "circuit.compiled", "witness.json")
await ezkl.prove("witness.json", "circuit.compiled", "pk.key", "proof.json")

# Верификация (это же делает смарт-контракт)
result = await ezkl.verify("proof.json", "settings.json", "vk.key")
print(f"Proof valid: {result}")

Для on-chain верификации ezkl генерирует Solidity verifier:

ezkl create-evm-verifier \
    --vk-path vk.key \
    --settings-path settings.json \
    --sol-code-path verifier.sol \
    --abi-path verifier.abi

Полученный verifier.sol деплоится как отдельный контракт. Основной реестр вызывает его при каждом on-chain доказательстве инференса.

Управление версиями и форки моделей

AI-модели живут и эволюционируют. Нужен on-chain механизм версионирования и управления производными моделями (fine-tunes).

Граф деривативов

contract ModelDerivativeGraph {
    struct DerivativeRelation {
        uint256 parentModelId;
        uint256 parentVersionId;
        uint256 royaltyBps;         // базисные пункты роялти родительской модели
        bool requiresApproval;      // нужно ли одобрение создателя base модели
        bool approved;
    }
    
    // childModelId => relation
    mapping(uint256 => DerivativeRelation) public derivatives;
    
    // Реестр роялти: при каждом инференсе деривативной модели
    // % уходит на адрес создателя base модели
    function registerFineTune(
        uint256 childModelId,
        uint256 parentModelId,
        uint256 parentVersionId,
        uint256 royaltyBps
    ) external {
        ModelVersion memory parent = registry.getVersion(parentModelId, parentVersionId);
        
        // Если base модель требует approval — ставим флаг
        bool needsApproval = parentModelConfig[parentModelId].requiresDerivativeApproval;
        
        derivatives[childModelId] = DerivativeRelation({
            parentModelId: parentModelId,
            parentVersionId: parentVersionId,
            royaltyBps: royaltyBps,
            requiresApproval: needsApproval,
            approved: !needsApproval
        });
        
        if (!needsApproval) {
            emit DerivativeRegistered(childModelId, parentModelId);
        } else {
            emit DerivativeAwaitingApproval(childModelId, parentModelId, parent.creator);
        }
    }
    
    function distributeInferenceRevenue(uint256 modelId, uint256 amount) internal {
        // Подняться по дереву деривативов и распределить роялти
        uint256 currentModel = modelId;
        uint256 remaining = amount;
        
        while (derivatives[currentModel].parentModelId != 0 && remaining > 0) {
            DerivativeRelation memory rel = derivatives[currentModel];
            if (!rel.approved) break;
            
            uint256 royalty = remaining * rel.royaltyBps / 10000;
            address parentCreator = registry.getCreator(rel.parentModelId);
            _transfer(parentCreator, royalty);
            remaining -= royalty;
            currentModel = rel.parentModelId;
        }
        
        // Остаток — создателю листовой модели
        _transfer(registry.getCreator(modelId), remaining);
    }
}

Ценообразование инференса

Стоимость вызова модели зависит от нескольких параметров. Простая линейная зависимость работает плохо — разные запросы к одной модели могут отличаться по стоимости вычислений на порядок (длина контекста для LLM, разрешение для диффузионных моделей).

Динамическое ценообразование

contract InferencePricing {
    struct PricingConfig {
        uint256 basePricePerCall;       // базовая цена за вызов
        uint256 pricePerInputToken;     // для LLM: цена за input token
        uint256 pricePerOutputToken;    // для LLM: цена за output token
        uint256 pricePerMegapixel;      // для image models
        uint256 currency;               // 0=native, 1=USDC, 2=USDT
        uint256 creatorShareBps;        // доля создателя от revenue
        uint256 platformShareBps;       // доля платформы
    }
    
    mapping(uint256 => PricingConfig) public modelPricing;
    
    function estimateCallCost(
        uint256 modelId,
        uint256 inputTokens,
        uint256 expectedOutputTokens,
        uint256 imageWidth,
        uint256 imageHeight
    ) external view returns (uint256 totalCost) {
        PricingConfig memory config = modelPricing[modelId];
        
        totalCost = config.basePricePerCall;
        totalCost += inputTokens * config.pricePerInputToken;
        totalCost += expectedOutputTokens * config.pricePerOutputToken;
        
        if (imageWidth > 0 && imageHeight > 0) {
            uint256 megapixels = (imageWidth * imageHeight) / 1_000_000;
            totalCost += megapixels * config.pricePerMegapixel;
        }
    }
}

Токен-гейтинг и доступ к моделям

Помимо pay-per-call модели, система поддерживает token-gating: держатели определённого ERC-20 или ERC-721 токена получают доступ к модели без дополнительной оплаты (или со скидкой).

Это открывает сценарии: модель в составе NFT-коллекции (каждый держатель NFT получает доступ к AI-ассистенту), staking-based доступ (застейкай X токенов — получи Y вызовов в месяц), DAO-controlled whitelist.

function checkAccess(uint256 modelId, address user) public view returns (bool, uint256 remainingCalls) {
    AccessPolicy memory policy = accessPolicies[modelId];
    
    // ERC-721 token gate
    if (policy.requiredNFT != address(0)) {
        if (IERC721(policy.requiredNFT).balanceOf(user) > 0) {
            return (true, policy.nftHolderMonthlyCallLimit);
        }
    }
    
    // ERC-20 staking gate
    if (policy.requiredStake > 0) {
        uint256 staked = stakingVault.stakedBalance(user, policy.stakeToken);
        if (staked >= policy.requiredStake) {
            uint256 calls = (staked / policy.requiredStake) * policy.callsPerStakeUnit;
            return (true, calls);
        }
    }
    
    // Платный доступ через inference токены
    uint256 tokenId = userInferenceTokens[modelId][user];
    if (tokenId != 0) {
        InferenceToken memory token = inferenceTokens[tokenId];
        if (token.callsRemaining > 0 && block.timestamp < token.expiresAt) {
            return (true, token.callsRemaining);
        }
    }
    
    return (false, 0);
}

Governance и обновление моделей

Токенизированная модель — это живой продукт. Нужен механизм голосования за принятие новых версий весов, изменение условий доступа, управление treasury (доходы от платформы).

Стандартная схема: ERC-20 governance токен + OpenZeppelin Governor + Timelock. Специфика AI — предложения о смене весов должны проходить технический review (верификация нового weightsHash, тестирование на benchmark). Включать on-chain оракул результатов бенчмарка — избыточно на старте, но возможно через Chainlink.

Стек и сроки разработки

Смарт-контракты: Solidity, OpenZeppelin, Hardhat/Foundry. 8–12 недель на полный реестр с governance.

ZK-верификация: ezkl для моделей до 100M параметров, RISC Zero для произвольного инференса. Подготовка circuits — 4–8 недель в зависимости от архитектуры модели.

Off-chain инфраструктура: Node.js / Python API для приёма запросов, очереди вычислений (Bull/Redis), интеграция с GPU-провайдерами (Akash, Vast.ai, собственный кластер).

Аудит: обязателен перед mainnet. Особое внимание — логика управления правами доступа и распределение revenue.

Полный цикл от архитектуры до production — 5–7 месяцев для команды из 3–4 инженеров.