AI-система для робототехники

Проектируем и внедряем системы искусственного интеллекта: от прототипа до production-ready решения. Наша команда объединяет экспертизу в машинном обучении, дата-инжиниринге и MLOps, чтобы AI работал не в лаборатории, а в реальном бизнесе.
Показано 1 из 1 услугВсе 1566 услуг
AI-система для робототехники
Сложная
от 2 недель до 3 месяцев
Часто задаваемые вопросы
Направления AI-разработки
Этапы разработки AI-решения
Последние работы
  • image_website-b2b-advance_0.png
    Разработка сайта компании B2B ADVANCE
    1218
  • image_web-applications_feedme_466_0.webp
    Разработка веб-приложения для компании FEEDME
    1161
  • image_websites_belfingroup_462_0.webp
    Разработка веб-сайта для компании БЕЛФИНГРУПП
    853
  • image_ecommerce_furnoro_435_0.webp
    Разработка интернет магазина для компании FURNORO
    1047
  • image_logo-advance_0.png
    Разработка логотипа компании B2B Advance
    561
  • image_crm_enviok_479_0.webp
    Разработка веб-приложения для компании Enviok
    825

AI-система для робототехники

Промышленный манипулятор с классическим trajectory planning выполняет одну задачу за 0.3 секунды воспроизводимо. Та же рука с ML-системой perception + grasp planning берёт произвольный незнакомый объект из бина с 91% success rate при первой попытке — это качественный скачок. Разрыв между программируемой автоматикой и AI-робототехникой — именно здесь.

Perception: что видит робот

6DoF Pose Estimation

Для захвата объекта манипулятор должен знать точную позицию и ориентацию (6 степеней свободы). RGB-D камера (Intel RealSense D435, Azure Kinect) + RGBD-датасет конкретных деталей. Методы:

  • FoundationPose (NVIDIA): универсальная модель, работает из 1 референсного изображения или CAD-модели без дообучения. Accuracy: <5 мм translation, <5° rotation на YCBv dataset.
  • Обучение с нуля: Dope (Deep Object Pose Estimation) или GDR-Net — точнее на специфических деталях, требует синтетического датасета с domain randomization (BlenderProc).

Domain gap — главная проблема: модель обучена на синтетике, деплоится в реальное освещение завода. Domain randomization (случайные текстуры, освещение, фоны) + небольшой real-world fine-tuning решает проблему за 200–500 реальных аннотированных кадров.

Bin Picking с 3D point cloud

Захват деталей из неупорядоченного бина: Open3D + PointNet++ для сегментации отдельных деталей в point cloud. Граспинг: GraspNet-1Billion модель или Contact-GraspNet предсказывает 6DoF grasp poses с antipodal constraint проверкой через коллизионный граф. На стали (блестящие поверхности, sensor noise) — дополнительная очистка point cloud: Statistical Outlier Removal + Normal estimation.

Motion Planning с ML

Learning from Demonstration (LfD)

Оператор один раз демонстрирует задачу, управляя рукой манипулятора вручную (kinesthetic teaching) или через VR-интерфейс. Алгоритм записывает траектории, обобщает через Gaussian Mixture Model (GMM) + Gaussian Mixture Regression (GMR) или Imitation Learning (BC, GAIL). Воспроизведение с адаптацией к вариациям: не нужно перепрограммировать при небольших изменениях позиции детали.

Reinforcement Learning для сложных манипуляций

Задачи, где trajectory planning не работает: вставка разъёма (peg-in-hole, допуск 0.1 мм), завинчивание без срыва резьбы, перекладывание хрупких объектов. Sim-to-Real: обучение в Isaac Gym (NVIDIA) или MuJoCo с randomized friction, mass, geometry. Transfer в реального робота через domain randomization + небольшой real-world fine-tuning.

На задаче industrial connector insertion: SAC (Soft Actor-Critic) достигает 95% success rate после 2M симуляционных шагов + 2 часов real-world дообучения.

Force/Torque контроль

Силомоментный сенсор (ATI Mini45, Robotiq FT300) + ML позволяет обнаруживать аномалии сборки в реальном времени: если усилие вставки выходит за пределы expected profile → деталь неправильно ориентирована → стоп перед повреждением.

LSTM на time series сигналов Fx, Fy, Fz, Tx, Ty, Tz: классификация «нормальная вставка» / «перекос» / «неверная деталь». Recall аномалий: 0.97, latency: 8 мс — успевает остановить движение до повреждения.

Mobile Robotics и AMR

SLAM и навигация

AMR (Autonomous Mobile Robot): LiDAR SLAM (Cartographer, RTAB-Map) для построения карты + локализации. ML-компонент: предсказание динамических препятствий (люди, погрузчики) через object detection (YOLOv8 на fisheye камерах) + velocity estimation.

Fleet Management

Парк из 30 AMR: оптимизация task assignment. Multi-agent RL (MAPPO — Multi-Agent PPO) или MILP для диспетчеризации. Throughput системы с RL vs. rule-based: +14% при той же инфраструктуре.

Стек и интеграции

Уровень Технологии
Симуляция Isaac Sim, MuJoCo, Gazebo
Perception ROS 2, Open3D, PyTorch3D
ML Framework PyTorch, JAX
Motion Planning MoveIt 2, OMPL
Robot OS ROS 2 (Humble/Iron)
Коммуникация EtherCAT, PROFINET, OPC-UA
Оркестрация флота Fleet Management System, MQTT

Срок разработки: 4–8 месяцев для perception + grasp planning на конкретной детали/задаче. Полная система с RL-обученными манипуляциями и fleet management: 10–18 месяцев.