AI-система для робототехники
Промышленный манипулятор с классическим trajectory planning выполняет одну задачу за 0.3 секунды воспроизводимо. Та же рука с ML-системой perception + grasp planning берёт произвольный незнакомый объект из бина с 91% success rate при первой попытке — это качественный скачок. Разрыв между программируемой автоматикой и AI-робототехникой — именно здесь.
Perception: что видит робот
6DoF Pose Estimation
Для захвата объекта манипулятор должен знать точную позицию и ориентацию (6 степеней свободы). RGB-D камера (Intel RealSense D435, Azure Kinect) + RGBD-датасет конкретных деталей. Методы:
- FoundationPose (NVIDIA): универсальная модель, работает из 1 референсного изображения или CAD-модели без дообучения. Accuracy: <5 мм translation, <5° rotation на YCBv dataset.
- Обучение с нуля: Dope (Deep Object Pose Estimation) или GDR-Net — точнее на специфических деталях, требует синтетического датасета с domain randomization (BlenderProc).
Domain gap — главная проблема: модель обучена на синтетике, деплоится в реальное освещение завода. Domain randomization (случайные текстуры, освещение, фоны) + небольшой real-world fine-tuning решает проблему за 200–500 реальных аннотированных кадров.
Bin Picking с 3D point cloud
Захват деталей из неупорядоченного бина: Open3D + PointNet++ для сегментации отдельных деталей в point cloud. Граспинг: GraspNet-1Billion модель или Contact-GraspNet предсказывает 6DoF grasp poses с antipodal constraint проверкой через коллизионный граф. На стали (блестящие поверхности, sensor noise) — дополнительная очистка point cloud: Statistical Outlier Removal + Normal estimation.
Motion Planning с ML
Learning from Demonstration (LfD)
Оператор один раз демонстрирует задачу, управляя рукой манипулятора вручную (kinesthetic teaching) или через VR-интерфейс. Алгоритм записывает траектории, обобщает через Gaussian Mixture Model (GMM) + Gaussian Mixture Regression (GMR) или Imitation Learning (BC, GAIL). Воспроизведение с адаптацией к вариациям: не нужно перепрограммировать при небольших изменениях позиции детали.
Reinforcement Learning для сложных манипуляций
Задачи, где trajectory planning не работает: вставка разъёма (peg-in-hole, допуск 0.1 мм), завинчивание без срыва резьбы, перекладывание хрупких объектов. Sim-to-Real: обучение в Isaac Gym (NVIDIA) или MuJoCo с randomized friction, mass, geometry. Transfer в реального робота через domain randomization + небольшой real-world fine-tuning.
На задаче industrial connector insertion: SAC (Soft Actor-Critic) достигает 95% success rate после 2M симуляционных шагов + 2 часов real-world дообучения.
Force/Torque контроль
Силомоментный сенсор (ATI Mini45, Robotiq FT300) + ML позволяет обнаруживать аномалии сборки в реальном времени: если усилие вставки выходит за пределы expected profile → деталь неправильно ориентирована → стоп перед повреждением.
LSTM на time series сигналов Fx, Fy, Fz, Tx, Ty, Tz: классификация «нормальная вставка» / «перекос» / «неверная деталь». Recall аномалий: 0.97, latency: 8 мс — успевает остановить движение до повреждения.
Mobile Robotics и AMR
SLAM и навигация
AMR (Autonomous Mobile Robot): LiDAR SLAM (Cartographer, RTAB-Map) для построения карты + локализации. ML-компонент: предсказание динамических препятствий (люди, погрузчики) через object detection (YOLOv8 на fisheye камерах) + velocity estimation.
Fleet Management
Парк из 30 AMR: оптимизация task assignment. Multi-agent RL (MAPPO — Multi-Agent PPO) или MILP для диспетчеризации. Throughput системы с RL vs. rule-based: +14% при той же инфраструктуре.
Стек и интеграции
| Уровень | Технологии |
|---|---|
| Симуляция | Isaac Sim, MuJoCo, Gazebo |
| Perception | ROS 2, Open3D, PyTorch3D |
| ML Framework | PyTorch, JAX |
| Motion Planning | MoveIt 2, OMPL |
| Robot OS | ROS 2 (Humble/Iron) |
| Коммуникация | EtherCAT, PROFINET, OPC-UA |
| Оркестрация флота | Fleet Management System, MQTT |
Срок разработки: 4–8 месяцев для perception + grasp planning на конкретной детали/задаче. Полная система с RL-обученными манипуляциями и fleet management: 10–18 месяцев.







