Реализация AI-Copilot для навигации по мобильному приложению

TRUETECH занимается разработкой, поддержкой и обслуживанием мобильных приложений iOS, Android, PWA. Имеем большой опыт и экспертизу для публикации мобильных приложений в популярные маркеты Google Play, App Store, Amazon, AppGallery и другие.
Разработка и поддержка любых видов мобильных приложений:
Информационные и развлекательные мобильные приложения
Новостные приложения, игры, справочники, онлайн-каталоги, погодные, фитнес и здоровье, туристические, образовательные, социальные сети и мессенджеры, квиз, блоги и подкасты, форумы, агрегаторы
Мобильные приложения электронной коммерции
Интернет-магазины, B2B-приложения, маркетплейсы, онлайн-обменники, кэшбэк-сервисы, биржи, дропшиппинг-платформы, программы лояльности, доставка еды и товаров, платежные системы
Мобильные приложения для управления бизнес-процессами
CRM-системы, ERP-системы, управление проектами, инструменты для команды продаж, учет финансов, управление производством, логистика и доставка, управление персоналом, системы мониторинга данных
Мобильные приложения электронных услуг
Доски объявлений, онлайн-школы, онлайн-кинотеатры, платформы предоставления электронных услуг, платформы кешбека, видеохостинги, тематические порталы, платформы онлайн-бронирования и записи, платформы онлайн-торговли

Это лишь некоторые из типы мобильных приложений, с которыми мы работаем, и каждый из них может иметь свои специфические особенности и функциональность, а также быть адаптированным под конкретные потребности и цели клиента.

Предлагаемые услуги
Показано 1 из 1 услугВсе 1735 услуг
Реализация AI-Copilot для навигации по мобильному приложению
Сложная
~2-4 недели
Часто задаваемые вопросы
Наши компетенции:
Этапы разработки
Последние работы
  • image_mobile-applications_feedme_467_0.webp
    Разработка мобильного приложения для компании FEEDME
    756
  • image_mobile-applications_xoomer_471_0.webp
    Разработка мобильного приложения для компании XOOMER
    624
  • image_mobile-applications_rhl_428_0.webp
    Разработка мобильного приложения для компании RHL
    1054
  • image_mobile-applications_zippy_411_0.webp
    Разработка мобильного приложения для компании ZIPPY
    947
  • image_mobile-applications_affhome_429_0.webp
    Разработка мобильного приложения для компании Affhome
    864
  • image_mobile-applications_flavors_409_0.webp
    Разработка мобильного приложения для компании FLAVORS
    445

Реализация AI-Copilot для навигации по мобильному приложению

Сложные мобильные приложения — банки, ERP, медицинские платформы — теряют пользователей не из-за отсутствия функций, а из-за того, что найти нужную функцию слишком трудно. Традиционный ответ — онбординг-туры и справки. Работает плохо: пользователь проходит тур при первом входе и забывает через день. AI Copilot для навигации — это ассистент, который понимает запрос на естественном языке и ведёт пользователя туда, куда нужно.

Что умеет навигационный Copilot

Не «чат», не FAQ-бот. Три конкретных сценария:

Deep link navigation. Пользователь пишет «хочу перевести деньги на карту» — ассистент открывает нужный экран. Технически: NLU-модель классифицирует интент, маппит на deep link, приложение выполняет навигацию программно.

Контекстные подсказки. Пользователь завис на экране три минуты и не совершил действия — Copilot предлагает помощь. Не generic «нужна помощь?», а контекстное: «Вы на экране платежа. Хотите, чтобы я объяснил разницу между переводом по номеру телефона и по реквизитам?»

Guided task execution. Многошаговые задачи: «оформить ипотечную заявку» — 12 шагов, разбросанных по трём разделам. Copilot ведёт шаг за шагом, отслеживает прогресс и объясняет каждый экран.

Архитектура: NLU → Intent → Action

Самая нетривиальная часть — mapping запроса пользователя на конкретное действие в приложении. Два подхода:

Classifier-based. Заранее определяем набор интентов (50–200 для среднего приложения), обучаем классификатор. Быстро, предсказуемо, дёшево в рантайме. Не справляется с нестандартными формулировками.

LLM + function calling. Описываем все экраны и действия как набор функций. LLM выбирает нужную на основе запроса пользователя:

// iOS — описание навигационных функций для LLM
let navigationTools: [ChatCompletionTool] = [
    ChatCompletionTool(
        type: .function,
        function: ChatCompletionToolFunction(
            name: "navigate_to_screen",
            description: "Открывает экран приложения по его идентификатору",
            parameters: NavigationParameters.schema  // {screen_id: string, params: object}
        )
    ),
    ChatCompletionTool(
        type: .function,
        function: ChatCompletionToolFunction(
            name: "highlight_element",
            description: "Подсвечивает UI-элемент на текущем экране с объяснением",
            parameters: HighlightParameters.schema
        )
    ),
    ChatCompletionTool(
        type: .function,
        function: ChatCompletionToolFunction(
            name: "start_guided_flow",
            description: "Запускает пошаговый гайд по многошаговой задаче",
            parameters: FlowParameters.schema
        )
    )
]

// Запрос с function calling
let request = ChatCompletionRequest(
    model: "gpt-4o-mini",
    messages: [systemMessage, userMessage],
    tools: navigationTools,
    toolChoice: .auto
)

LLM возвращает tool_calls с именем функции и параметрами, приложение выполняет навигацию.

Программная навигация в iOS и Android

На iOS (SwiftUI) — через NavigationPath или custom Router:

class AppRouter: ObservableObject {
    @Published var path = NavigationPath()

    func navigate(to screen: AppScreen, params: [String: Any] = [:]) {
        switch screen {
        case .transfer:
            path.append(TransferRoute(params: params))
        case .loanApplication:
            path.append(LoanApplicationRoute(params: params))
        // ...
        }
    }

    // Вызывается из AI Copilot
    func executeNavigationAction(_ action: NavigationAction) {
        DispatchQueue.main.async {
            self.navigate(to: action.screen, params: action.params)
        }
    }
}

На Android (Compose) — через NavController:

fun handleCopilotAction(action: NavigationAction, navController: NavController) {
    when (action.screenId) {
        "transfer" -> navController.navigate(
            "transfer?amount=${action.params["amount"] ?: ""}"
        )
        "loan_application" -> navController.navigate("loan/application")
        // ...
    }
}

Подсветка UI-элементов

Guided mode с подсветкой элементов — технически сложнее навигации. Нужна система идентификации элементов, не зависящая от положения на экране.

На iOS: теговая система через accessibilityIdentifier. Copilot знает имена элементов, при необходимости overlay-слой рисует highlight с анимацией поверх нужного элемента.

На Android: аналогично через contentDescription или кастомные теги + ViewTreeObserver для получения координат элемента в runtime.

Контекстная осведомлённость

Copilot должен знать, где находится пользователь прямо сейчас. Текущий экран, шаги, которые уже выполнены, незаполненные поля — это контекст, который инжектируется в системный промпт:

func buildCopilotContext(currentScreen: AppScreen, formState: FormState?) -> String {
    var context = "Текущий экран: \(currentScreen.name).\n"
    if let form = formState {
        context += "Заполненные поля: \(form.completedFields.joined(separator: ", ")).\n"
        context += "Незаполненные обязательные поля: \(form.missingRequired.joined(separator: ", ")).\n"
    }
    return context
}

Типичные ошибки реализации

Главная: Copilot выполняет деструктивные действия без подтверждения. Правило — навигация выполняется немедленно, любые изменения данных (отправка формы, создание платежа) требуют явного confirm от пользователя, независимо от того, что сказал Copilot.

Вторая: полное описание всех 80 экранов в системном промпте. Это раздувает промпт до нескольких тысяч токенов. Решение — векторный поиск по каталогу экранов перед запросом к LLM: из 80 экранов в промпт попадают 5–10 наиболее релевантных.

Процесс работы

Инвентаризация всех экранов и действий приложения → проектирование схемы интентов → реализация NLU (classifier или LLM function calling) → система программной навигации → UI overlay для подсветки элементов → guided flow engine → A/B тест с метриками task completion rate.

Ориентиры по срокам

MVP с LLM function calling и базовой навигацией — 2–3 недели. Полная система с guided flows, подсветкой элементов и контекстными подсказками — 3–5 недель. Итеративная доработка на основе аналитики — постоянно.