Проведение юзабилити-тестирования прототипов мобильного приложения
Юзабилити-тест — это когда реальный человек пытается выполнить реальную задачу в прототипе, а ты молча смотришь и не подсказываешь. Именно «молча» — это самое сложное. Желание сказать «нет, нажми сюда» убивает всю ценность теста. Момент, когда пользователь зависает на три секунды перед очевидной (по мнению команды) кнопкой — это и есть данные.
Форматы тестирования
Moderated usability test — фасилитатор присутствует на сессии (онлайн или очно), даёт задачи, задаёт follow-up вопросы по ходу. Подходит для прототипов Figma/XD: фасилитатор контролирует переходы между состояниями, которые прототип не покрывает. Запись через Zoom + экран устройства (iOS ReplayKit через AirPlay, Android через scrcpy или USB-запись).
Unmoderated remote test — участник проходит тест самостоятельно, запись отправляется автоматически. Инструменты: Maze (интегрируется напрямую с Figma), Useberry, UserZoom. Maze даёт автоматические метрики: misclick rate, time on task, path analysis. Для количественной проверки гипотез — быстрее и дешевле модерируемого теста.
Для прототипов мобильных приложений предпочитаем тестирование на реальных устройствах, не на десктопе. Figma Mirror или Maze on-device — прототип открывается на телефоне участника. Размеры тач-таргетов, которые работают на 1440p-мониторе дизайнера, ломаются на экране 360×780dp.
Сколько участников нужно
Классическая формула Nielsen: 5 участников выявляют 85% usability-проблем при одной группе пользователей. На практике — 5–8 человек для модерируемого теста одного прототипа. Для unmoderated с количественными метриками — от 20 участников, чтобы данные были статистически значимыми.
Важно: все участники должны соответствовать целевому профилю. Тест с «не той» аудиторией даёт ложные инсайты.
Что тестируем и как строим задачи
Задачи — сценарные, не директивные. Не «нажми на кнопку регистрации», а «представь, что хочешь создать аккаунт — сделай это». Задача должна описывать цель, а не путь.
Типовой набор задач для e-commerce прототипа:
- Найди товар в категории [X] и добавь в корзину
- Оформи заказ с доставкой на новый адрес
- Найди статус своего последнего заказа
После каждой задачи — Single Ease Question (SEQ): «Насколько легко было выполнить эту задачу?» по 7-балльной шкале. После всего теста — SUS (System Usability Scale), 10 вопросов. Benchmark SUS: выше 68 — приемлемо, выше 80 — хорошо.
Анализ результатов
После каждой сессии — краткое дебрифинг-заметки, пока свежо. После всех сессий — аффинити-маппинг наблюдений: какие проблемы встречались у нескольких участников, какие — единичны.
Результаты приоритизируем по матрице частота × критичность:
| Частота | Критичность | Приоритет |
|---|---|---|
| 3+ участника | Блокирует задачу | Критический — исправить до релиза |
| 3+ участника | Замедляет, но не блокирует | Высокий |
| 1–2 участника | Любая | Средний/низкий |
На выходе
Отчёт с видеоклипами ключевых моментов (timestamp + описание проблемы), приоритизированный список UX-проблем, рекомендации по исправлению с альтернативными решениями. Не просто «кнопка неочевидна» — а «3 из 6 участников тапали на иконку корзины в хедере вместо плавающей кнопки — рассмотреть замену FAB на inline кнопку в карточке товара».
Сроки: 2–3 рабочих дня на проведение и анализ (при условии готового прекрутинга участников). Стоимость — индивидуально.







