Настройка GPU-сервера для разработки AI CUDA PyTorch TensorFlow

Проектируем и внедряем системы искусственного интеллекта: от прототипа до production-ready решения. Наша команда объединяет экспертизу в машинном обучении, дата-инжиниринге и MLOps, чтобы AI работал не в лаборатории, а в реальном бизнесе.
Показано 1 из 1 услугВсе 1566 услуг
Настройка GPU-сервера для разработки AI CUDA PyTorch TensorFlow
Простая
~1 рабочий день
Часто задаваемые вопросы
Направления AI-разработки
Этапы разработки AI-решения
Последние работы
  • image_website-b2b-advance_0.png
    Разработка сайта компании B2B ADVANCE
    1218
  • image_web-applications_feedme_466_0.webp
    Разработка веб-приложения для компании FEEDME
    1161
  • image_websites_belfingroup_462_0.webp
    Разработка веб-сайта для компании БЕЛФИНГРУПП
    853
  • image_ecommerce_furnoro_435_0.webp
    Разработка интернет магазина для компании FURNORO
    1047
  • image_logo-advance_0.png
    Разработка логотипа компании B2B Advance
    561
  • image_crm_enviok_479_0.webp
    Разработка веб-приложения для компании Enviok
    825

Настройка GPU-сервера для разработки AI: CUDA, PyTorch, TensorFlow

Настройка GPU-сервера для AI-разработки — это 2-4 часа работы, которые экономят дни проблем с "работает на облаке, не работает локально". Ключевые компоненты: правильные версии NVIDIA driver + CUDA + cuDNN, изолированные Python-окружения и инструменты для мониторинга GPU.

Минимальный стек

# 1. NVIDIA Driver (Ubuntu 22.04)
sudo apt install -y nvidia-driver-545
sudo reboot

# 2. CUDA 12.2
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-ubuntu2204.pin
sudo mv cuda-ubuntu2204.pin /etc/apt/preferences.d/cuda-repository-pin-600
sudo apt-key adv --fetch-keys https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/3bf863cc.pub
sudo add-apt-repository "deb https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/ /"
sudo apt install -y cuda-toolkit-12-2

# 3. Добавить в ~/.bashrc
echo 'export PATH=/usr/local/cuda-12.2/bin:$PATH' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda-12.2/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc

# 4. Проверка
nvidia-smi && nvcc --version

Conda-окружения для разных фреймворков

# PyTorch
conda create -n pytorch python=3.11 -y
conda activate pytorch
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

# TensorFlow
conda create -n tensorflow python=3.11 -y
conda activate tensorflow
pip install tensorflow[and-cuda]==2.15.0

# Проверка GPU доступности
python -c "import torch; print('PyTorch GPU:', torch.cuda.get_device_name(0))"
python -c "import tensorflow as tf; print('TF GPUs:', tf.config.list_physical_devices('GPU'))"

GPU мониторинг

# Установка nvtop — htop для GPU
sudo apt install nvtop
nvtop  # Интерактивный мониторинг

# gpustat — компактный вывод
pip install gpustat
gpustat --watch  # Обновление каждую секунду
watch -n 1 nvidia-smi  # Классический вариант

Оптимизация производительности

Persistence mode — устраняет задержки при первом обращении к GPU:

sudo nvidia-smi -pm 1
# Добавить в /etc/rc.local для автозапуска

sudo nvidia-smi --auto-boost-default=0 — отключить автобуст для детерминированных benchmark результатов. Для максимальной производительности sudo nvidia-smi -ac 1215,1410 (оптимальные частоты для A100).