Proxmox Ollama OpenWebUI LXC для самых маленьких

Аватар автора
ProHomelab
В этом видео я показываю пошаговую установку и настройку Ollama и OpenWebUI в LXC-контейнере на Proxmox. Разберём, как развернуть локальный LLM-сервер для работы с ИИ-моделями без облаков, полностью у себя в homelab. В ролике: - установка LXC-контейнера в Proxmox - настройка окружения под Ollama - установка и запуск OpenWebUI - связка OpenWebUI ↔ Ollama - базовые проверки работы моделей - нюансы LXC (сеть, ресурсы, ограничения) Такой вариант отлично подойдёт для self-hosting, тестирования LLM, локального ChatGPT-подобного интерфейса и интеграции в домашнюю или серверную инфраструктуру. 🔧 Используемые технологии - Proxmox VE - LXC (Linux Containers) - Ollama - OpenWebUI - Linux 🧠 Для кого это видео - homelab-энтузиасты - self-hosting - DevOps / SysAdmin - все, кто хочет запустить локальный ИИ без облаков Можно помочь развитию канала, возражать никто не будет 5536 9138 7053 8572 Тинькофф 📌 Таймкоды 00:00 — введение 01:21 - о чем ролик 01:37 - благодраность спонсорам 02:33 - что будем делать 03:46 - почему Helpers Scripts 05:54 — Создание LXC в Proxmox 08:27 — Интеграция и тестирование

0/0


0/0

0/0

0/0