Open WebUI — это удобный веб-интерфейс для работы с AI-моделями, который можно развернуть на собственном VDS-сервере. Он позволяет подключать внешние API (например, OpenAI-совместимые сервисы) и запускать локальные модели через Ollama. В этой статье показано, как выполнить первоначальную настройку Open WebUI, подключить модели и начать работу с ними.
После установки Open WebUI на ваш сервер перейдите по адресу панели администратора, указанному в письме после установки. Адрес имеет следующий формат:
http://{IP_вашего_сервера}:3000
После перехода по ссылке откроется меню первоначальной настройки Open WebUI.
Заполните поля «Имя», «Электронная почта» и «Пароль», затем нажмите кнопку «Создать аккаунт администратора».
После этого вы будете автоматически перенаправлены в основную панель Open WebUI.
Open WebUI поддерживает два способа подключения моделей:
Рассмотрим настройку индивидуального подключения.
Нажмите на иконку профиля в левом нижнем углу экрана и выберите «Панель администратора».
В верхнем меню перейдите во вкладку «Настройки». В левой части экрана выберите раздел «Подключения», включите параметр «Прямые подключения» и нажмите кнопку «Сохранить».
После включения параметра «Прямые подключения» пользователи могут самостоятельно добавлять свои модели.
Для настройки подключения нажмите на иконку профиля в левом нижнем углу экрана и выберите «Настройки».
В открывшемся меню перейдите в раздел «Подключения».
В появившемся окне укажите Endpoint (URL) и API-ключ. Затем нажмите кнопку «Проверить подключение к серверу».
Если соединение успешно установлено, нажмите кнопку «Сохранить».
После этого закройте настройки и вернитесь на главный экран, нажав на логотип Open WebUI в левом верхнем углу.
Добавленные модели появятся в списке рядом с логотипом. Выберите нужную модель и начните работу.
Вы также можете настроить общее подключение моделей, доступное для всех пользователей.
Для этого нажмите на иконку профиля и выберите «Панель администратора».
В верхнем меню перейдите во вкладку «Настройки», затем в левом меню выберите раздел «Подключения».
В строке «Управление соединениями API OpenAI» нажмите кнопку «+».
Укажите Endpoint и API-ключ, затем нажмите кнопку «Сохранить».
После этого модели из указанного источника будут доступны всем пользователям Open WebUI.
Важно: автоустановка Open WebUI уже включает Ollama — платформу для запуска больших языковых моделей (LLM) непосредственно на вашем VDS-сервере.
Ollama позволяет запускать AI-модели локально, без использования внешних API. Это даёт полный контроль над данными и снижает задержки при работе.
Для установки модели откройте «Панель администратора» через меню профиля.
В верхнем меню перейдите в раздел «Настройки», затем выберите «Подключения».
В строке http://ollama:11434 нажмите кнопку «Скачать».
Откроется интерфейс управления моделями Ollama. Выберите нужную модель. Список доступных моделей можно посмотреть по ссылке: https://ollama.com/library
Скопируйте тег модели (например, llama3.2 или mistral), вставьте его в поле и нажмите кнопку загрузки.
Сервер автоматически начнёт скачивание модели. Дополнительная настройка не требуется.
После завершения загрузки закройте настройки и вернитесь на главный экран, нажав на логотип Open WebUI в левом верхнем углу.
Установленная модель появится в списке доступных. Выберите её и начните новый чат.
Настройка Open WebUI завершена. Теперь вы можете подключать внешние API и использовать локальные AI-модели через Ollama для работы с различными задачами.
Удачной работы! Если возникнут вопросы - напишите нам, пожалуйста, тикет из