2026/4/6 14:57:20
网站建设
项目流程
李慕婉-仙逆-造相Z-Turbo一键部署至Ubuntu服务器保姆级环境配置教程想在自己的服务器上体验一下最近挺火的“李慕婉-仙逆-造相Z-Turbo”这个AI绘画模型但被一堆环境配置、驱动安装搞得头大别担心这篇教程就是为你准备的。咱们今天不谈复杂的原理就手把手、一步步地把整个部署过程走一遍。从一台干净的Ubuntu服务器开始到最终通过浏览器访问生成你的第一张图片整个过程我都会用最直白的话讲清楚遇到坑的地方也会提前给你标出来。就算你之前没怎么接触过服务器或者Docker跟着做也能搞定。咱们的目标很简单让你用最短的时间最少的折腾把这个强大的AI绘画工具跑起来。教程基于主流的Ubuntu 20.04或22.04系统如果你用的是其他版本思路也差不多可能需要微调几个命令。1. 部署前准备理清思路与检查清单在动手敲命令之前咱们先花两分钟把整个流程和需要的东西理清楚这样后面操作起来心里有底不容易乱。你需要准备的东西一台Ubuntu服务器版本最好是20.04 LTS或者22.04 LTS系统比较稳定社区支持也好。这台服务器需要有公网IP这样你才能从外面访问它。GPU支持这个模型对显卡有要求需要NVIDIA的GPU。你的服务器得有一块并且显存最好在8GB或以上这样跑起来才流畅生成大图也不费劲。基础的命令行操作能力知道怎么用ssh连上服务器会敲一些简单的Linux命令比如cd,ls,sudo就行。一个终端工具比如Windows下的PowerShell、Terminal或者macOS下的终端用来连接你的服务器。咱们的整体步骤是这样的打好地基给Ubuntu系统安装NVIDIA显卡驱动和Docker环境这是所有后续操作的基础。拉取镜像从镜像仓库把“李慕婉-仙逆-造相Z-Turbo”这个打包好的环境下载到本地。启动服务用Docker命令把镜像运行起来并设置好端口让外部可以访问。优化设置配置系统服务让这个AI应用在服务器重启后能自动运行省心省力。验收成果打开浏览器输入服务器地址看看是不是能正常使用了。好了思路清晰了咱们这就开始第一步。2. 第一步安装NVIDIA驱动与Docker这是最基础也最关键的一步相当于给服务器装上“发动机”和“集装箱运输系统”。咱们分两部分来做。2.1 安装NVIDIA显卡驱动首先连上你的Ubuntu服务器。然后咱们更新一下系统软件包列表确保安装的都是最新版本的驱动。sudo apt update sudo apt upgrade -y接下来安装NVIDIA驱动。这里推荐使用Ubuntu官方仓库的版本比较稳定。我们可以先查看一下推荐安装的驱动版本。ubuntu-drivers devices这个命令会列出所有可用的驱动。通常选择后面标有“recommended”的那个版本号进行安装。例如如果推荐的是nvidia-driver-535就安装它sudo apt install nvidia-driver-535 -y安装过程可能会花点时间。完成后必须重启服务器新驱动才能生效。sudo reboot重启后再次通过ssh连接服务器。输入下面的命令来验证驱动是否安装成功nvidia-smi如果看到类似下面的输出显示了你的GPU型号、驱动版本和CUDA版本等信息那就恭喜你驱动安装成功了----------------------------------------------------------------------------- | NVIDIA-SMI 535.161.07 Driver Version: 535.161.07 CUDA Version: 12.2 | |--------------------------------------------------------------------------- | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | || | 0 NVIDIA GeForce ... On | 00000000:00:04.0 Off | N/A | | N/A 36C P0 25W / N/A | 0MiB / 8192MiB | 0% Default | ---------------------------------------------------------------------------2.2 安装Docker与NVIDIA Container Toolkit驱动好了接下来安装Docker它是用来运行我们AI镜像的容器平台。同时为了让Docker容器能使用GPU我们还需要安装NVIDIA Container Toolkit。首先安装Docker的依赖包并添加官方GPG密钥和软件源sudo apt install -y ca-certificates curl gnupg sudo install -m 0755 -d /etc/apt/keyrings curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg sudo chmod ar /etc/apt/keyrings/docker.gpg echo \ deb [arch$(dpkg --print-architecture) signed-by/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu \ $(. /etc/os-release echo $VERSION_CODENAME) stable | \ sudo tee /etc/apt/sources.list.d/docker.list /dev/null然后更新软件包列表并安装Docker引擎sudo apt update sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin安装完成后将当前用户添加到docker组这样以后运行Docker命令就不需要每次都加sudo了。sudo usermod -aG docker $USER newgrp docker现在安装NVIDIA Container Toolkit让Docker认识我们的GPUdistribution$(. /etc/os-release echo $ID$VERSION_ID) curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg curl -s -L https://nvidia.github.io/libnvidia-container/$distribution/libnvidia-container.list | \ sed s#deb https://#deb [signed-by/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g | \ sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list sudo apt update sudo apt install -y nvidia-container-toolkit配置Docker使用NVIDIA作为默认的容器运行时sudo nvidia-ctk runtime configure --runtimedocker sudo systemctl restart docker最后验证一下Docker是否能调用GPU。运行一个测试命令docker run --rm --gpus all nvidia/cuda:12.2.0-base-ubuntu22.04 nvidia-smi如果这个命令成功运行并且输出的GPU信息和你之前直接运行nvidia-smi看到的一致那么恭喜Docker和GPU的环境就全部配置妥当了3. 第二步拉取并启动AI镜像基础环境搭好了现在主角登场。我们将从公共镜像仓库拉取“李慕婉-仙逆-造相Z-Turbo”的镜像并运行它。3.1 拉取镜像假设镜像的名字是limuwan/xianni-z-turbo:latest这里仅为示例请替换为实际的镜像名称。使用docker pull命令拉取docker pull limuwan/xianni-z-turbo:latest这个镜像可能比较大有几个GB下载需要一些时间取决于你的网络速度。喝杯茶耐心等待一下。3.2 启动容器镜像下载完成后我们就可以启动它了。最关键的是要把容器内部的服务端口映射到宿主机的端口上这样我们才能从外部访问。通常这类AI应用的Web界面会运行在7860端口。我们用下面的命令启动容器docker run -d \ --name xianni-ai \ --gpus all \ -p 7860:7860 \ -v /path/to/your/data:/app/data \ --restart unless-stopped \ limuwan/xianni-z-turbo:latest我来解释一下这个命令里的几个参数-d让容器在后台运行。--name xianni-ai给容器起个名字方便管理。--gpus all把宿主机的所有GPU都分配给这个容器使用。-p 7860:7860端口映射。左边是服务器的端口7860右边是容器内部的端口7860。意思就是把服务器7860端口的流量转发给容器的7860端口。-v /path/to/your/data:/app/data数据卷挂载。把服务器上的一个目录比如/home/user/ai_data挂载到容器里的/app/data目录。这样你生成的作品、下载的模型等数据就会保存在服务器上即使容器删除了数据也不会丢。请把/path/to/your/data换成你服务器上真实的、有写入权限的目录路径。--restart unless-stopped设置重启策略。除非你手动停止容器否则如果容器意外退出Docker会自动重启它。最后一行就是镜像的名字。运行命令后可以用下面的命令查看容器是否在正常运行docker ps你应该能看到一个名为xianni-ai的容器状态是Up。3.3 配置防火墙如果需要如果你的云服务器比如阿里云、腾讯云、AWS等有安全组或防火墙规则你需要放行我们刚才映射的7860端口。以Ubuntu自带的ufw防火墙为例如果你启用了它需要运行sudo ufw allow 7860/tcp sudo ufw reload对于云服务商的安全组请登录其控制台找到你的服务器实例在安全组规则里添加一条入方向规则允许TCP:7860端口。4. 第三步使用Systemd配置服务自启动虽然我们用--restart unless-stopped让Docker管理重启但更可靠的方式是创建一个系统服务。这样即使服务器整体重启这个服务也会在系统启动时自动运行容器。首先创建一个服务配置文件sudo nano /etc/systemd/system/xianni-ai.service将下面的内容粘贴进去。注意你需要把/path/to/your/data替换成你之前挂载的真实数据目录路径把limuwan/xianni-z-turbo:latest替换成你实际使用的镜像名。[Unit] DescriptionXianNi AI Painting Service Requiresdocker.service Afterdocker.service network-online.target [Service] Typesimple Userroot ExecStart/usr/bin/docker run --rm --name xianni-ai --gpus all -p 7860:7860 -v /path/to/your/data:/app/data limuwan/xianni-z-turbo:latest ExecStop/usr/bin/docker stop xianni-ai Restartalways RestartSec10 [Install] WantedBymulti-user.target按CtrlX然后按Y再按Enter保存并退出。接下来重新加载systemd配置启用并启动这个服务sudo systemctl daemon-reload sudo systemctl enable xianni-ai.service sudo systemctl start xianni-ai.service检查一下服务状态看看是否运行正常sudo systemctl status xianni-ai.service如果看到绿色的active (running)字样就说明服务启动成功了。现在即使服务器重启这个AI应用也会自动运行。5. 第四步访问与验证所有配置都完成了现在来验收成果吧打开你电脑上的浏览器在地址栏输入http://你的服务器IP地址:7860把“你的服务器IP地址”换成你服务器的公网IP。如果一切顺利你应该就能看到“李慕婉-仙逆-造相Z-Turbo”的Web用户界面了。常见问题与排查如果打不开页面别急可以按顺序检查下面几点容器运行状态在服务器上运行docker ps确认xianni-ai容器是Up状态。服务运行状态运行sudo systemctl status xianni-ai.service确认服务是active。端口监听运行sudo netstat -tlnp | grep 7860看看7860端口是否被监听。防火墙/安全组再次确认服务器本机防火墙和云平台安全组都放行了7860端口。查看日志运行docker logs xianni-ai查看容器的启动日志里面可能有错误信息提示。通常页面能打开就代表部署成功了。你可以在输入框里尝试描述你想画的画面点击生成体验一下这个AI模型的创造力。6. 总结走完这一遍你会发现其实把这样一个AI应用部署到自己的服务器上并没有想象中那么复杂。核心步骤就是装驱动、装Docker、拉镜像、跑起来。我们通过Systemd服务把它做成开机自启以后基本就不用再管它了非常省心。自己部署的最大好处就是数据完全掌握在自己手里生成速度也取决于你自己的服务器性能用起来更自由。过程中如果遇到网络问题拉取镜像慢可以考虑配置一下镜像加速器如果对生成效果有更多要求也可以去挂载的数据目录里找找看有没有配置文件可以调整。这套方法其实是个通用流程很多其他的AI应用镜像比如各种大语言模型、语音合成模型都可以用类似的方式部署到你的Ubuntu服务器上。希望这个教程能帮你顺利搭起自己的AI创作环境玩得开心。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。