大模型学习记录(一)
2026/4/6 16:22:13 网站建设 项目流程
一些坑经验1wsl适用于自已电脑上面有GPU的服务器不适用。2Xshell8和Xftp8应该只能往autodl上面传文件如果是课题组服务器直接拖到文件夹里面在pycharm里面点上传。3课题组的服务器现在没有sudo权限pass,改用autodl。4这个autodl租的时候一定要租实例多的不然用的时候没有上传解压文件都可以无卡开机。在linux配置ollama5在本地下载linux版本的ollama安装包在D盘百度网盘下载里面存着上传到服务器。6解压到根目录usr文件夹中sudo tar -xvf ollama-linux-and64.tgz -C /usr用ollama -v验证输出版本号就可以了ollama serve 就可以在前台启动ollama用nohup ollama serve ollama.log 21 就可以后台运行ps aux | grep ollama这个可以用来验证是否成功。(但是不能开机自启动。下载模型文件5在服务器上面直接联网下载太慢了直接本地下载然后打包传到服务器上面本地把.ollama/models整个复制到C盘下面创建一个文件夹ollama_models,放进去。cd C:\tar -czvf ollama_models.tar.gz ollama_models打包好直接上传到服务器里面6mkdir -p ~/.ollamatar -xzvf ollama_models.tar.gz -C ~/用这个指令直接解压到目标文件最后的目录是~/.ollama/models下面有blobs/manifests/就可以了7重启重新读取模型pkill -f ollama servenohup ollama serve ollama.log 21 8如果运行这个ollama list有deepseek-r1:1.5b,就成功了可以ollama run deepseek-r1:1.5b了。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询