Tommonkey

All greatness comes from a brave beginning

0%

本地部署AI开源大模型

现在开源的ai大模型越来越多,比如:LLama,通义千问,gemma2等,但这些模型想要优质的回答就非常吃电脑配置,如果是轻量工作,建议还是部署参数少的开源版本,比如这次我尝试在自己的笔记本上部署阿里的Qwen2-7B的版本

部署环境

  • 电脑配置:32GB内存,CPU为AMD7840HS,显卡为780M,硬盘空间为1T
  • 部署方式:电脑本地部署
  • 部署环境:Windows10
  • 部署模型:Qwen2-7B版本
  • AI模型管理工具:ollama
  • AnythingLLM

安装Ollama与AnythingLLM

  • ollama安装地址
    1
    https://ollama.com/
    1-1
    安装完毕后,我们需要设置下文件下载部署的路径,不然后面模型默认下载到C盘。步骤如下:
    高级系统设置->环境变量->系统变量->点击”新建”来创建一个变量,变量名为:”OLLAMA_MODELS”,变量值为:”D:\AIModules”。这里D:\AIModules为我们想要下载部署的文件位置,各位可以根据自己的情况进行修改哦!->设置完成后,点击确定,保存即可
    1-7
  • AnythingLLM安装地址
    1
    https://anythingllm.com/
    1-2
    各位根据自己的系统下载相应的发行版本安装即可

选择AI模型下载

通过ollama可以非常方便的下载我们想要的开源模型和相应版本。首先访问ollama moldel页面挑选自己想要的模型
1-3
比如我们想部署qwen2-7b模型,就点击进去,查看ollama部署该版本的命令,并复制在本地执行
1-4
1-5
静静的等待下载完成部署,就可以通过cmd进行对话了!这里我下载部署完毕后,问了一个“如何在windows上安装pip?”的问题,给出的回答还是可以的,同时在模型回答问题的时候查看配置消耗情况,发现cpu峰值占用在65%左右,内存也差不在55%左右。
1-6

使用AnythingLLM可视化对话

点击启动我们之前安装好的AnythongLLM,创建新工作区,随便取一个名字,比如”qwen2-7b”。然后,点击设置->聊天设置->将工作区LLM提供者选择为Ollama,工作区聊天模型为qwen2-7b->点击代理设置,同样的将工作区代理LLM提供商设置为Ollama,工作区代理为qwen2-7b,保存即可。
1-8
1-9

实战效果

下图为实战效果
1-10
总结:日常轻度任务够用,复杂问题会出错,不够聪明,毕竟是7b版本!

OVER~

奖励作者买杯可乐?