外贸购物网站模板,网络公司网站绪论,电销防封号系统,龙岩e网站1.下载Ollama安装
1.1.安装Ollama
Ollama官网#xff1a;Ollama 下载Ollama,点击“Download”按钮。 根据电脑操作系统#xff0c;下载合适的版本即可。
下载完成后点击安装#xff0c;完成后安装窗口会自动关闭#xff0c;你的系统托盘图标会出现一个Ollama图标。 1.2.…1.下载Ollama安装
1.1.安装Ollama
Ollama官网Ollama 下载Ollama,点击“Download”按钮。 根据电脑操作系统下载合适的版本即可。
下载完成后点击安装完成后安装窗口会自动关闭你的系统托盘图标会出现一个Ollama图标。 1.2.Ollama配置环境变量
下载Ollama后点击安装即可Ollama会默认将下载的模型安装到C盘一般我们需要将其改到其他盘避免下载模型过多过大将C盘占满。
找到“编辑系统环境变量”。 点击后选择“环境变量”。 在“系统环境变量”选择新增 1.2.1.配置Ollama的模型存储路径
默认是C盘这里我们更改ollama的模型存储为E盘先打开电脑的E盘创建一个名为“Ollama”的文件夹。然后接上面弹出来的对话框中输入变量名和变量值 变量名OLLAMA_MODELS 变量值E:\Ollama 2.2.配置可被远程访问
监听地址默认为127.0.0.1仅限本机访问。如需远程访问可设置为0.0.0.0我们在学习的情况下一般仅限本机访问即可。 变量名OLLAMA_HOST 变量值0.0.0.0 修改环境变量后重启一下Ollama。
1.2.3.重启Ollama
右键这个羊驼图标选择“Quit Ollama”。 然后找到Ollama应用启动即可。 2.本地化DeepSeek R1 模型
可以在Ollama官网点击Models找打DeepSeek-R1模型。 点击deepseek-r1模型后可以查看deepseek-r1模型的详细信息也有对应的安装脚本。 deepseek-r1有很多版本我们可以选择其中一个下载。 复制这个命令在我们的电脑命令窗口里面执行即可。 windows电脑搜索cmd,即可打开命令窗口。 然后复制ollama下载模型命令在窗口中执行即可开始下载
ollama run deepseek-r1:7b 等待模型下载完毕。 到此我们的deepseek-r1:7b模型本地化安装完毕我们可以通过命令行和它简单进行几句对话。 3.下载AnythingLLM与安装
官网地址Windows Installation ~ AnythingLLM 注意操作系统需要Windows10
下载完毕后我们双击开始安装。 等待其安装完毕即可。 主界面效果如下 接下来我们开始使用AnythingLLM。
4.AnythingLLM使用
因为我们已经下载Ollama和DeepSeek-R1所以可以从开始后直接跳到创建工作区。
因为我们需要使用的是本地的模型所以这里可以选择Ollama。 然后会提示我们选择本地模型然后我们选择前面下载的deepseek-r1:7b 注意后面的Max Token我们尽可能改大些让其输出内容可以更多。但是也要根据自己的电脑配置进行合理的配置。 注意只有理解其对性能和资源使用的影响时才更改此设置。
基本设置Ollama 自动将上下文限制在 2048 个令牌减少了 VRAM 的使用。适合大多数用户。
最大值使用整个上下文窗口最高 令牌数。可能会显著增加 VRAM 使用量。
意思是如果配置 Base(Default)会使用 Ollama 默认的 2048 token主要处于性能考虑。整体效果与 Maximum 对比有差距。 然后保存配置即可。 接下来我们看看效果 其实我的本意问它是谁结果回答和不满意而且思索过程居然是英文的。我们只需要将聊天设置里面的聊天提示用中文增加一下提示即可。 然后我们再看效果 整体效果很不错效果也令人满意接下来我们可以上传一些自定义的知识让其回答。
5.导入本地化知识 点击这个上传按钮可以开始添加些自定义的知识库。 首先我们在上传之前先测试一下是否能回答我们专有知识。 接下来我们上传知识文档 最后注意一定要标记否则不会被引用。 这里插入一个细节如果我们想要模型输出的结果更加偏向于我们上传的文档可以调整一下LLM温度和向量数据库中文档相似性阈值 然后我们再试试。 显然已经知道了些东西虽然准确性还有待提升。
后续我会持续更新介绍一下如何接入外部向量数据库、提供远程访问、Linux部署、以及我们怎么慢慢将助手训练的更专业等等。