装修网站效果图,北京展览馆网站建设,保定网站建设,免费建站自助建站目录 1.安装Node.js和npm2.初始化项目3.安装Ollama4.下载DeepSeek模型5.创建Node.js服务器6.运行服务器7.Web UI对话-Chrome插件-Page Assist 1.安装Node.js和npm
首先确保我们机器上已经安装了Node.js和npm。如果未安装#xff0c;可以通过以下链接下载并安装适合我们操作系… 目录 1.安装Node.js和npm2.初始化项目3.安装Ollama4.下载DeepSeek模型5.创建Node.js服务器6.运行服务器7.Web UI对话-Chrome插件-Page Assist 1.安装Node.js和npm
首先确保我们机器上已经安装了Node.js和npm。如果未安装可以通过以下链接下载并安装适合我们操作系统的版本 Node.js官方下载页面关于Node.js的安装可以参考该篇文章 Node.js的安装及环境配置【超详细】安装完成后可以通过以下命令检查是否安装成功
node -v
npm -v安装成功界面
2.初始化项目
使用以下命令创建一个新的文件夹作为项目目录并初始化一个Node.js项目
mkdir deepseek-nodejs
cd deepseek-nodejs
npm init -y如下图 以上命令会在当前目录下生成一个package.json文件用于管理项目的依赖关系和其他配置信息。
3.安装Ollama
访问Ollama官网下载适合我们电脑操作系统的安装包并按照提示进行安装 Ollama官方下载页面对于Linux用户可以通过以下命令直接安装
curl -fsSL https://ollama.com/install.sh | sh安装完成后验证是否成功安装
ollama -v如下图 4.下载DeepSeek模型
安装完Ollama后我们可以通过其界面选择并下载DeepSeek-R1模型。以下是下载并运行DeepSeek-R1 1.5B版本的示例命令
ollama run deepseek-r1:1.5b根据我们机器的硬件配置可以选择不同规模的模型版本如7B、14B等
不同模型创建命令 创建命令不同规模的模型版本参数核心区别
参数规模特点和应用场景部署需求和资源消耗应用场景1.5B适合简单的文本生成任务如客服话术和短文案生成但逻辑推理能力较弱适合本地部署资源消耗低可以在消费级显卡上运行生成食谱步骤和基础问答7B-8B适合多轮对话和中等复杂度的任务如代码补全和基础科研工作适合本地部署资源消耗低可以在消费级显卡上运行ChatGPT级对话和中等复杂度代码生成14B适合多轮对话和中等复杂度的任务如代码补全和基础科研工作需要在高性能GPU上运行如A100/H100/H800等科研论文辅助撰写和跨领域知识推理32B具备接近人类水平的复杂任务处理能力如法律文档分析和数学证明需要在高性能GPU上运行如A100/H100/H800等科研论文辅助撰写和跨领域知识推理70B适用于前沿研究和超高性能计算场景需要多卡并行和云服务支持适用于全球高并发场景多模态融合和超长文本生成如小说/剧本671B顶尖多任务能力接近通用人工智能AGI适合科研和超大规模企业需要多卡并行和云服务支持适用于全球高并发场景多模态融合和超长文本生成如小说/剧本
如下图 注意下载过程中最开始下载速度可能要快一些下载到后面可能就几十KB/s了此时我们可以按CtrlC停止下载然后再重新执行下载命令此时的下载速度又恢复到了几MB/s了如此循环往复操作很快下载好 执行成功可以问答 使用 /bye 命令进行退出
5.创建Node.js服务器
为了使DeepSeek可以通过API接口访问我们可以使用Express框架创建一个简单的Node.js服务器。首先安装Express
npm install express关于Express可以参考该篇文章 当面试官问你关于Node.js的开发框架Express时你怎么回答然后在项目根目录下创建一个名为server.js的文件并添加以下示例代码
const express require(express);
const { exec } require(child_process);const app express();
const PORT process.env.PORT || 3000;app.use(express.json());app.post(/query, (req, res) {const query req.body.query;if (!query) {return res.status(400).send({ error: query必填});}// 使用提供的查询执行ollama命令exec(ollama run deepseek-r1:1.5b -- ${query}, (error, stdout, stderr) {if (error) {return res.status(500).send({ error: 请求出错 });}res.send({ response: stdout });});
});app.listen(PORT, () {console.log(服务运行在${PORT}端口);
});这段代码设置了一个简单的HTTP服务器监听/query端点上的POST请求并将接收到的查询传递给Ollama执行的DeepSeek模型。响应结果将以JSON格式返回给客户端。
6.运行服务器
完成上述步骤后可以在终端中通过以下命令启动服务器
node server.js在postman或者apifox中访问http://localhost:3000/query并通过发送POST请求来与DeepSeek模型进行交互
7.Web UI对话-Chrome插件-Page Assist
通过终端窗口进行对话不够直观所以通过第三方Web UI来实现对话效果通过谷歌浏览器官方插件地址搜索Page Assist点击Page Assist - 本地 AI 模型的 Web UI 谷歌应用商店 安装完成后将该插件固定到浏览器顶部方便使用 使用时点击图标会跳转到使用界面可以看到画面中间的“Ollama is running”因为我们的Ollama软件已启动只有启动才可正常使用 设置为中文 选择模型因为我们只配置了1.5B所以只能选择1.5B 此时即可正常使用觉得1.5B不够可以根据机器条件下载其他更高版本的模型使用