济南 微网站,北京品牌网站设计,汉中北京网站建设,站长工具ip地址查询一晃年初六了#xff0c;春节长假余额马上归零了。今天下午在我的电脑上成功部署了DeepSeek-R1模型#xff0c;抽个时间和大家简单分享一下过程#xff1a;
概述
DeepSeek模型
是一家由中国知名量化私募巨头幻方量化创立的人工智能公司#xff0c;致力于开发高效、高性能…一晃年初六了春节长假余额马上归零了。今天下午在我的电脑上成功部署了DeepSeek-R1模型抽个时间和大家简单分享一下过程
概述
DeepSeek模型
是一家由中国知名量化私募巨头幻方量化创立的人工智能公司致力于开发高效、高性能的生成式 AI 模型。自2023年7月成立以来DeepSeek在短短一年多的时间里取得了显著的进展推出了多个引人注目的开源模型包括 DeepSeek Coder、DeepSeek LLM、DeepSeek-V2、DeepSeek-V3 和 DeepSeek-R1。 成立时间2023年7月17日 母公司幻方量化一家规模超过百亿的私募量化基金为DeepSeek提供了坚实的资金支持。 总部地点位于中国杭州注册地位于杭州市汇金国际大厦。 2024 年 1 月 5 日发布 DeepSeek LLM包含 670 亿参数并开源 DeepSeek LLM 7B/67B base 和 DeepSeek LLM 7B/67B chat。 2024 年 5 月 7 日发布第二代开源 MoE 模型 DeepSeek-V2总参数 2360 亿。 2024 年 6 月 17 日发布 DeepSeek-Coder-V2是开源的 MoE 代码语言模型。 2024 年 12 月 13 日发布用于高级多模态理解的专家混合视觉语言模型 DeepSeek-VL2。 2024 年 12 月 26 日DeepSeek-V3 正式发版。 2025 年 1 月 20 日发布新一代推理模型 DeepSeek-R1并开源。 2025 年 1 月 26 日DeepSeek 登顶美区 App Store 免费榜第六超越 Google Gemini 和 Microsoft Copilot 等产品。R1的预训练费用只有557.6万美元在2048块英伟达H800 GPU集群上运行55天完成仅是OpenAI GPT-4o模型训练成本的不到十分之一 2025 年 1 月 27日“现象级”崛起引发美股科技股巨震应用登顶苹果中国地区和美国地区应用商店免费APP下载排行榜在美区下载榜上超越了ChatGPT。美股三大指数集体低开纳指大跌3%标普500指数跌1.79%道指跌0.24%。 DeepSeek-R1模型 DeepSeek-R1模型有多个具体版本主要包括 DeepSeek-R1这是DeepSeek-R1系列中的核心模型具有出色的推理能力在数学、代码和自然语言推理等任务上表现出色。DeepSeek-R1-Zero这是一个拥有6710亿参数的超大模型通过大规模强化学习训练而成无需监督微调即可表现出色。然而它也面临一些挑战如无休止重复、可读性差和语言混合等。DeepSeek-R1-Distill系列这是从DeepSeek-R1中通过知识蒸馏技术提炼出的一系列小模型参数规模在15亿到700亿之间。这些模型旨在保持DeepSeek-R1的推理能力的同时降低计算和存储需求。具体来说这个系列包括1.5B、7B、8B、14B、32B以及70B等不同参数规模的小模型。 此外DeepSeek还推出了基于视觉的Janus-Pro-7B模型等其他模型但这不是DeepSeek-R1系列的直接组成部分。这些模型各具特色适用于不同的应用场景和需求。用户可以根据自己的实际需求选择合适的模型版本。 DeepSeek-R1版本差异 这些版本的性能表现各有千秋具体差异如下 DeepSeek-R1-Zero该模型通过大规模强化学习训练而成无需监督微调。它在某些任务上展现出了惊人的推理能力但也可能存在可读性差和语言混合等问题。DeepSeek-R1在DeepSeek-R1-Zero的基础上进行了改进引入了多阶段训练和冷启动数据。这使得DeepSeek-R1在保持强大推理能力的同时提高了输出的可读性和语言的一致性。它在数学、代码和自然语言推理等任务上表现出色与OpenAI的顶尖模型相比也毫不逊色。DeepSeek-R1-Distill系列这些模型是通过知识蒸馏技术从DeepSeek-R1中提炼出来的轻量级模型。它们在保持一定推理能力的同时显著降低了计算和存储需求。不同参数规模的模型适用于不同的应用场景和硬件配置。例如32B和70B版本的模型在多项基准测试中表现出色甚至超越了OpenAI o1-mini的效果。 总的来说DeepSeek-R1系列模型在性能上展现出了强大的推理能力同时提供了多种版本的模型以满足不同用户的需求。用户可以根据自己的实际需求选择合适的模型版本。 Ollama平台 Ollama是一款开源的人工智能和机器学习的工具平台特别设计用于简化大型语言模型的部署和使用流程。以下是Ollama软件的主要特点和功能 本地部署Ollama允许用户在自己的设备上部署和运行语言模型而不必完全依赖云端服务。这为用户提供了更高的数据隐私保护和更快的响应速度。跨平台支持Ollama支持macOS、Linux和Windows操作系统让用户能够在不同平台上本地运行大型语言模型。模型管理Ollama提供了便捷的模型管理功能用户可以轻松地下载、安装、更新和管理各种语言模型。此外Ollama还将模型权重、配置和数据整合在一个名为Modelfile的包中通过优化的Docker容器化技术用户只需一条命令就能在本地部署和管理LLM。易用性Ollama提供了类似于OpenAI API的简单接口用户可以快速上手并调用模型进行内容生成。同时它还包含一个类似ChatGPT的聊天界面允许用户直接与模型进行交互。灵活性除了支持预训练模型外Ollama还允许用户自定义和创建自己的模型以满足特定的应用需求。 总的来说Ollama是一个旨在促进AI民主化的工具通过简化部署和使用流程让更多人能够在个人计算机上运行复杂的大型语言模型从而推进AI技术的广泛普及和创新应用。 安装和使用
一、安装Ollama 1.访问Ollama官网下载https://ollama.com/download。 2.点击下载选择适合自己系统的版本如Windows版。 3.下载完成后进行安装按照提示一步步操作即可。安装成功后系统托盘会出现Ollama的常驻图标。
二、下载DeepSeek-R1模型 1.打开Ollama官网点击“Models”按钮。目前deepseek-r1就排在第1个有700万下载量。 2.找到DeepSeek-R1模型根据自己的硬件配置选择合适的版本如8b、14b、32b等版本越大对硬件要求越高GPU大致要求如下 没有GPU1.5B Q8推理 或者 8B Q4推理 4G GPU8B Q4推理 8G GPU32B Q4推理 或者 8B Q4推理 16G GPU32B Q4推理 或者 32B Q8推理 24G GPU: 32B Q8推理 或者 70B Q2推理 对外部存储器的要求即安装前硬盘C分区的剩余容量如下图所示 3. 安装命令 ollama run deepseek-r1:1.5b安装其它版本只要替换红色版本号
安装671b需要404G空间 别说我的C盘空间放不下再说也没有独立显卡16GB的运行内存你可对比一下以下配置只够安装和运行14b参数的那个模型大约占用9.0GB硬盘空间。 三、安装过程 Welcome to Ollama! Run your first model: ollama run llama3.2 PS C:\Windows\System32 ollama run deepseek-r1:1.5b pulling manifest pulling aabd4debf0c8... 100% ▕████████████████████████████████████████████████████████▏ 1.1 GB pulling 369ca498f347... 100% ▕████████████████████████████████████████████████████████▏ 387 B pulling 6e4c38e1172f... 100% ▕████████████████████████████████████████████████████████▏ 1.1 KB pulling f4d24e9138dd... 100% ▕████████████████████████████████████████████████████████▏ 148 B pulling a85fe2a2e58e... 100% ▕████████████████████████████████████████████████████████▏ 487 B verifying sha256 digest writing manifest success /? Available Commands: /set Set session variables /show Show model information /load model Load a session or model /save model Save your current session /clear Clear session context /bye Exit /?, /help Help for a command /? shortcuts Help for keyboard shortcuts Use to begin a multi-line message. /show Available Commands: /show info Show details for this model /show license Show model license /show modelfile Show Modelfile for this model /show parameters Show parameters for this model /show system Show system message /show template Show prompt template /show info Model architecture qwen2 parameters 1.8B context length 131072 embedding length 1536 quantization Q4_K_M Parameters stop begin▁of▁sentence stop end▁of▁sentence stop User stop Assistant License MIT License Copyright (c) 2023 DeepSeek 经实测deepseek对内存也有要求运行32b至少得22.3GB有效内存运行70b至少得45.4GB有效内存。 C:\Users\Administratorollama run deepseek-r1:1.5b /bye C:\Users\Administratorollama run deepseek-r1:32b Error: model requires more system memory (22.3 GiB) than is available (11.9 GiB) C:\Users\Administratorollama run deepseek-r1:70b Error: model requires more system memory (45.4 GiB) than is available (17.7 GiB) 安装时ollama并不检测内存是否够用无法运行就手动删除以释放占用空间 C:\Users\Administratorollama rm deepseek-r1:70b deleted deepseek-r1:70b C:\Users\Administratorollama rm deepseek-r1:32b deleted deepseek-r1:32b C:\Users\Administratorollama rm deepseek-r1:16b Error: model deepseek-r1:16b not found 四、使用过程
随便问了几个问题 123...100
think/think当然可以这个问题是一个经典的等差数列求和问题。等差数列的求和公式是\[ S \frac{n(a_1 a_n)}{2} \]其中
- \( n \) 是项数
- \( a_1 \) 是首项
- \( a_n \) 是末项在这个问题中\( a_1 1 \)\( a_n 100 \)而项数 \( n 100 \)。代入公式\[ S \frac{100(1 100)}{2} \frac{100 \times 101}{2} \frac{10100}{2} 5050 \]所以\( 1 2 3 \ldots 100 5050 \)。 用python写一个计算pi精确到小数点后20位的程序
think
嗯用户想要我写一个Python程序来计算π的小数点后20位的值。让我先想想这应该怎么做到呢首先我知道π是一个无限不循环的小数手动计算起来比较麻烦。不过用户只要求精确到小数点后20位或许可以使用一些数学公
式或算法来快速逼近这个数值。我想到的是利用莱布尼兹公式也就是π 4*(1 - 1/3 1/5 - 1/7 ...)。虽然收敛速度比较慢但或许可以用很多项之后就能
得到足够的精度了。但是20位的计算量有点大需要足够多的项数。不过用户可能希望的是一个简单易懂且快速计算的方法而不是复杂的算法。因此我考虑使用更高效的公式比如高斯-勒让德算
法或者蒙特卡洛方法。但蒙特卡洛方法可能比较复杂不适用于这个任务。再想想有没有更简便的方法或许可以利用计算器或者预计算π的小数部分并截断到20位。不过用户似乎需要一个自定义的
Python程序来实现这一点所以我只能自己设计代码。好我决定使用莱布尼兹公式因为它简单且容易实现。接下来我会编写一个循环逐项计算并累加到结果中直到达到足够准确
的小数点后20位。在编码时需要注意的是精度的问题因为每增加一项误差会减小但需要控制好误差的范围以确保最后的结果是正确的。同时
也需要避免数据溢出或者计算错误。让我开始写代码吧
/think好的以下是一个使用莱布尼兹公式来计算π的小数点后20位的Python程序python
n 1000000 # 运行足够多的项以达到足够的精度
pi 0.0
sign 1 # 符号交替变化开始为正for i in range(1, n*2, 2):term sign * (4 / (2*i - 1))pi termsign * -1# 截断误差到小数点后20位
pi round(pi, 20)print(fπ ≈ {pi:.20f})
### 代码解释
1. **初始化变量**n 表示运行项的数量默认值为1,000,000pi 是结果初始值为0sign 是符号交替变化的标志。
2. **循环计算**使用 range(1, n*2, 2) 循环变量从1到2n-1步长为2。每次迭代时- 计算项的值 term sign * (4 / (2*i - 1))- 将 term 加到 pi 中- 更新符号 sign * -1
3. **截断误差**使用 round(pi, 20) 截断结果为小数点后20位。
4. **输出结果**打印出计算结果。### 输出结果π ≈ 3.14159265358979323846
这个程序使用了莱布尼兹公式每增加一项误差会减小。通过运行足够多的项如1,000,000可以得到π的小数点后20位的结
果。如果你希望使用更高效的方法或不同的算法我可以提供其他建议 其它方法呢
think好的以下是一个使用蒙特卡洛方法来计算π的小数点后20位的Python程序python
import randomdef estimate_pi(n):# n是总样本数量inside 0for _ in range(n):x random.uniform(0, 1)y random.uniform(0, 1)if x**2 y**2 1:inside 1pi 4 * (inside / n)return pi# 设定样本数量足够大以提高精度
n 10**6
pi estimate_pi(n)print(fπ ≈ {pi:.20f})
### 代码解释
1. **初始化函数**estimate_pi(n) 函数计算估计值。
2. **生成随机数**每次运行时使用 random.uniform(0, 1) 生成两个均匀分布在[0,1]之间的随机数 x 和 y。
3. **检查点是否在单位圆内**如果 x^2 y^2 1则计数器 inside 增加1。
4. **计算π值**使用 π 4 * (inside / n) 计算结果并返回。### 输出结果
python
π ≈ 3.14159265358979323846
这个方法通过蒙特卡洛模拟随机采样来估计π的值需要较大的样本数量如百万次才能得到足够精确的结果。 先简单玩到这里以后有新玩法再作补充。