当前位置: 首页 > news >正文

服务好的南昌网站设计sketch代替ps做网站

服务好的南昌网站设计,sketch代替ps做网站,物流网络是指什么,上海建设厅焊工证查询网站一、背景 Ollama我们可以很方便的对DeepSeek等开源大模型进行部署#xff0c;几条命令便能部署一个本地大模型服务#xff0c;降低了非专业大模型开发者的门槛。 我们从中可以看到类似Docker的影子#xff0c;ollama run 、ollama list等等#xff0c;拉取对应大模型镜像几条命令便能部署一个本地大模型服务降低了非专业大模型开发者的门槛。 我们从中可以看到类似Docker的影子ollama run 、ollama list等等拉取对应大模型镜像通过镜像运行大模型容器并且还提供管理这些大模型容器的API接口方便我们进行大模型对话、停止容器、运行容器、重启容器等等。 那我们来看下Ollama到底是怎么将大模型运行起来的?是底层使用Docker做了一层嵌套包装呢? Ollama的大模型镜像怎么制作? Modelfile和Dockerfile相似之处等神秘面纱 二、分析过程 1、Ollama是开源项目 首先我们知道Ollama是开源项目,项目地址在github进行开源: 开源地址 https://github.com/ollama/ollama 开源意味着代码都是公之于众的那么神秘面纱自然也不是过于神秘我们可以通过源代码去分析整个实现原理 2、项目使用Go语言实现 进入Ollama的开源仓库我们发现原来Ollama这个项目整体是使用Go语言进行开发实现的。docker、k8s这些云原生的组件很多都使用Go进行开发 因为其易并发编程、资源低消耗、轻量级、跨平台性好深受广大开发者喜爱。 Ollama自然选中了Go 3、llama.cpp项目 我们假设没有使用Ollama运行大模型。那么直接原生运行大模型该怎么办?  这就不得不提到llama.cpp这个项目. 项目地址: https://github.com/ggml-org/llama.cpp lama.cpp 项目主要解决了在本地设备尤其是资源受限的设备上高效运行 Llama 模型的问题具体体现在以下几个方面 设备端推理Llama 是 Meta 公司开发的大型语言模型原始的 Llama 模型运行需要强大的计算资源如 GPU 集群等。而 llama.cpp 项目通过优化代码实现使得 Llama 模型可以在普通的 CPU 设备上如个人电脑、移动设备等运行。这对于那些无法访问大规模计算资源的用户或场景如没有 GPU 支持的个人电脑、边缘设备等非常有帮助使得用户可以在本地设备上进行模型推理而不需要依赖云端服务增强了模型使用的灵活性和隐私性。降低计算资源需求该项目对 Llama 模型的计算过程进行了优化减少了内存占用和计算量。通过采用量化技术如将模型参数从高精度数据类型转换为低精度数据类型在一定程度上牺牲模型的精度来换取计算资源的大幅降低从而能够在资源有限的设备上顺利运行模型。例如在一些内存较小的设备上也能够加载和运行 Llama 模型的较小版本。促进模型的研究和应用llama.cpp 使得更多的研究人员和开发者能够在本地方便地对 Llama 模型进行研究、实验和应用开发。它为自然语言处理领域的研究提供了一个更易于访问和使用的平台加速了相关研究的进展。同时也为一些基于 Llama 模型的应用开发提供了可能如本地的文本生成工具、智能助手等促进了语言模型在不同领域的应用和创新。提升模型的可定制性由于是在本地运行开发者可以根据自己的需求对模型进行定制和修改如调整模型的参数、添加特定的功能模块等。这种可定制性使得 llama.cpp 能够更好地满足不同用户和应用场景的需求而不像使用云端服务那样受到一定的限制。 llama.cpp可以友好的对GGUF大模型文件格式进行运行只需要提供GGUF文件一条命令就能将这个模型运行起来。  同时llama.cpp提供了c的SDK库c可以通过llama.cpp的API就能操作大模型。 4、llama.cpp运行大模型过程 1、Hugging Face下载对应大模型的GGUF文件 国内镜像地址: https://hf-mirror.com/ https://hf-mirror.com/unsloth/DeepSeek-R1-Distill-Qwen-1.5B-GGUF/tree/main 我下载了一个DeepSeek最小模型1.5b做本地测试 2、docker运行llama.cpp容器进入容器启动大模型 docker-compose.yml文件: version: 3 services:llama:image: yusiwen/llama.cppvolumes:- ./models/:/models/entrypoint: [tail, -f, /dev/null] modes目录存放模型文件: DeepSeek-R1-Distill-Qwen-1.5B-Q2_K.gguf docker-compose up -d #运行容器#进入容器执行, 就可以进行模型对话 docker-compose exec llama bash./llama-cli -m /models/DeepSeek-R1-Distill-Qwen-1.5B-Q2_K.gguf 5、Ollama和llama的关系 Ollama 在 llama.cpp 的基础上进行了更高层次的封装和功能拓展以下是具体说明 llama.cpp 是基础llama.cpp 是一个用 C/C 实现的推理框架用于加载和运行 LLaMA 等大型语言模型13。它为在各种硬件平台上高效运行大模型提供了底层支持实现了量化等功能以降低模型运行对资源的需求让 LLaMA 模型能在如个人电脑 CPU 甚至手机、树莓派等设备上运行3。比如在谷歌 Pixel5 手机上能以 1token/s 的速度运行 7B 参数模型在 M2 芯片的 Macbook Pro 上使用 7B 参数模型的速度约为 16token/s3。Ollama 基于 llama.cpp 拓展Ollama 利用了 llama.cpp 提供的底层能力如量化等。但它不是对 llama.cpp 的简单复用而是在此基础上进行了功能的拓展和封装提供了更友好的用户界面和更便捷的操作方式13。比如用户使用 llama.cpp 时需要获取模型权重、克隆项目代码、执行模型量化等一系列复杂操作而 Ollama 简化了这些流程通过简单的安装指令和命令就能让用户在本地快速运行开源大型语言模型。此外Ollama 还提供了类似 OpenAI 的 API 接口和聊天界面方便用户使用不同模型并且具备模型库管理系统1。 通过Ollama的源代码我们发现其实创建运行大模型Ollama使用Go语言CGO调用了llama.cpp的C库从而实现运行大模型.  可以看到代码CGO的影子.      所以底层运行的机制是靠llama.cpp作为底层运行大模型的支撑. 6、Docker的理念加持 Ollama参考了Docker的理念将大模型文件和所需配置信息等也进行了封装为镜像的概念镜像便于分发同时降低了开发者运行的门槛只需要拉取对应大模型镜像使用ollama run一键就能启动大模型服务。 Ollama的镜像文件本质就是一个特殊的压缩包压缩包里包含了GGUF大模型文件、一些配置参数文件.  构建自己的Ollama镜像使用Modelfile的方式进行构建整个语法有点参照Dockerfile.以下是构建一个自定义Model镜像的Modelfile: # 基础模型 FROM deepseek:1.5b# 自定义模型的名称和描述 NAME my_custom_deepseek DESCRIPTION A custom model based on deepseek:1.5b with custom data# 自定义数据的路径这里假设自定义数据文件在当前目录下 PARAMETER file ./custom_data.txt# 可以根据需要调整的其他参数 PARAMETER num_train_epochs 3 PARAMETER learning_rate 2e-5 PARAMETER per_device_train_batch_size 4 FROM 指令指定基础模型这里使用 deepseek:1.5b 作为基础后续的微调操作将基于这个模型进行。NAME 指令为自定义模型指定一个名称这里命名为 my_custom_deepseek方便后续引用和管理。DESCRIPTION 指令对自定义模型进行简要描述说明该模型是基于 deepseek:1.5b 并加入了自定义数据。PARAMETER 指令 file指定自定义数据文件的路径你需要将实际的自定义数据文件路径替换为 ./custom_data.txt。num_train_epochs指定训练的轮数这里设置为 3 轮你可以根据实际情况调整。learning_rate学习率控制模型在训练过程中参数更新的步长这里设置为 2e-5也是一个常见的取值可根据效果调整。per_device_train_batch_size每个设备如 GPU上的训练批次大小这里设置为 4你可以根据设备的内存情况进行调整 构建build Model镜像命令: ollama create my_custom_deepseek -f Modelfile 运行镜像: ollama run my_custom_deepseek Ollama只是参考借鉴了Docker的思想但是底层并没有关于容器的相关使用。  7、透过现象看本质 1、Ollama的本质就是使用Go作为编程语言构建HTTP服务提供API接口对内部的Ollama镜像、Ollama运行大模型容器进行管理 内部使用CGO调用llama.cpp的能力来运行大模型. 降低了我们从零开始部署大模型的门槛。 底层运行还是依赖llama.cpp只是应用层使用Go包了一层让我们更方便、快捷的管理和运行大模型. 2、Ollama上面提供的镜像要么是大模型的维护者要么是一些开发者、官方维护者首先去对应官网渠道、Hugging Face获取GGUF文件或者其他大模型格式文件 通过编写Modelfile的构建镜像最后在Ollama进行发布。 用户拉取镜像进行运行即可。 三、总结 知其然也要知其所以然, Ollama第一次使用我就很疑惑是不是底层套了一层docker容器化技术然后再结合大模型做的包装。 后来经过分析确实和容器没太大关系就是思想做了一些借鉴。 并且从分析过程中知道了,GGUF大模型文件的运行依靠的是llama.cpp底层进行支撑运行那就意味着性能其实不差毕竟是c底层来支撑的之前以为是使用python sdk之类的来运行的。
http://www.dnsts.com.cn/news/111114.html

相关文章:

  • 怎么在自己电脑上做网站怎样在国外网站上做宣传
  • 网站正在建设中模板下载织梦模板网站
  • 网站建设的目的及功能定位是啥网站跳转代码 html
  • 网站建设管理员阿里云新增网站
  • 优秀网站的链接网站建设小程序定制开发
  • 百度网站排名优化价格东莞哪家网站建设好
  • 兰州市官网北京搜索引擎关键词优化
  • 手机客户端app下载成都网站建设优化公司
  • 怎么套用模板做网站wordpress admin改名
  • 无线设置网站如何分享自己的wordpress
  • 山东建设监理协会网站无法登录wordpress建站需要多久
  • 用vue-cli做的网站国内网站在国外访问很慢
  • 迅速提高网站排名餐饮装修公司
  • 家装设计效果图网站商城网站开发制作
  • phthon网站开发网站建设的思想
  • erp二次开发好还是网站开发好上传wordpress网站
  • 箱包 东莞网站建设宠物网站开发
  • 网站过期了怎么办wordpress在本地运行很慢
  • 铭做网站建设html网页制作案例
  • 企业网站建设知乎企业服务网站建设方案
  • 查询公司的网站备案官网的建站过程
  • 哪个网站有天天做股市直播的网站模板简易修改
  • 杭州做网站多少钱网络公司企业网站源码
  • 8图片这样的网站怎么做网站等保测评怎么做
  • 欣宝儿在什么网站做直播wordpress模板制作教程下载
  • 网站改版效果图怎么做建设个人网站赚钱的经历
  • 厦门seo网站建设费用app网站建设软件
  • 网络网站制作湛江建设局网站
  • 小说网站的会员充值是怎么做的玉树营销网站建设多少钱
  • 建设银行网站诚聘英才酷虎云建站工具