当前位置: 首页 > news >正文

环保网站建设公司哪家好wordpress图片文件夹更换

环保网站建设公司哪家好,wordpress图片文件夹更换,网站建设教程pdf,公司网站规划案例本篇文章聊聊如何低成本快速上手使用 Meta#xff08;Facebook#xff09;的开源模型 LLaMA。 写在前面 在积累点赞#xff0c;兑现朋友提供的显卡算力之前#xff0c;我们先来玩玩“小号的”大模型吧。我相信 2023 年了#xff0c;应该不需要再赘述如何使用 Docker 干净…本篇文章聊聊如何低成本快速上手使用 MetaFacebook的开源模型 LLaMA。 写在前面 在积累点赞兑现朋友提供的显卡算力之前我们先来玩玩“小号的”大模型吧。我相信 2023 年了应该不需要再赘述如何使用 Docker 干净又卫生的调用显卡来跑 AI 程序了。这个模式已经在各种互联网或企业里运行了多年啦。 本文容器方案基于 Nvidia 23.01 基础镜像PyTorch 1.14 版本CUDA 12.0目前应该是显卡性能发挥的最佳基础容器尤其是 40 系。 NVIDIA Release 23.01 (build 52269074) PyTorch Version 1.14.0a044dac51# nvcc -V nvcc: NVIDIA (R) Cuda compiler driver Copyright (c) 2005-2023 NVIDIA Corporation Built on Fri_Jan__6_16:45:21_PST_2023 Cuda compilation tools, release 12.0, V12.0.140 Build cuda_12.0.r12.0/compiler.32267302_0想要快速玩起来 LLaMA 分三步 下载模型文件使用 Docker 准备运行环境运行它开玩 我们先来进行第一步操作下载模型文件。 下载 LLaMA 模型文件 网上随处可见的下载地址就不再赘述比如官方项目的 PR #73将模型比如 7B 或者 13B 版本下载好之后整理目录结构确保目录结构和下面保持一致。 ─ models├── 7B│ ├── consolidated.00.pth│ └── params.json└── tokenizer.model当然别忘记针对你下载的模型进行完整性校验以 7B 版本模型为例 cd modles/7Becho 6efc8dab194ab59e49cd24be5574d85e consolidated.00.pth | md5sum --check - echo 7596560e011154b90eb51a1b15739763 params.json | md5sum --check -如果你下载的模型文件是完整的那么将会看的下面的输出结果 consolidated.00.pth: OK params.json: OK使用 LLaMA Docker 游乐场项目 牺牲午饭时间写了一个小小的开源项目包含官方原版和社区省显存两个方案。项目地址soulteary/llama-docker-playground 首先随便找一个合适的目录使用 git clone 或者下载 Zip 压缩包的方式把“LLaMA 游乐场”项目的代码下载到本地。 git clone https://github.com/soulteary/llama-docker-playground.git# or curl -sL -o llama.zip https://github.com/soulteary/llama-docker-playground/archive/refs/heads/main.zip然后我们使用 Docker 来基于 Nvidia 原厂最新的 PyTorch 镜像来完成基础运行环境的构建相比于我们直接从 DockerHub 拉制作好的镜像自行构建将能节约大量时间。 如果你有 20GB 以上的大显存可以考虑使用下面的命令。 docker build -t soulteary/llama:llama . -f docker/Dockerfile.llama或者你的显存没有那么大显存在 10GB 左右可以考虑使用下面的命令。 docker build -t soulteary/llama:pyllama . -f docker/Dockerfile.pyllama当我们完成了镜像构建之后就能够开始玩了。 使用 Docker 快速运行 LLaMA 模型 我们来到模型文件 models 目录所在的目录然后使用下面的命令就能够启动 LLaMA 的原版模型项目啦 docker run --gpus all --ipchost --ulimit memlock-1 -v pwd/models:/app/models -p 7860:7860 -it --rm soulteary/llama:llama如果你的显卡显存没有 20GB刚刚构建的也是 pyllama 版本的镜像那么那么可以试试使用下面的命令快速启动“优化过的”程序 docker run --gpus all --ipchost --ulimit memlock-1 -v pwd/models:/llama_data -p 7860:7860 -it --rm soulteary/llama:pyllama不论是使用哪一个镜像当我们执行命令之后程序都将自动装载模型到显存并且自动一个 Web UI 程序。执行命令后输出将类似下面这样 PyTorch NVIDIA Release 23.01 (build 52269074) PyTorch Version 1.14.0a044dac51Container image Copyright (c) 2023, NVIDIA CORPORATION AFFILIATES. All rights reserved.Copyright (c) 2014-2023 Facebook Inc. Copyright (c) 2011-2014 Idiap Research Institute (Ronan Collobert) Copyright (c) 2012-2014 Deepmind Technologies (Koray Kavukcuoglu) Copyright (c) 2011-2012 NEC Laboratories America (Koray Kavukcuoglu) Copyright (c) 2011-2013 NYU (Clement Farabet) Copyright (c) 2006-2010 NEC Laboratories America (Ronan Collobert, Leon Bottou, Iain Melvin, Jason Weston) Copyright (c) 2006 Idiap Research Institute (Samy Bengio) Copyright (c) 2001-2004 Idiap Research Institute (Ronan Collobert, Samy Bengio, Johnny Mariethoz) Copyright (c) 2015 Google Inc. Copyright (c) 2015 Yangqing Jia Copyright (c) 2013-2016 The Caffe contributors All rights reserved.Various files include modifications (c) NVIDIA CORPORATION AFFILIATES. All rights reserved.This container image and its contents are governed by the NVIDIA Deep Learning Container License. By pulling and using the container, you accept the terms and conditions of this license: https://developer.nvidia.com/ngc/nvidia-deep-learning-container-license initializing model parallel with size 1initializing ddp with size 1initializing pipeline with size 1 Loading Loaded in 5.49 seconds Running on local URL: http://0.0.0.0:7860To create a public link, set shareTrue in launch().模型运行起来之后我们通过浏览器访问容器所在机器的 IP:7860 地址就能够开始玩 LLaMA 啦。如果你是在本机运行程序直接在浏览器中访问 http://localhost:7860 就能够看到下面的界面啦。 我们在左边的文本框中输入问题点击提交按钮模型在“思考”之后就会给你“编出”它认为合适的答案。 比如我们提一个简单的问题“tell me more about zhihu”告诉我关于知乎的事情它的回答如下图 上面的回答来自原版的程序如果我们使用 pyllama 来测试结果会类似下面这样 不论哪一个看起来都不太靠谱尤其是相比 ChatGPT。并且如果想处理中文你可能还需要再接入新的模型做翻译或者接入 API。 不过我们目前使用的只是小参数量的模型也没有进行 Prompt 优化如果能够使用最大参数量的模型并且在 Prompt 上叠加一些优化最后结合一些量化模型的手段或许“便宜大碗、效果不错”的普惠大模型就有啦。 其他模型使用的显卡资源状况 很多同学关注模型到底需要多少显存才能跑起来我这里贴出我的实际测试结果。显存占用都是在程序运行过程中记录所以不会存在“数值虚低”的情况。 原版程序将消耗 21G 左右的显存。 社区 pyllama 程序将消耗 13G 左右的显存不过应该还可以继续顺着作者思路继续优化作者加油啊。 最后 在我们多数人都熟悉和使用 ChatGPT 三个月之后我们对于模型的效果的好坏的判断基本都能“一眼看出”。 但是在我们“一眼看不到”的地方可能正孕育着新的风暴并且在使用真实的“开源”的方式。 不妨侧耳倾听风暴来临前的声音。 –EOF 我们有一个小小的折腾群里面聚集了一些喜欢折腾的小伙伴。 在不发广告的情况下我们在里面会一起聊聊软硬件、HomeLab、编程上的一些问题也会在群里不定期的分享一些技术资料。 喜欢折腾的小伙伴欢迎阅读下面的内容扫码添加好友。 关于“交友”的一些建议和看法 添加好友时请备注实名和公司或学校、注明来源和目的否则不会通过审核。 关于折腾群入群的那些事 本文使用「署名 4.0 国际 (CC BY 4.0)」许可协议欢迎转载、或重新修改使用但需要注明来源。 署名 4.0 国际 (CC BY 4.0) 本文作者: 苏洋 创建时间: 2023年03月09日 统计字数: 4593字 阅读时间: 10分钟阅读 本文链接: https://soulteary.com/2023/03/09/quick-start-llama-model-created-by-meta-research.html
http://www.dnsts.com.cn/news/213273.html

相关文章:

  • 好网站建设公司哪家好?网络搭建是干什么的
  • 招商加盟类网站模板网站主题旁边的图标怎么做的
  • 网站设计流行趋势成都公司注册多少钱
  • .net简单网站开发视频教程公司起名字大全免费取名
  • 建设网站模板免费河南建设厅二建公示网站首页
  • 娄底市网站建设贵州建设工程招投标网站
  • 我想做京东网站淘宝怎么做中华设计论坛
  • 做直播网站需要多少钱没内涵网站源码
  • 湖南做网站 在线磐石网络做网站的客户资料交换qq群
  • dede织梦仿站网站建设浙江省省建设厅网站
  • 淘宝网站怎么做适配标小智logo在线设计
  • 怎么知道网站谁建的网站建设进展推进表
  • 网站建设 兼职 外包wap版网站 加app提示
  • 做我的奴隶 good网站公司注册地址跟办公地址不一致
  • 网站要怎么做才能获得市场份额国家乡村振兴局
  • 网站推广的电子邮件推广网站备案号 有效期
  • 龙华学校网站建设电子商务网站建设参考文献书籍
  • 建设网站青岛泉州 网站建设
  • 西安注册公司在哪个网站系统wordpress 论坛
  • 网站做平台反馈网站怎么做
  • 大型门户网站百度seo关键词排名优化
  • 企业网站html模板怒江州建设局网站
  • 网站开发报价ppt华夏业务员做单的网站
  • 建站后角度是不是0产品设计哪家公司好
  • 莱芜招聘的网站西安免费网站建站模板
  • 网站可以免费做吗aspx网站做app
  • 创建网站 英文威海住房和城乡建设局网站首页
  • 山西省煤矿建设协会网站杭州哪里做网站好
  • 网站模板在线演示怎么做义乌网站建设开发
  • 美橙互联网站管理后台宁波建工