当前位置: 首页 > news >正文

淄博网站制作哪家好浙江温州乐清

淄博网站制作哪家好,浙江温州乐清,logo设计一键生成,保定网站建设服务平台简介 ChatGLM2-6B 是清华大学开源的一款支持中英双语的对话语言模型。经过了 1.4T 中英标识符的预训练与人类偏好对齐训练#xff0c;具有62 亿参数的 ChatGLM2-6B 已经能生成相当符合人类偏好的回答。结合模型量化技术#xff0c;用户可以在消费级的显卡上进行本地部署具有62 亿参数的 ChatGLM2-6B 已经能生成相当符合人类偏好的回答。结合模型量化技术用户可以在消费级的显卡上进行本地部署INT4 量化级别下最低只需 6GB 显存。 准备工作 安装wget 删除自带的wget: yum remove wget重新安装wget: yum -y install wget检测wget版本: rpm -qa | grep wget 若出现以下则成功。 [rootlocalhost ~]# rpm -qa | grep wget wget-1.14-18.el7_6.1.x86_64安装ANACONDA 官网下载页面: https://www.anaconda.com/download#downloadsLinux64位下载: wget https://repo.anaconda.com/archive/Anaconda3-2023.09-0-Linux-x86_64.sh安装: sh Anaconda3-2023.09-0-Linux-x86_64.sh会出现很多信息一路yes下去观看文档用q跳过查看版本验证是否安装成功: conda -V (base) [rootlocalhost ~]# conda -V conda 23.7.4安装pytorch 前往pytorch官网: https://pytorch.org/选择StableLinuxCondaPythonCPU执行给出的指令: conda install pytorch torchvision torchaudio cpuonly -c pytorch 创建虚拟Python环境 conda创建虚拟环境: conda create --name ChatGLM2 python3.10.6 -y –name 后面ChatGLM2为创建的虚拟环境名称python之后输入自己想要的python版本-y表示后面的请求全部为yes这样就不用自己每次手动输入yes了。 激活虚拟环境: conda activate ChatGLM2 大语言模型ChatGLM2-6B安装 源码/文档: https://github.com/THUDM/ChatGLM2-6B下载源码: git clone https://github.com/THUDM/ChatGLM2-6B创建ChatGLM2项目的虚拟环境: python -m venv venv激活虚拟环境venv: source ./venv/bin/activate安装依赖(豆瓣源): pip install -r requirements.txt -i https://pypi.douban.com/simple 参数-r 是read的意思可以把要安装的文件统一写在一个txt中批量下载参数-i 后面是下载的网址这里使用的是豆瓣源,下载安装大概十几分钟清华大学源: pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple --trusted-host pypi.tuna.tsinghua.edu.cn阿里云源: pip install -r requirements.txt -i http://mirrors.aliyun.com/pypi/simple/ --trusted-host mirrors.aliyun.com 也可以离线安装 pip install -r requirements.txt -i http://mirrors.aliyun.com/pypi/simple/ --trusted-host mirrors.aliyun.com pip install -r requirements.txt --no-index --find-links/home/ChatGLM2/chatglm2-dependence安装依赖: pip install gradio -i https://pypi.douban.com/simple 从Hugging Face Hub下载模型实现和参数文件 在上面的ChatGLM2-6B目录下新建THUDM文件夹在THUDM文件夹下新建chatglm2-6b文件夹和chatglm2-6b-int4文件夹下载模型实现和参数文件: git clone https://huggingface.co/THUDM/chatglm2-6b也可以仅下载模型实现: GIT_LFS_SKIP_SMUDGE1 git clone https://huggingface.co/THUDM/chatglm2-6b然后从清华大学下载模型参数文件: https://cloud.tsinghua.edu.cn/d/674208019e314311ab5c/?p%2Fmodelist把下载后的所有文件放到上面新建的chatglm2-6b文件夹如果需要使用量化模型和参数chatglm2-6b-int4的模型和参数文件地址: https://huggingface.co/THUDM/chatglm2-6b-int4下载方式与chatglm2-6b一样 国内无法访问huggingface.co可以让国外的朋友帮忙下载可以从这里下载模型实现然后从清华大学下载参数文件 修改启动脚本 如果使用有chatglm2-6b-int4需要修改cli_demo.py、api.py、web_demo.py、web_demo2.py # 修改前 tokenizer AutoTokenizer.from_pretrained(THUDM/chatglm2-6b, trust_remote_codeTrue) model AutoModel.from_pretrained(THUDM/chatglm2-6b, trust_remote_codeTrue).cuda()# 修改后 tokenizer AutoTokenizer.from_pretrained(THUDM/chatglm2-6b-int4, trust_remote_codeTrue) # GPU用cuda()CPU用float() model AutoModel.from_pretrained(THUDM/chatglm2-6b-int4, trust_remote_codeTrue).float()修改 web_demo.py文件 除了需要按上面修改还需要在最后一行将demo.queue().lanuch函数改为如下 demo.queue().launch(shareTrue, inbrowserTrue, server_name 0.0.0.0)在predict函数中第二句话改为 for response, history in model.stream_chat ( tokenizer ,input ,history,past_key_valuespast_key_values, return_past_key_valuesFalse, max_lengthmax_length, top_ptop_p, temperaturetemperature)启动 启动基于 Gradio 的网页版 demo: python web_demo.py启动基于 Streamlit 的网页版 demo: streamlit run web_demo2.py网页版 demo 会运行一个 Web Server并输出地址。在浏览器中打开输出的地址即可使用。 经测试基于 Streamlit 的网页版 Demo 会更流畅。命令行 Demo: python cli_demo.py API部署 安装额外的依赖: pip install fastapi uvicorn -i http://mirrors.aliyun.com/pypi/simple/ --trusted-host mirrors.aliyun.com运行: python api.py通过 POST 方法进行调用: curl -X POST http://192.168.3.109:8000 -H Content-Type: application/json -d {\prompt\: \你好\, \history\: []}得到的返回值为 {response:你好我是人工智能助手 ChatGLM2-6B很高兴见到你欢迎问我任何问题。,history:[[你好,你好我是人工智能助手 ChatGLM2-6B很高兴见到你欢迎问我任何问题。]],status:200,time:2023-10-18 14:26:48}可视化交互界面 协议 本仓库的代码依照 Apache-2.0 协议开源ChatGLM2-6B 模型的权重的使用则需要遵循 Model License。ChatGLM2-6B 权重对学术研究完全开放在填写问卷进行登记后亦允许免费商业使用。 总结 如果机器的内存资源不多命令行交互模式、可视化模式、API模式通常只能运行一种再启动另外一个脚本时会导致前一个启动的进行被killedChatGLM2在多个中文数据集上测试结果优于GPT比上代版本ChatGLM1有较大改善受限于训练数据和资源从实际效果看推理对话内容仍比较简单本次部署在云端的CPU推理过程需要几分钟甚至十几分钟不过重在体验看下效果。有兴趣的话使用GPU能够较大程度提高反应速度几秒就能给出答案。
http://www.dnsts.com.cn/news/72253.html

相关文章:

  • 做有网被视频网站吗楼宇网站建设
  • 网站底部悬浮代码wordpress南京网站制作西安
  • 长沙专业网站建设公司哪家好最新企业网站系统
  • 电子产品网站建设策划书做网站600
  • 昆山网站建设哪家便宜网站建设盒子模型浮动
  • 沈阳网站建设syxhrkj软件开发文档模板及实例
  • 西安做网站选哪家公司丽江网站建设公司
  • p2f网站系统网站里的动画效果
  • 爱站网 关键词挖掘工具站怎样建设一个英语网站
  • 小说网站怎么建设的网站申请名称和域名
  • 辽阳专业网站开发公司手机网站返回跳转
  • wordpress建手机网站吗系统开发费用计入什么科目
  • dedecms学校网站模板wordpress 婚纱摄影
  • 网站开发培训广西本地怎样上传自己做的网站
  • 支付公司网站建设会计分录网站别人给我做的备案 我能更改吗
  • 专门做家教的网站长春百度搜索排名优化
  • 网站模板 瀑布流如何建立一个网站卖东西
  • 网站引导页案例手机网站网站建设
  • 网站建设先进个人代表发言收费网站怎么建立
  • 德阳住房和城乡建设局网站深圳市坪山区
  • 网站公司logo设计化妆品网站设计论文
  • 海外永久网站深圳网站的网络公司
  • 网站建设的结尾百度做网站的公司
  • 老铁推荐个2021网站好吗提供注册公司地址
  • phpcms v9网站性能优化网站开发 微信 支付
  • 个人怎样建立网站进入淘宝网官网首页 淘宝
  • wordpress会员vip购买扩展金华seo建站
  • 深圳微信网站公司wordpress首页非常慢
  • 西安找工作哪个网站好附近做广告牌的电话
  • 17zwd一起做网站广州网站wordpress是什么