当前位置: 首页 > news >正文

网站空间和域名绑定wordpress目录顺序

网站空间和域名绑定,wordpress目录顺序,友情链接交换,WordPress小工具可以做什么在《Win10本地部署大语言模型ChatGLM2-6B-CSDN博客》基础上进行#xff0c;官方文档在这里#xff0c;参考了这篇文章 首先确保ChatGLM2-6B下的有ptuning AdvertiseGen下载地址1#xff0c;地址2#xff0c;文件中数据留几行 模型文件下载地址 #xff08;注意#xff1…在《Win10本地部署大语言模型ChatGLM2-6B-CSDN博客》基础上进行官方文档在这里参考了这篇文章 首先确保ChatGLM2-6B下的有ptuning AdvertiseGen下载地址1地址2文件中数据留几行 模型文件下载地址 注意ChatGLM2-6B对话用到的的模型文件不能简单的用到这里bin文件可以复用但其他文件一定要重新下载否则要报一些错) anaconda prompt中运行进行虚拟环境 cd /d D:\openai.wiki\ChatGLM2-6B conda activate D:\openai.wiki\ChatGLM2-6B\ENV 运行微调除 ChatGLM2-6B 的依赖之外还需要安装以下依赖 pip install rouge_chinese nltk jieba datasets 先了解一下train.sh(仅在Linux中使用)里面各行的意义 PRE_SEQ_LEN128 # soft prompt 长度 LR2e-2 # 训练学习率 NUM_GPUS2 # GPU卡的数量torchrun --standalone --nnodes1 --nproc-per-node$NUM_GPUS main.py \--do_train \ # 执行训练功能还可以执行评估功能--train_file AdvertiseGen/train.json \ # 训练文件目录--validation_file AdvertiseGen/fval.json \ # 验证文件目录--prompt_column content \ # 训练集中prompt提示名称对应训练文件测试文件的content--response_column summary \ # 训练集中答案名称对应训练文件测试文件的summary--overwrite_cache \ # 缓存重复训练一次的时候可删除--model_name_or_path THUDM/chatglm-6b \ # 加载模型文件目录也可修改为本地模型的路径--output_dir output/adgen-chatglm-6b-pt-$PRE_SEQ_LEN-$LR \ # 保存训练模型文件目录--overwrite_output_dir \ # 覆盖训练文件目录--max_source_length 64 \ # 最大输入文本的长度--max_target_length 128 \--per_device_train_batch_size 1 \ # batch_size 训练批次根据显存调节--per_device_eval_batch_size 1 \ # 验证批次--gradient_accumulation_steps 16 \ # 梯度累加的步数--predict_with_generate \--max_steps 3000 \ # 最大训练模型的步数--logging_steps 10 \ # 多少步打印日志一次--save_steps 1000 \ # 多少步保存模型一次--learning_rate $LR \ # 学习率--pre_seq_len $PRE_SEQ_LEN \--quantization_bit 4 # 量化也可修改为int8Windows下用以下的train.bat 因我的电脑显存只有8G故将per_device_train_batch_size改为8 去掉--quantization_bit 4 set PRE_SEQ_LEN128 set LR1e-4python main.py ^--do_train ^--train_file AdvertiseGen/train.json ^--validation_file AdvertiseGen/dev.json ^--preprocessing_num_workers 10 ^--prompt_column content ^--response_column summary ^--overwrite_cache ^--model_name_or_path D:\\openai.wiki\\ChatGLM2-6B\\ptuning\\THUDM\\chatglm2-6b ^--output_dir D:/openai.wiki/ChatGLM2-6B/ptuning/output ^--overwrite_output_dir ^--max_source_length 64 ^--max_target_length 128 ^--per_device_train_batch_size 8 ^# batch_size 训练批次根据显存调节--per_device_eval_batch_size 1 ^--gradient_accumulation_steps 16 ^--predict_with_generate ^--max_steps 3000 ^--logging_steps 10 ^--save_steps 1000 ^--learning_rate %LR% ^--pre_seq_len %PRE_SEQ_LEN% 进入ptuning文件夹 cd ptuning 运行train.bat即可开始训练有问题的话继续往后看 train.bat 可能遇到的几个问题 问题一 TypeError: JsonConfig.init() got an unexpected keyword argument use_auth_token’ 解决方式 pip uninstall datasets pip install datasets2.21.0 问题二 name ‘round_up‘ is not defined 解决方式 将train.bat中的–quantization_bit 4删除 或者pip install cpm_kernels 问题三 AttributeError: ‘ChatGLMModel‘ object has no attribute ‘prefix_encoder‘ 解决方式 https://huggingface.co/THUDM/chatglm2-6b/tree/main 下载除bin文件以外的最新文件
http://www.dnsts.com.cn/news/54520.html

相关文章:

  • 好的龙岗网站建设商城手机网站设计
  • 做网站与不做网站的区别武进网站建设平台
  • 做动漫网站侵权吗怎么制作一个网站教程
  • 建设网站采用的网络技术电商网站建设与管理 教案
  • 大连网站推广公司曹妃甸建设局网站
  • 玉田县建设工程招标网站四川建设网官
  • 做网站建设哪家效益快多产品的网站怎么做seo
  • 购物网站的后台建立个人网站费用
  • 网站运营刚做时的工作内容天津市津南区教育网站建设招标
  • 企业seo网站营销推广百度搜索软件
  • 六安网站建设价格网站制作导航超链接怎么做
  • 域名注册网站查询solaris+wordpress主题
  • 云南 网站建设wordpress网站上传服务器
  • 用股票代码做网站的国外的有名的网站
  • 京东网站建设的详细策划做的比较早的海淘网站
  • 卧龙区2015网站建设口碑网站 目录访问
  • 怎么做网站子页视频网站如何做推广
  • 网站seo外链怎么做交互设计个人网站
  • 哪些网站可以赚钱科技侠智能锁
  • 网站 工作室 建设 方案销售网站
  • 白银市建设局网站wordpress图片自动存储
  • 建设工程施工合同在哪个网站纪念册设计制作公司
  • 家政服家政服务网站模板东莞58同城网招聘
  • 软件开发平台下载seo网站推广 杭州
  • 网站建设与管理属于什么专业张家口网站建设开发
  • 专门做视频的网站登录到wordpress后台
  • 自己建网站需要钱吗皮肤科医生免费问诊
  • 专业网站建设哪家效果好vs2013 手机网站开发
  • 网站建设销售销售流程wordpress 数据库索引
  • 网站推广视频的服务方案乐清定制网站建设