当前位置: 首页 > news >正文

洮南住建局网站施工企业税收筹划

洮南住建局网站,施工企业税收筹划,网页结构有哪几种,电商平台排名100强使用一个大语言模型对另一个大语言模型进行“调教”#xff08;通常称为微调或适配#xff09;#xff0c;是一种常见的技术手段#xff0c;用于让目标模型更好地适应特定的任务、领域或风格。以下是基于搜索结果整理的详细步骤和方法#xff1a; 1.准备工作 安装必要的…使用一个大语言模型对另一个大语言模型进行“调教”通常称为微调或适配是一种常见的技术手段用于让目标模型更好地适应特定的任务、领域或风格。以下是基于搜索结果整理的详细步骤和方法 1.准备工作 安装必要的库 • Transformers用于加载和训练模型。 • Datasets用于处理数据集。 • PEFT用于微调特别是LoRALow-Rank Adaptation等技术。 • Accelerate用于优化训练过程。 • ModelScope用于下载和加载模型国内用户。 • SwanLab用于可视化训练过程。 pip install transformers datasets peft accelerate modelscope swanlab2.数据准备 下载数据集 使用datasets库下载或加载数据集。如果数据集较大或需要本地存储可以手动下载并加载。 from datasets import load_dataset# 如果数据集在 Hugging Face 上 dataset load_dataset(your_dataset_name, splittrain)# 如果数据集在本地 dataset load_dataset(json, data_filespath/to/your/dataset.json, splittrain)数据预处理 将数据集转换为适合模型输入的格式。通常需要对文本进行分词并将标签转换为模型可理解的格式。 from transformers import AutoTokenizertokenizer AutoTokenizer.from_pretrained(base_model_name) MAX_LENGTH 512 # 根据显存调整def preprocess_function(examples):inputs tokenizer(examples[text], truncationTrue, max_lengthMAX_LENGTH)labels tokenizer(examples[label], truncationTrue, max_lengthMAX_LENGTH)return {input_ids: inputs[input_ids],attention_mask: inputs[attention_mask],labels: labels[input_ids]}tokenized_dataset dataset.map(preprocess_function, batchedTrue)3.模型准备 下载并加载基础模型 使用transformers库加载基础模型。如果使用国内模型可以通过ModelScope下载。 from transformers import AutoModelForCausalLM, AutoTokenizerbase_model base_model_name # 替换为实际模型名称 tokenizer AutoTokenizer.from_pretrained(base_model) model AutoModelForCausalLM.from_pretrained(base_model)设置量化配置 如果需要在低显存设备上运行可以对模型进行量化。 from transformers import BitsAndBytesConfigquant_config BitsAndBytesConfig(load_in_4bitTrue,bnb_4bit_quant_typenf4,bnb_4bit_compute_dtypetorch.float16,bnb_4bit_use_double_quantFalse, ) model AutoModelForCausalLM.from_pretrained(base_model, quantization_configquant_config)应用LoRA配置 LoRA 是一种高效的微调方法适用于大模型。 from peft import LoraConfig, TaskType, get_peft_modellora_config LoraConfig(task_typeTaskType.CAUSAL_LM,target_modules[q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj],inference_modeFalse,r8, # LoRA 的秩lora_alpha32,lora_dropout0.1 ) model get_peft_model(model, lora_config)4.训练模型 设置训练参数 使用transformers的TrainingArguments设置训练参数。 from transformers import TrainingArgumentstraining_args TrainingArguments(output_dir./results,num_train_epochs3,per_device_train_batch_size4,gradient_accumulation_steps4,learning_rate2e-4,save_steps500,logging_steps500,evaluation_strategysteps,eval_steps500,save_total_limit2,load_best_model_at_endTrue,metric_for_best_modelaccuracy,greater_is_betterTrue,save_on_each_nodeTrue,bf16True, # 如果使用 Ampere 架构以下的显卡可以使用 fp16 )创建训练器 使用transformers的Trainer或SFTTrainer进行训练。 from transformers import Trainertrainer Trainer(modelmodel,argstraining_args,train_datasettokenized_dataset,tokenizertokenizer, ) trainer.train()5.保存和加载模型 保存模型 训练完成后保存模型和分词器。 model.save_pretrained(path/to/save/model) tokenizer.save_pretrained(path/to/save/tokenizer)加载模型 加载保存的模型进行推理。 from transformers import AutoModelForCausalLM, AutoTokenizermodel AutoModelForCausalLM.from_pretrained(path/to/save/model) tokenizer AutoTokenizer.from_pretrained(path/to/save/tokenizer)# 进行推理 prompt Who is Leonardo Da Vinci? input_ids tokenizer(prompt, return_tensorspt).input_ids output model.generate(input_ids) print(tokenizer.decode(output[0], skip_special_tokensTrue))6.使用 LangChain 进行 Prompt 工程 如果需要进一步优化模型的输出可以使用 LangChain 框架进行 Prompt 工程。通过设计合适的提示词模板和输入输出接口可以显著提升模型的性能。 from langchain.prompts import PromptTemplate from langchain.llms import LLM# 创建提示词模板 template 你是一个专业的{domain}专家回答以下问题 {question}prompt PromptTemplate(input_variables[domain, question], templatetemplate)# 使用模型进行推理 llm LLM(modelmodel, tokenizertokenizer) response llm(prompt.format(domain历史, question谁是达芬奇)) print(response)7.可视化训练过程 使用 SwanLab 记录训练过程并可视化。 from swanlab.integration.huggingface import SwanLabCallbacktrainer Trainer(modelmodel,argstraining_args,train_datasettokenized_dataset,tokenizertokenizer,callbacks[SwanLabCallback()], ) trainer.train()总结 通过上述步骤你可以使用一个大语言模型对另一个大语言模型进行微调使其更好地适应特定的任务或领域。微调的关键在于数据准备、模型选择、量化配置、LoRA 应用以及训练参数的设置。此外LangChain 框架可以进一步优化模型的输出提升其在实际应用中的表现。
http://www.dnsts.com.cn/news/152679.html

相关文章:

  • 是网站建设专业好亚马逊跨境电商介绍
  • 网站建设中涉及到的编程语言企业内部网站打不开
  • 网络规划与设计论文网站配置优化
  • 小当网 绵阳网站建设烟台做公司网站
  • 济源建网站个人网站设计介绍文字
  • 深圳 高端网站建设宝安申请百度收录网址
  • 莆田社交网站什么专业可以做网站
  • 苏州营销网站建设公司哪家好网站群 seo
  • 南阳企业网站推广方法wordpress 底部音乐播放器插件
  • 中国做本地服务好的网站深圳的seo网站排名优化
  • wordpress 导入mdseo网站首页推广
  • 麒麟网站建设闵行网页设计
  • 建网站如果不买域名别人能不能访问wordpress 数据包
  • 建设99网站珠海app制作
  • 在线一键建站系统wordpress导航条加搜索
  • 网站制作方案专业乐云seo网站增加新闻功能
  • 建手机号码的网站国家开发银行生源地助学贷款系统
  • 云南旅游网站韩国情侣网站模板
  • 旅游网站开发哪家好自己做网站上传相册
  • 定制产品网站有哪些wordpress视频教程 百度云
  • 烟台电商网站开发app下载安装官方免费下载
  • 哪个网站做二手叉车回收好电子商务网站建设实习报告
  • 下载百度免费版seo指的是什么
  • linux网站建设工厂拿货回家加工
  • 外贸网站建设上海wordpress3.5
  • 网站营销单页怎么设计方案思博企业管理咨询有限公司
  • 快速搭建网站后台大型网站制作教程
  • 郑州网站建设乚汉狮网络wordpress 底部修改
  • 易尔通做网站怎么样个人网站域名取名
  • 湖北现代城市建设集团网站上海沙龙网站建设