当前位置: 首页 > news >正文

我的网站在百度搜不到电子商务综合实训报告网站建设

我的网站在百度搜不到,电子商务综合实训报告网站建设,中企动力定制化官网,手机网站用什么制作wow-agent-课程详情 | Datawhale 前两课比较基础#xff0c;无笔记 第三课 阅卷智能体这一块#xff0c;曾经做过一点和AI助教相关的内容#xff0c;也是用了一个prompt去进行CoT#xff0c;但是风格和课程中的不太相同#xff0c;在下面附上我的prompt 你是一名资深教…wow-agent-课程详情 | Datawhale 前两课比较基础无笔记 第三课 阅卷智能体这一块曾经做过一点和AI助教相关的内容也是用了一个prompt去进行CoT但是风格和课程中的不太相同在下面附上我的prompt 你是一名资深教师助理负责帮助老师批改和评分学生提交的主观题答案。这些题目主要涉及语文作文、英语作文等内容。你将根据以下六个评分标准对学生的答案进行评估和打分。请确保你的评估详细且准确并在最后提供总分。评分标准如下i1. **准确性**0-5分- 根据学生对问题的理解和回答的准确程度进行评分。如果答案完全正确描述了算法或概念的关键要点并且算法选择合理得5分。如果存在小错误、偏离题意的地方或算法选择不当视其严重程度扣分。完全错误或无关答案得0分。2. **逻辑性**0-5分- 根据学生答案的逻辑结构、推理过程以及算法流程的清晰度进行评分。如果答案逻辑严密推理过程清晰且算法步骤明确得5分。如果逻辑混乱推理不连贯或算法流程描述不清视其严重程度扣分。没有逻辑或推理过程的答案得0分。3. **表达清晰度**0-5分- 根据学生表达的清晰度和语言的准确性进行评分。如果表达流畅、语言精准且无语法错误术语使用正确得5分。如果存在表达不清、语法错误或术语使用不当视其严重程度扣分。表达不清或充满错误的答案得0分。4. **深度分析**0-5分- 根据学生对算法或概念的深入分析和理解进行评分。如果学生能提供超出题目要求的深入见解、分析算法的优缺点或对算法选择进行了全面的讨论得5分。如果答案只是表面分析缺乏深度或未能充分考虑算法选择的合理性视其程度扣分。缺乏任何分析的答案得0分。5. **创新性**0-5分- 根据学生答案的独特性和创新性进行评分。如果学生能提出新颖的算法改进、独特的概念理解或提供有创意的解决方案得5分。如果答案中规中矩缺乏创新视其程度扣分。完全缺乏创新的答案得0分。6. **完整性**0-5分- 根据学生回答是否涵盖了题目要求的所有方面并提供了全面的分析或算法流程进行评分。如果答案非常全面涵盖了所有必要的要点并对问题进行了完整的回答得5分。如果有些要点未涵盖或有重要内容遗漏视其程度扣分。严重不完整的答案得0分。请根据以上评分标准和老师提供的标准答案详细评估以下学生的答案并分别给出每个评分标准的具体得分与评分理由。最后计算并提供该学生答案的总分。学生的主观题题目{subjective_question}学生的答案{student_answer}老师提供的标准答案{standard_answer}请对上述学生的答案进行详细的评估并分别对每个标准进行打分0-5分同时给出具体的评分理由并将所有项目得分相加得出该学生答案的总分数。 教程给的prompt对格式要求更多但我是拿字符串出来自己拼一个json交给后端所以重心更多的放在了给分上 第四课 OurLLM类中 llm_completion_callback()def stream_complete(self, prompt: str, **kwargs: Any) - Generator[CompletionResponse, None, None]:response self.client.chat.completions.create(modelself.model_name,messages[{role: user, content: prompt}],streamTrue)try:for chunk in response:chunk_message chunk.choices[0].deltaif not chunk_message.content:continuecontent chunk_message.contentyield CompletionResponse(textcontent, deltacontent)except Exception as e:raise Exception(fUnexpected response format: {e}) 做了一个流式输出每次yield丢出一个content非空的chunkchunk的content为空则代表比起上次没有更新文本内容(可能更新了元数据) 流式输出就是不等整段话全部生成完全而是生成一点输出一点相较于全部输出的效率更高在业务场景下对用户体验更友好 api_key: str Field(defaultapi_key) base_url: str Field(defaultbase_url) model_name: str Field(defaultchat_model) client: OpenAI Field(defaultNone, excludeTrue) 类的开头定义的Field可以帮助缓解Agent传参数输入输出等的幻觉 llama_index调tools的小demo multiply_tool FunctionTool.from_defaults(fnmultiply) add_tool FunctionTool.from_defaults(fnadd)# 创建ReActAgent实例 agent ReActAgent.from_tools([multiply_tool, add_tool], llmllm, verboseTrue)response agent.chat(202*4等于多少使用工具计算每一步) 第五课 Ollama是很好用的搭大模型的框架包括Xinference、openai这些都挺好的 与数据库交互 query_engine NLSQLTableQueryEngine( sql_databasesql_database, tables[section_stats], llmSettings.llm ) 第六课 llama_index faiss 构建索引 from llama_index.core import SimpleDirectoryReader,Document documents SimpleDirectoryReader(input_files[./docs/问答手册.txt]).load_data()# 构建节点 from llama_index.core.node_parser import SentenceSplitter transformations [SentenceSplitter(chunk_size 512)]from llama_index.core.ingestion.pipeline import run_transformations nodes run_transformations(documents, transformationstransformations)# 构建索引 from llama_index.vector_stores.faiss import FaissVectorStore import faiss from llama_index.core import StorageContext, VectorStoreIndexvector_store FaissVectorStore(faiss_indexfaiss.IndexFlatL2(3584)) storage_context StorageContext.from_defaults(vector_storevector_store)index VectorStoreIndex(nodes nodes,storage_contextstorage_context,embed_model embedding, ) 简单分了个512的chunk也就是512个token在一起向量化存入数据库 3584是指定的向量的维度 这里处理文档llama_index提供了很多方法 简单文件节点解析器 (SimpleFileNodeParser) 我们可以使用 SimpleFileNodeParser 来解析简单的文件类型如 Markdown 文件。下面是一个例子 from llama_index.core.node_parser import SimpleFileNodeParser from llama_index.readers.file import FlatReader from pathlib import Path # 加载 Markdown 文档 md_docs FlatReader().load_data(Path(./test.md)) # 创建解析器实例 parser SimpleFileNodeParser() # 从文档中获取节点 md_nodes parser.get_nodes_from_documents(md_docs)HTML 节点解析器 (HTMLNodeParser) HTMLNodeParser 使用 BeautifulSoup 来解析原始 HTML。默认情况下它会解析一些特定的 HTML 标签。 from llama_index.core.node_parser import HTMLNodeParser # 创建 HTML 解析器指定需要解析的标签 parser HTMLNodeParser(tags[p, h1]) # 从 HTML 文档中获取节点 nodes parser.get_nodes_from_documents(html_docs)JSON 节点解析器 (JSONNodeParser) JSONNodeParser 用于解析原始 JSON 文本。 from llama_index.core.node_parser import JSONNodeParser # 创建 JSON 解析器实例 parser JSONNodeParser() # 从 JSON 文档中获取节点 nodes parser.get_nodes_from_documents(json_docs)Markdown 节点解析器 (MarkdownNodeParser) MarkdownNodeParser 用于解析原始的 Markdown 文本。 from llama_index.core.node_parser import MarkdownNodeParser # 创建 Markdown 解析器实例 parser MarkdownNodeParser() # 从 Markdown 文档中获取节点 nodes parser.get_nodes_from_documents(markdown_docs)代码分割器 (CodeSplitter) CodeSplitter 根据代码的语言将原始代码文本进行分割。 from llama_index.core.node_parser import CodeSplitter # 创建代码分割器实例 splitter CodeSplitter(     languagepython,     chunk_lines40,  # 每块的行数     chunk_lines_overlap15,  # 块之间的重叠行数     max_chars1500,  # 每块的最大字符数 ) # 从文档中获取节点 nodes splitter.get_nodes_from_documents(documents)句子分割器 (SentenceSplitter) SentenceSplitter 尝试在尊重句子边界的情况下进行文本分割。 from llama_index.core.node_parser import SentenceSplitter # 创建句子分割器实例 splitter SentenceSplitter(     chunk_size1024,     chunk_overlap20, ) # 从文档中获取节点 nodes splitter.get_nodes_from_documents(documents)使用 Langchain 的节点解析器 (LangchainNodeParser) 你还可以用 Langchain 提供的文本分割器来包装节点解析器。 from langchain.text_splitter import RecursiveCharacterTextSplitter from llama_index.core.node_parser import LangchainNodeParser # 创建 Langchain 解析器实例 parser LangchainNodeParser(RecursiveCharacterTextSplitter()) # 从文档中获取节点 nodes parser.get_nodes_from_documents(documents)                          原文链接https://blog.csdn.net/qq_29929123/article/details/140745604 构建问答引擎 # 构建检索器 from llama_index.core.retrievers import VectorIndexRetriever # 想要自定义参数可以构造参数字典 kwargs {similarity_top_k: 5, index: index, dimensions: 3584} # 必要参数 retriever VectorIndexRetriever(**kwargs)# 构建合成器 from llama_index.core.response_synthesizers import get_response_synthesizer response_synthesizer get_response_synthesizer(llmllm, streamingTrue)# 构建问答引擎 from llama_index.core.query_engine import RetrieverQueryEngine engine RetrieverQueryEngine(retrieverretriever,response_synthesizerresponse_synthesizer,)# 提问 question 请问商标注册需要提供哪些文件 response engine.query(question) for text in response.response_gen:print(text, end) 检索top的5个chunk作为上下文 打包RetrieverQueryEngine作为function tool # 配置查询工具 from llama_index.core.tools import QueryEngineTool from llama_index.core.tools import ToolMetadata query_engine_tools [QueryEngineTool(query_engineengine,metadataToolMetadata(nameRAG工具,description(用于在原文中检索相关信息),),), ] 第七课 找个接口请求一下打包成function tool无笔记 第八课 AgentLite Langchain实现新的智体推理类型和架构过于复杂。为新的研究场景重构Langchain库是相当具有挑战性的因为它在创建智体时会产生大量开销。 Autogen虽然已经成功地构建了 LLM 代理但它的代理接口有固定的推理类型这使得它很难适应其他研究任务。此外它的架构仅限于多智能体对话和代码执行可能不适合所有的新场景或基准测试。 AgentLite框架包括Individual Agent和Manager Agent Individual Agent是AgentSite中的基本Agent类。它由四个模块组成即PromptGen、LLM、Actions和Memory。 Manager Agent是一个individual agent的子类根据给定的任务指令创建子任务和相应的TaskPackage这些TP被依次转发到相关联的各个智体。 DuckDuckGo是一个互联网搜索引擎 Zigent创建搜索代理 class DuckSearchAgent(BaseAgent):def __init__(self,llm: BaseLLM,actions: List[BaseAction] [DuckSearchAction()],manager: ABCAgent None,**kwargs):name duck_search_agentrole You can answer questions by using duck duck go search content.super().__init__(namename,rolerole,llmllm,actionsactions,managermanager,loggeragent_logger,) 执行代理 def do_search_agent():# 创建代理实例search_agent DuckSearchAgent(llmllm)# 创建任务task what is the found date of microsofttask_pack TaskPackage(instructiontask)# 执行任务并获取响应response search_agent(task_pack)print(response:, response) 第九课 多智能体交互是必要的不同职责的智能体相互交流更好地完成任务 编排动作 和给大模型one-shot、few-shot一样如果能指导智能体去思考和合作是更好的 from zigent.commons import AgentAct, TaskPackage from zigent.actions import ThinkAct, FinishAct from zigent.actions.InnerActions import INNER_ACT_KEY from zigent.agents.agent_utils import AGENT_CALL_ARG_KEY# 为哲学家智能体添加示例任务 # 设置示例任务:询问生命的意义 exp_task What do you think the meaning of life? exp_task_pack TaskPackage(instructionexp_task)# 第一个动作:思考生命的意义 act_1 AgentAct(nameThinkAct.action_name,params{INNER_ACT_KEY: fBased on my thought, we are born to live a meaningful life, and it is in living a meaningful life that our existence gains value. Even if a life is brief, if it holds value, it is meaningful. A life without value is merely existence, a mere survival, a walking corpse.}, ) # 第一个动作的观察结果 obs_1 OK. I have finished my thought, I can pass it to the manager now.# 第二个动作:总结思考结果 act_2 AgentAct(nameFinishAct.action_name, params{INNER_ACT_KEY: I can summarize my thought now.}) # 第二个动作的观察结果 obs_2 I finished my task, I think the meaning of life is to pursue value for the whold world. # 将动作和观察组合成序列 exp_act_obs [(act_1, obs_1), (act_2, obs_2)]# 为每个哲学家智能体添加示例 # 为孔子添加示例 Confucius.prompt_gen.add_example(task exp_task_pack, action_chain exp_act_obs ) # 为苏格拉底添加示例 Socrates.prompt_gen.add_example(task exp_task_pack, action_chain exp_act_obs ) # 为亚里士多德添加示例 Aristotle.prompt_gen.add_example(task exp_task_pack, action_chain exp_act_obs ) 先执行后思考总结的动作模板提交给三个智能体 Manager Agent 用一个智能体调控其他智能体的交互和MetaGPT一样用team进行管理 # 定义管理者代理 from zigent.agents import ManagerAgent# 设置管理者代理的基本信息 manager_agent_info {name: manager_agent,role: you are managing Confucius, Socrates and Aristotle to discuss on questions. Ask their opinion one by one and summarize their view of point. } # 设置团队成员 team [Confucius, Socrates, Aristotle] # 创建管理者代理实例 manager_agent ManagerAgent(namemanager_agent_info[name], rolemanager_agent_info[role], llmllm, TeamAgentsteam)# 为管理者代理添加示例任务 exp_task What is the meaning of life? exp_task_pack TaskPackage(instructionexp_task)# 第一步思考如何处理任务 act_1 AgentAct(nameThinkAct.action_name,params{INNER_ACT_KEY: fI can ask Confucius, Socrates and Aristotle one by one on their thoughts, and then summary the opinion myself.}, ) obs_1 OK.# 第二步询问孔子的观点 act_2 AgentAct(nameConfucius.name,params{AGENT_CALL_ARG_KEY: What is your opinion on the meaning of life?,}, ) obs_2 Based on my thought, I think the meaning of life is to pursue value for the whold world.# 第三步思考下一步行动 act_3 AgentAct(nameThinkAct.action_name,paramsxxx ) obs_3 xxx# 第四步询问苏格拉底的观点 act_4 AgentAct(nameSocrates.name,paramsxxx ) obs_4 xxx# 第五步继续思考下一步 act_5 AgentAct(nameThinkAct.action_name,paramsxxx ) obs_5 OK.# 第六步询问亚里士多德的观点 act_6 AgentAct(nameAristotle.name,paramsxxx ) obs_6 xxx# 最后一步总结所有观点 act_7 AgentAct(nameFinishAct.action_name, paramsxxx) obs_7 xxx# 将所有动作和观察组合成序列 exp_act_obs [(act_1, obs_1), (act_2, obs_2), (act_3, obs_3), (act_4, obs_4), (act_5, obs_5), (act_6, obs_6), (act_7, obs_7)]# 将示例添加到管理者代理的提示生成器中 manager_agent.prompt_gen.add_example(task exp_task_pack, action_chain exp_act_obs ) 调用 ManagerAgent: from zigent.commons import AgentAct, TaskPackageexp_task 先有鸡还是先有蛋? exp_task_pack TaskPackage(instructionexp_task) manager_agent(exp_task_pack) 第十课 WriteDirectoryAction类中通过prompt对生成的json进行规范然而有时会出现幻觉导致json出错在这仍然可以用Field规范一下输出 定义两个动作写目录和填内容并增加示例完成创作
http://www.dnsts.com.cn/news/13966.html

相关文章:

  • iis怎么让添加的网站没有端口wordpress瀑布流主题 仿蛋花儿主题
  • 贵州建设考试网站坑梓网站建设哪家好
  • 建设完网站成功后需要注意什么网站建设行业 知乎
  • 有没有专门做旅游攻略的网站网页的依托网站
  • 做网站需要哪些软件佛山网站建设哪个
  • 黄村网站开发公司网址大全免费网站
  • 国外外包网站网站系统里不能打印
  • 西宁网站搭建企业定制设计软件
  • 移动网站性能成都制作网页
  • 想做外贸做哪些网站上海移动网站开发
  • 门户网站直接登录系统互联网行业发展前景分析报告
  • 淄博网站推广优化网站首页设计思路
  • 冷库建设网站中国推广网站
  • 昆明做网站建设公司一起做网店17潮汕
  • 沈阳建站费用宝安高端网站设计怎么样
  • 网站腾讯qq对话框怎么做网站制作公司 知乎
  • 什么是网站的后台中企动力手机邮政登录
  • wordpress 全屏主题怀化seo推广
  • 官方网站拼多多做液压的公司网站
  • 义乌网站制作多少钱留学网站建设多少钱
  • 网站页脚代码免费的wordpress账号
  • 个人站长网站需要注册公司吗全网商城系统
  • 二级网站建设思路购物网站开发视频教程
  • 网站维护包括哪些怎么找人做淘宝网站
  • 网站建设所用软件小学教学活动设计方案模板
  • 网站色彩搭配原则宁波seo关键词
  • 网站建设 账务处理青海网站制作
  • 网页制作成品模板网站微信商城后台管理系统
  • 建站公司 商城wordpress rclean
  • 山东卓创 网站建设广东seo网站设计