当前位置: 首页 > news >正文

一个网站大概多少页面孟州哪里可以做网站

一个网站大概多少页面,孟州哪里可以做网站,红包app开发软件,wordpress 顶端加代码之前我们介绍了来自LLM开发框架LlamaIndex的新特性#xff1a;Workflows#xff0c;一种事件驱动、用于构建复杂AI工作流应用的新方法#xff08;参考#xff1a;[深入解析LlamaIndex Workflows#xff1a;构建复杂RAG与智能体工作流的新利器【上篇】]。在本篇中#xff…之前我们介绍了来自LLM开发框架LlamaIndex的新特性Workflows一种事件驱动、用于构建复杂AI工作流应用的新方法参考[深入解析LlamaIndex Workflows构建复杂RAG与智能体工作流的新利器【上篇】]。在本篇中我们将继续学习如何基于Workflows来构建一个ReAct模式的AI智能体。尽管在LlamaIndex框架中已经提供了开箱即用的ReActAgent组件但通过Workflows来从零构建ReAct智能体可以更深入的了解ReAct智能体的内部原理在未来帮助实现更底层、更灵活的控制能力。 01 ReAct Agent再回顾 很多人都对ReAct智能体有所了解在LlamaIndex与LangChain框架中也都有现成的ReActAgent封装组件可以开箱即用的构建ReAct模式的AI智能体。 ReAct模式的AI智能体采用迭代式的推理Reasoning到行动Acting的工作流程旨在应对更复杂的人工任务和问题。它通过将推理步骤与实际行动相结合使得智能体可以逐步理解任务、采取行动并观察行动获得的新信息以推理后续步骤。过程大致如下 推理智能体会分析任务与环境、推理步骤、决定下一步行动 行动调用外部工具如搜索、执行计算、与外部API交互等 观察并循环观察行动结果推理后续步骤调整策略直至任务完成 ReAct模式具备很好的动态性使得AI能够应对复杂和未知情况适用于更开放性的问题和探索性的任务展现出更高的自主决策智能。 ReAct Agent基本构成 02 设计ReAct Agent工作流 根据ReAct智能体的基本思想其工作流中最核心的步骤step应该包括 将输入问题或任务、已有对话、工具信息、已经获得的信息即已调用工具的返回内容等输入LLM让LLM推理下一步动作 **如果此时LLM可以回答则直接给出答案结束流程 ** 如果此时LLM无法回答则给出使用工具的信息工具名、输入参数等 如果需要使用工具则根据第3步给出的信息进行工具调用并获得返回 循环****到第一步进行迭代直到在第2步能够完成任务 基于LlamaIndex Workflows开发ReAct Agent的工作流程图如下 现在可以参考这个工作流来实现ReAct智能体这里基于官方的样例进行讲解。 03 基于Workflows实现ReAct Agent 【定义Event】 参考上面的工作流图定义几个需要的Event类型 from llama_index.core.llms import ChatMessage from llama_index.core.tools import ToolSelection, ToolOutput from llama_index.core.workflow import Event import os #通知事件 class PrepEvent(Event): pass #LLM输入事件包含输入LLM的历史消息 class InputEvent(Event): input: list[ChatMessage] #工具调用事件包含工具调用信息 class ToolCallEvent(Event): tool_calls: list[ToolSelection] #工具输出事件包含工具输出信息 class FunctionOutputEvent(Event): output: ToolOutput【ReAct Agent初始化】 工作流初始化主要是为了给智能体准备必备的“工具”最重要的就是智能体需要的几大件LLM大模型、Memory记忆、以及可以使用的Tools工具。 from typing import Any, List from llama_index.core.agent.react import ReActChatFormatter, ReActOutputParser from llama_index.core.agent.react.types import ActionReasoningStep,ObservationReasoningStep from llama_index.core.llms.llm import LLM from llama_index.core.memory import ChatMemoryBuffer from llama_index.core.tools.types import BaseTool from llama_index.core.workflow import Context,Workflow,StartEvent,StopEvent,step from llama_index.llms.openai import OpenAI class ReActAgent(Workflow): def __init__( self, *args: Any, llm: LLM | None None, tools: list[BaseTool] | None None, extra_context: str | None None, **kwargs: Any, ) - None: super().__init__(*args, **kwargs) #可用的工具tools self.tools tools or [] #使用的LLM大模型 self.llm llm or OpenAI() #持久记忆 self.memory ChatMemoryBuffer.from_defaults(llmllm) #用来把历史对话、已有的推理历史格式化成下一次LLM的输入消息历史 self.formatter ReActChatFormatter(contextextra_context or ) #解析LLM的输出直接回答、使用工具、使用工具后回答 self.output_parser ReActOutputParser() #保存工具调用输出 self.sources []这里有两个辅助工具 formatter用来把保存在memory中的对话历史以及推理历史格式化成LLM输入的消息格式通常是一个包含role与content属性的对象列表还要附加上引导LLM进行思考的系统指令。 out_parser解析LLM输出的解析器。在ReAct模式下LLM的输出可能是类似Thought…Action…Action Input…这样的推理结果需要对这样的输出进行解析以决定下一步是使用工具还是输出答案。 【用户输入消息处理new_user_msg】 这是一次性的步骤简单的把输入问题/任务放入memory即可 step async def new_user_msg(self, ctx: Context, ev: StartEvent) - PrepEvent: 流程入口: 接受用户输入, 并放置到Memory中; 并触发下一步 self.sources [] user_input ev.input user_msg ChatMessage(roleuser, contentuser_input) self.memory.put(user_msg) await ctx.set(current_reasoning, []) return PrepEvent()【LLM输入准备prepare_chat_history**】** 在这个步骤中利用上面初始化的formatter把对话历史与推理历史格式化用来输入给LLM做推理。注意在一次任务中这个步骤有可能会被多次循环调用除非输入问题被LLM直接回答无需借助工具。 step async def prepare_chat_history( self, ctx: Context, ev: PrepEvent ) - InputEvent: 将对话与推理历史组装成LLM的输入消息列表(通常是角色内容。 推理历史包括 1. LLM输出的推理结果(直接回答问题、需要工具调用、观察工具调用结果后可以回答 2. 工具调用的结果 #获取历史消息 chat_history self.memory.get() print(f\n------------当前消息历史------------) for idx, message in enumerate(chat_history, start1): print(f\n{idx}. {message}) current_reasoning await ctx.get(current_reasoning, default[]) print(\n-------------当前推理历史------------) for idx, reasoning in enumerate(current_reasoning, start1): print(f\n{idx}. {reasoning}) #将历史用户消息与推理历史组装成列表 llm_input self.formatter.format( self.tools, chat_history, current_reasoningcurrent_reasoning ) return InputEvent(inputllm_input)【LLM调用handle_llm_input**】** 使用上一步骤准备的输入内容调用LLM并解析结果。以决定下一步动作返回不同的事件具体可以参考下面的代码及注释 step async def handle_llm_input( self, ctx: Context, ev: InputEvent ) - ToolCallEvent | StopEvent: 调用LLM; 解析输出结果, 获得推理结果 判断是结束可以回答问题, 还是需要调用工具 chat_history ev.input #调用LLM response await self.llm.achat(chat_history) try: #解析输出的推理结果 reasoning_step self.output_parser.parse(response.message.content) (await ctx.get(current_reasoning, default[])).append( reasoning_step ) #如果已经结束输出结果流程结束可立即回答或者观察工具调用结果后可以回答 if reasoning_step.is_done: self.memory.put( ChatMessage( roleassistant, contentreasoning_step.response ) ) return StopEvent( result{ response: reasoning_step.response, sources: [*self.sources], reasoning: await ctx.get( current_reasoning, default[] ), } ) #如果无法回答需要调用工具 elif isinstance(reasoning_step, ActionReasoningStep): tool_name reasoning_step.action tool_args reasoning_step.action_input return ToolCallEvent( tool_calls[ ToolSelection( tool_id, tool_nametool_name, tool_kwargstool_args, ) ] ) except Exception as e: (await ctx.get(current_reasoning, default[])).append( ObservationReasoningStep( observationfThere was an error in parsing my reasoning: {e} ) ) # 其他情况则进行下一次迭代继续尝试 return PrepEvent()【工具调用handle_tool_calls**】** 这是智能体使用外部工具Tools的关键步骤。根据上一步骤LLM输出的工具调用需求调用外部工具可能有多次调用并把返回结果放在推理历史中用于下一次迭代。 step async def handle_tool_calls( self, ctx: Context, ev: ToolCallEvent ) - PrepEvent: 工具调用,将调用结果作为LLM的观察对象; 并将观察内容添加到推理历史 tool_calls ev.tool_calls tools_by_name {tool.metadata.get_name(): tool for tool in self.tools} # 工具调用 for tool_call in tool_calls: tool tools_by_name.get(tool_call.tool_name) if not tool: (await ctx.get(current_reasoning, default[])).append( ObservationReasoningStep( observationfTool {tool_call.tool_name} does not exist ) ) continue try: #调用工具并将工具调用结果作为观察对象添加到推理历史 tool_output tool(**tool_call.tool_kwargs) self.sources.append(tool_output) (await ctx.get(current_reasoning, default[])).append( ObservationReasoningStep(observationtool_output.content) ) except Exception as e: (await ctx.get(current_reasoning, default[])).append( ObservationReasoningStep( observationfError calling tool {tool.metadata.get_name()}: {e} ) ) # 进入下一次迭代 return PrepEvent()【测试实现的ReAct Agent**】** 现在整个ReAct Agent的工作流就完成了过程还是比较简单清晰的。当然这里也会利用到一些LlamaIndex提供的组件比如用来封装LLM推理结果的xxxReasoningStep组件等。 我们来测试这个ReAct Agent组件准备两个模拟工具利用LlamaIndex中的FunctionTool快速构造基于函数的工具然后创建一个Agent**** from llama_index.core.tools import BaseTool, FunctionTool #模拟发送邮件 def send_email(subject: str, message: str, email: str) - None: 用于发送电子邮件 print(f邮件已发送至 {email}主题为 {subject}内容为 {message}) tool_send_mail FunctionTool.from_defaults(fnsend_email,nametool_send_mail,description用于发送电子邮件) #模拟客户查询 def query_customer(phone: str) - str: 用于查询客户信息 result f该客户信息为:\n姓名: 张三\n积分: 50000分\n邮件: testgmail.com return result tool_customer FunctionTool.from_defaults(fnquery_customer,nametool_customer,description用于查询客户信息包括姓名、积分与邮件) agent ReActAgent( llmOpenAI(modelgpt-4o-mini), tools[tool_send_mail,tool_customer], timeout120, verboseTrue )现在调用这个Agent我们发出一个比较复杂的请求来看看会发生什么 async def main(): ret await agent.run(input给客户13688888888发电子邮件通知他最新的积分) print(ret[response]) if __name__ __main__: import asyncio asyncio.run(main())这里的任务很显然需要借助两次工具调用一次查询客户信息一次发送邮件我们从输出中来观察最后一次的迭代信息 注意到这里的推理历史完整的反应了LLM的“思考”过程首先需要查询客户信息调用tool_customer然后观察到客户信息工具调用结果判断需要发送邮件调用tool_send_mail最后观察返回结果后结束流程。这是一个完整的符合ReAct模式推理-行动-观察的工作流也证明了这里基于Workflows构建的ReAct Agent的可用性。 04 结束语 至此我们对LlamaIndex所推出的新特性Workflows已经有了较为全面的认识很显然这是一个与LangChain的LangGraph相似的另一种智能体开发底层框架两者都面向复杂的智能体/RAG应用工作流但又采取了不同的设计思想至于哪个更好或许是见仁见智的问题但对于大量LLM应用的开发者来说的确又多了一个强大的工具相信随着后续的迭代Workflows也会越来越强大。 大模型AI产品经理如何学习 求大家的点赞和收藏我花2万买的大模型学习资料免费共享给你们来看看有哪些东西。 1.学习路线图 第一阶段 从大模型系统设计入手讲解大模型的主要方法 第二阶段 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用 第三阶段 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统 第四阶段 大模型知识库应用开发以LangChain框架为例构建物流行业咨询智能问答系统 第五阶段 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型 第六阶段 以SD多模态大模型为主搭建了文生图小程序案例 第七阶段 以大模型平台应用与开发为主通过星火大模型文心大模型等成熟大模型构建大模型行业应用。 2.视频教程 网上虽然也有很多的学习资源但基本上都残缺不全的这是我自己整理的大模型视频教程上面路线图的每一个知识点我都有配套的视频讲解。 都打包成一块的了不能一一展开总共300多集 因篇幅有限仅展示部分资料需要点击下方图片前往获取 3.技术文档和电子书 这里主要整理了大模型相关PDF书籍、行业报告、文档有几百本都是目前行业最新的。 4.LLM面试题和面经合集 这里主要整理了行业目前最新的大模型面试题和各种大厂offer面经合集。 学会后的收获 • 基于大模型全栈工程实现前端、后端、产品经理、设计、数据分析等通过这门课可获得不同能力 • 能够利用大模型解决相关实际项目需求 大数据时代越来越多的企业和机构需要处理海量数据利用大模型技术可以更好地处理这些数据提高数据分析和决策的准确性。因此掌握大模型应用开发技能可以让程序员更好地应对实际项目需求 • 基于大模型和企业数据AI应用开发实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能 学会Fine-tuning垂直训练大模型数据准备、数据蒸馏、大模型部署一站式掌握 • 能够完成时下热门大模型垂直领域模型训练能力提高程序员的编码能力 大模型应用开发需要掌握机器学习算法、深度学习框架等技术这些技术的掌握可以提高程序员的编码能力和分析能力让程序员更加熟练地编写高质量的代码。 1.AI大模型学习路线图 2.100套AI大模型商业化落地方案 3.100集大模型视频教程 4.200本大模型PDF书籍 5.LLM面试题合集 6.AI产品经理资源合集 获取方式 有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】
http://www.dnsts.com.cn/news/54340.html

相关文章:

  • 做的最好的相亲网站工商注册核名查询系统官网
  • 内网门户网站 建设方案游戏开发大亨最佳搭配
  • 电子商务网站建设系统功能wordpress机械展示
  • 珠海市官网网站建设价格wordpress aws上集成环境
  • 建设银行的网站用户名是什么免费手机网站开发
  • 做电影网站解决版权问题惠州网站网站建设
  • 网站权重分析深圳专业做网站较好的公司
  • 什么网站系统好公司网站建设维护合同
  • 网站的总体风格包括企业做网站需要注意事项
  • 荆州 网站建设wordpress主题idown
  • 建设网站一般要多少钱精品课程网站建设毕业设计
  • 威海做企业网站的公司app开发外包网
  • 优设网下载优化公司股权结构
  • 网站建设面包屑导航条定制开发电商网站建设多少钱
  • 公司建设网站申请报告范文广东建站
  • 华侨城网站建设北滘企业网站开发
  • 中文购物网站模板大型网页设计
  • 义乌网站建设优化排名网站建设无锡
  • 服装网站建设项目实施报告软件开发全流程
  • 微信微网站模板下载四川企业品牌网站建设
  • 网站开发信息wordpress百度分享插件下载地址
  • 免费网站app哪个好游戏攻略网站开发
  • 网站设计首页微信商城怎么进入
  • 轴承 网站建设 企炬网站托管是什么
  • 涞源县住房和城乡建设局网站网站制作优化推广
  • 在线建站店铺seo是什么意思
  • 怎样做网站公司的销售vscode 网站开发教程
  • 昆山建站公司php网站支付宝接口
  • 网站建设备案信息wordpress不同语言
  • 网站建设吧云南网站设计哪家好