在线响应式网站,wordpress 3.2 下载,科技网站 网站建设,律师事务所网站制作DB-GPT V0.6.3版本现已上线#xff0c;快速预览新特性: 新特性
1. 支持 SiliconCloud 模型#xff0c;让用户体验多模型的管理能力
如何使用#xff1a;
修改环境变量文件.env#xff0c;配置SiliconCloud模型
# 使用 SiliconCloud 的代理模型
LLM_MODELsiliconflow_p…DB-GPT V0.6.3版本现已上线快速预览新特性: 新特性
1. 支持 SiliconCloud 模型让用户体验多模型的管理能力
如何使用
修改环境变量文件.env配置SiliconCloud模型
# 使用 SiliconCloud 的代理模型
LLM_MODELsiliconflow_proxyllm
# 配置具体使用的模型名称
SILICONFLOW_MODEL_VERSIONQwen/Qwen2.5-Coder-32B-Instruct
SILICONFLOW_API_BASEhttps://api.siliconflow.cn/v1
# 记得填写您在步骤2中获取的 API Key
SILICONFLOW_API_KEY{your-siliconflow-api-key}# 配置使用 SiliconCloud 的 Embedding 模型
EMBEDDING_MODELproxy_http_openapi
PROXY_HTTP_OPENAPI_PROXY_SERVER_URLhttps://api.siliconflow.cn/v1/embeddings
# 记得填写您在步骤2中获取的 API Key
PROXY_HTTP_OPENAPI_PROXY_API_KEY{your-siliconflow-api-key}
# 配置具体的 Embedding 模型名称
PROXY_HTTP_OPENAPI_PROXY_BACKENDBAAI/bge-large-zh-v1.5# 配置使用 SiliconCloud 的 rerank 模型
RERANK_MODELrerank_proxy_siliconflow
RERANK_PROXY_SILICONFLOW_PROXY_SERVER_URLhttps://api.siliconflow.cn/v1/rerank
# 记得填写您在步骤2中获取的 API Key
RERANK_PROXY_SILICONFLOW_PROXY_API_KEY{your-siliconflow-api-key}
# 配置具体的 rerank 模型名称
RERANK_PROXY_SILICONFLOW_PROXY_BACKENDBAAI/bge-reranker-v2-m3注意上述的语言模型SILICONFLOW_MODEL_VERSION)、 Embedding 模型PROXY_HTTP_OPENAPI_PROXY_BACKEND和 rerank 模型(RERANK_PROXY_SILICONFLOW_PROXY_BACKEND)可以从《获取用户模型列表 - SiliconFlow》https://docs.siliconflow.cn/api-reference/models/get-model-list中获取。
通过DB-GPT Python SDK使用
pip install dbgpt0.6.3rc2 openai requests numpy
使用SiliconCloud的大语言模型
import asyncio
import os
from dbgpt.core import ModelRequest
from dbgpt.model.proxy import SiliconFlowLLMClientmodel Qwen/Qwen2.5-Coder-32B-Instruct
client SiliconFlowLLMClient(api_keyos.getenv(SILICONFLOW_API_KEY),model_aliasmodel
)res asyncio.run(client.generate(ModelRequest(modelmodel,messages[{role: system, content: 你是一个乐于助人的 AI 助手。},{role: human, content: 你好},]))
)
print(res)
更多使用方式参考《在 DB-GPT 中使用 - SiliconFlow》https://docs.siliconflow.cn/usercases/use-siliconcloud-in-DB-GPT 2. 新增知识处理工作流支持Embedding加工知识图谱加工混合知识加工处理
目前DB-GPT知识库提供了文档上传-解析-切片-Embedding-知识图谱三元组抽取-向量数据库存储-图数据库存储等单一的知识加工的能力但是不具备对文档进行复杂的多元化的信息抽取能力因此希望通过构建知识加工工作流来完成复杂的多元化的可视化的用户可自定义的知识抽取转换加工流程。 如何使用 导入工作流模 保存并注册为服务
curl --location --request POST http://localhost:5670/api/v1/awel/trigger/rag/knowledge/hybrid/process \
--header Content-Type: application/json \
-d {} [async persist vector store success 9 chunks.,async persist graph store success 9 chunks.
]
更多使用方式参考《知识加工》https://www.yuque.com/eosphoros/dbgpt-docs/vg2gsfyf3x9fuglf。 3. ChatData 场景支持 OceanBase 向量可视化 4. GraphRAG 社区总结优化通过并行总结抽取提升索引构建性能
GraphRAG作为DB-GPT开源项目的重要模块之一近期获得了显著的技术改进和性能提升。这个创新框架通过巧妙结合图数据库技术与检索增强生成RAG方法在处理复杂数据关系任务上展现出优越性能。
核心改进包括三个关键方面 首先引入了文档结构Document Structure索引通过识别文档的层级关系构建了包含next顺序关系和include包含关系两种边的有向图结构。 其次在知识图谱构建环节创新性地采用了上下文增强方法和并发抽取优化将任务处理时间降低至原有耗时的20%。 第三实现了多维度的检索框架包括三元组图谱检索局部、社区摘要检索全局和文档结构检索原文。
在基于TuGraph基座的图数据建模阶段GraphRAG 定义了三种节点类型document、chunk、entity和五种边类型包含关系边和顺序关系边为知识图谱的构建和检索提供了坚实的基础。在社区摘要方面采用Leiden算法进行社区检测通过社区文本化和总结提供了知识的宏观视角。
相比微软的GraphRAG方案DB-GPT GraphRAG避免了中间态回答微软GraphRAG一个中间过程可能带来的信息损失和语义理解偏差同时我们还支持文档结构溯源能够为用户提供更可靠的原文参考信息。这些改进使得GraphRAG在保持知识完整性的同时显著提升了系统性能和用户体验。
在性能测试方面与微软版本的GraphRAG相比DBGPT GraphRAG在保持相近的文档输入规模42,631 tokens的情况下取得了显著成果总Token消耗降低至42.9%417,565 vs 972,220生成Tokens量减少至18.4%41,797 vs 227,230构建知识图谱的时间缩短至80.1%170s vs 210s。同时对照组和实验组的图谱结构均保持了相当的复杂度734节点/1164边 vs 779节点/967边确保了知识表示的完整性。
展示示例GraphRAG 也可以向用户展示数据来源/原始文档 总得来说GraphRAG取得了不错的效果在构建同样规模的知识图谱的情况下我们在构建图谱这个任务上花费了更少的时间约80%消耗了更少的 tokens约40%。同时在回答需要全局检索的用户问题时根据测试结果我们版本的 GraphRAG 在时间和 tokens 的消耗上更具优势。此外我们的 GraphRAG 得益于文档结构的支持可以搜索原文并将原文作为参考文本的一个部分返回给用户让用户可以获得更可靠的原文信息。
后续我们将支持更加复杂、更加智能的检索链路相似度检索、自然语言转GQL检索。DB-GPT GraphRAG的演进一直在路上敬请期待。 5. ChatData 针对大宽表场景进行Schema-Linking优化
测试大宽表sql
/DB-GPT/docker/examples/sqls/case_3_order_wide_table_sqlite_wide.sql 6. 聊天对话支持 max output tokens 参数 如何设置 7. 支持 Claude 模型服务 .env 文件进行配置
LLM_MODELclaude_proxyllm
ANTHROPIC_MODEL_VERSIONclaude-3-5-sonnet-20241022
ANTHROPIC_BASE_URLhttps://api.openai-proxy.org/anthropic
ANTHROPIC_API_KEY{your-claude-api-key} python使用
import asynciofrom dbgpt.core import ModelRequest
from dbgpt.model.proxy import ClaudeLLMClientclient ClaudeLLMClient(model_aliasclaude-3-5-sonnet-20241022)
print(asyncio.run(client.generate(ModelRequest._build(claude-3-5-sonnet-20241022, Hi, claude!)))
)
8. Agent 支持上下文记忆 通过在 .env 文件进行配置
MESSAGES_KEEP_START_ROUNDS0
MESSAGES_KEEP_END_ROUNDS2 Bug 修复 修复了删除图空间后创建同名问题 修复了构建Docker 镜像问题 修复了httpx v0.28.0 proxies 问题 修复Chat Data fix sql not found error 问题 修复了EmbeddingAssemblerOperator算子连接问题 解决fastapi版本问题 其他
1、 发布DB-GPT Agent论文ROMAS: A Role-Based Multi-Agent System for Database monitoring and Planninghttps://arxiv.org/abs/2412.13520
2、升级dbgpt-tugraph-plugins版本升级到0.1.1 官方文档地址
英文网址http://docs.dbgpt.cn/docs/overview/
中文网址https://www.yuque.com/eosphoros/dbgpt-docs/bex30nsv60ru0fmx 致谢
感谢所有贡献者使这次发布成为可能
Appointat, Aries-ckt, FOkvj, GITHUBear, HYSMN, Sween1y, fangyinc, fanzhidongyzby, toralee and yhjun10