Skip to content

Latest commit

 

History

History
392 lines (319 loc) · 20.6 KB

README.zh.md

File metadata and controls

392 lines (319 loc) · 20.6 KB

DB-GPT: 用私有化LLM技术定义数据库下一代交互方式

DB-GPT 是什么?

随着大模型的发布迭代,大模型变得越来越智能,在使用大模型的过程当中,遇到极大的数据安全与隐私挑战。在利用大模型能力的过程中我们的私密数据跟环境需要掌握自己的手里,完全可控,避免任何的数据隐私泄露以及安全风险。基于此,我们发起了DB-GPT项目,为所有以数据库为基础的场景,构建一套完整的私有大模型解决方案。 此方案因为支持本地部署,所以不仅仅可以应用于独立私有环境,而且还可以根据业务模块独立部署隔离,让大模型的能力绝对私有、安全、可控。我们的愿景是让围绕数据库构建大模型应用更简单,更方便。

DB-GPT 是一个开源的以数据库为基础的GPT实验项目,使用本地化的GPT大模型与您的数据和环境进行交互,无数据泄露风险,100% 私密

目录

DB-GPT视频介绍

效果演示

示例通过 RTX 4090 GPU 演示

Chat Excel

excel

Chat Plugin

auto_plugin_new

LLM Management

llm_manage

FastChat && vLLM

vllm

Trace

trace_new

Chat Knowledge

kbqa_new

根据自然语言对话生成分析图表

db plugins demonstration

根据自然语言对话生成SQL

与数据库元数据信息进行对话, 生成准确SQL语句

与数据对话, 直接查看执行结果

知识库管理

根据知识库对话, 比如pdf、csv、txt、words等等.

安装

Docker Linux macOS Windows

教程

特性一览

目前我们已经发布了多种关键的特性,这里一一列举展示一下当前发布的能力。

DataSource support Notes
MySQL Yes
PostgresSQL Yes
Spark Yes
DuckDB Yes
Sqlite Yes
MSSQL Yes
ClickHouse Yes
Oracle No TODO
Redis No TODO
MongoDB No TODO
HBase No TODO
Doris No TODO
DB2 No TODO
Couchbase No TODO
Elasticsearch No TODO
OceanBase No TODO
TiDB No TODO
StarRocks No TODO

架构方案

DB-GPT基于 FastChat 构建大模型运行环境。此外,我们通过LangChain提供私域知识库问答能力。同时我们支持插件模式, 在设计上原生支持Auto-GPT插件。我们的愿景是让围绕数据库和LLM构建应用程序更加简便和便捷。

整个DB-GPT的架构,如下图所示

核心能力主要有以下几个部分。

  1. 多模型:支持多LLM,如LLaMA/LLaMA2、CodeLLaMA、ChatGLM、QWen、Vicuna以及代理模型ChatGPT、Baichuan、tongyi、wenxin等
  2. 私域知识库问答: 可以根据本地文档(如pdf、word、excel等数据)进行高质量的智能问答。
  3. 统一数据向量存储和索引: 将数据嵌入为向量并存储在向量数据库中,提供内容相似性搜索。
  4. 多数据源: 用于连接不同的模块和数据源,实现数据的流动和交互。
  5. Agent与插件: 提供Agent和插件机制,使得用户可以自定义并增强系统的行为。
  6. 隐私和安全: 您可以放心,没有数据泄露的风险,您的数据100%私密和安全。
  7. Text2SQL: 我们通过在大型语言模型监督微调(SFT)来增强文本到SQL的性能

子模块

Image

🌐 AutoDL镜像

🌐 阿里云镜像

多语言切换

在.env 配置文件当中,修改LANGUAGE参数来切换使用不同的语言,默认是英文(中文zh, 英文en, 其他语言待补充)

使用说明

多模型使用

使用指南

贡献

提交代码前请先执行 black .

这是一个用于数据库的复杂且创新的工具, 我们的项目也在紧急的开发当中, 会陆续发布一些新的feature。如在使用当中有任何具体问题, 优先在项目下提issue, 如有需要, 请联系如下微信,我会尽力提供帮助,同时也非常欢迎大家参与到项目建设中。

Licence

The MIT License (MIT)

路线图

知识库RAG检索优化

  • Multi Documents
    • PDF
    • Excel, csv
    • Word
    • Text
    • MarkDown
    • Code
    • Images
  • RAG
  • Graph Database
    • Neo4j Graph
    • Nebula Graph
  • Multi Vector Database
    • Chroma
    • Milvus
    • Weaviate
    • PGVector
    • Elasticsearch
    • ClickHouse
    • Faiss

多数据源支持

  • 支持数据源

    • MySQL
    • PostgresSQL
    • Spark
    • DuckDB
    • Sqlite
    • MSSQL
    • ClickHouse
    • Oracle
    • Redis
    • MongoDB
    • HBase
    • Doris
    • DB2
    • Couchbase
    • Elasticsearch
    • OceanBase
    • TiDB
    • StarRocks

多模型管理与推理优化

Agents与插件市场

  • 多Agents框架
  • 自定义Agents
  • 插件市场
  • CoT集成
  • 丰富插件样本库
  • 支持AutoGPT协议
  • Multi-agents & 可视化能力打通,定义LLM+Vis新标准

测试评估能力建设

  • 知识库的数据文本集
  • 问题集合 [easy、medium、hard]
  • 评分机制
  • Excel + DB库表的测试评估

成本与可观测性

Text2SQL微调

  • support llms

    • LLaMA
    • LLaMA-2
    • BLOOM
    • BLOOMZ
    • Falcon
    • Baichuan
    • Baichuan2
    • InternLM
    • Qwen
    • XVERSE
    • ChatGLM2
  • SFT模型准确率 截止20231010,我们利用本项目基于开源的13B大小的模型微调后,在Spider的评估集上的执行准确率,已经超越GPT-4!

模型名称 执行准确率 说明
GPT-4 0.762 numbersstation-eval-res
ChatGPT 0.728 numbersstation-eval-res
CodeLlama-13b-Instruct-hf_lora 0.789 sft train by our this project,only used spider train dataset ,the same eval way in this project with lora SFT
CodeLlama-13b-Instruct-hf_qlora 0.774 sft train by our this project,only used spider train dataset ,the same eval way in this project with qlora and nf4,bit4 SFT
wizardcoder 0.610 text-to-sql-wizardcoder
CodeLlama-13b-Instruct-hf 0.556 eval in this project default param
llama2_13b_hf_lora_best 0.744 sft train by our this project,only used spider train dataset ,the same eval way in this project

More Information about Text2SQL finetune

联系我们

Star History Chart