项目简介
MemGPT 是一个基于 GPT 模型的开源项目,旨在增强文本生成的能力。通过融合长期和短期记忆,MemGPT 能够更深入理解语境并生成更加准确和连贯的文本。它提供简洁易用的接口,可帮助用户轻松应用于各种文本生成任务,包括写作、对话模型等。无论您是需要自然语言处理技术支持的专业人士还是普通用户,MemGPT 都能为您提供高效可靠的解决方案。
扫码加入交流群
获得更多技术支持和交流
(请注明自己的职业)
功能支持
MemGPT 让构建和部署具备状态管理功能的大型语言模型(LLM)代理变得简单,并支持以下功能:
· 长期记忆/状态管理
· 连接外部数据源(例如,PDF文件)用于 RAG
· 定义和调用自定义工具(例如,谷歌搜索)
你还可以使用 MemGPT 将Agent部署为服务。你可以使用 MemGPT 服务器在支持的大型语言模型提供商之上运行multi-user、multi-agent应用程序。
安装与设置
1.安装 MemGPT:
pip install -U pymemgpt
2.若要将 MemGPT 与 OpenAI 一起使用,请设置环境变量 OPENAI_API_KEY 为您的 OpenAI 密钥,然后运行:
memgpt quickstart --backend openai
3.若要使用免费托管的终端节点,你可以运行:
memgpt quickstart --backend memgpt
如需更高级的配置选项或使用不同的大型语言模型后端或本地大型语言模型,请运行 memgpt configure。
快速开始
你可以通过在命令行界面(CLI)运行 memgpt run 来创建并与 MemGPT 代理交谈。run 命令支持以下可选标志(有关完整标志列表,请参见 CLI 文档):
--agent:(str)创建或继续与之交谈的代理的名称。
--first:(str)允许用户发送第一条消息。
--debug:(bool)显示调试日志(默认为 False)
--no-verify:(bool)绕过消息验证(默认为 False)
--yes/-y:(bool)跳过确认提示并使用默认设置(默认为 False)
你可以在 CLI 文档中查看可用的聊天命令列表(例如,/memory, /exit)。
开发者门户
MemGPT 提供了一个开发者门户,使你能够轻松创建、编辑、监控和与你的 MemGPT Agent进行交流。使用开发者门户最简单的方法是通过 Docker 安装 MemGPT(见下面的说明)。
快速开始(服务器)
选项 1(推荐):使用 Docker Compose 运行
1.在您的系统上安装 Docker。
2.克隆仓库:git clone [email protected]:cpacker/MemGPT.git
3.运行 docker compose up
4.在浏览器中访问 memgpt.localhost 以查看开发者门户。
选项 2:使用 CLI 运行:
1.运行 memgpt server
2.在浏览器中访问 localhost:8283 以查看开发者门户。
服务器运行后,你可以使用 Python 客户端或 REST API 连接到 memgpt.localhost(如果你使用 Docker Compose 运行)或 localhost:8283(如果墨使用 CLI 运行)来创建用户、代理等。该服务需要使用 MemGPT 管理员密码进行认证,可以通过运行 export MEMGPT_SERVER_PASS=password 来设置。
支持的终端和后端
MemGPT 设计为与模型和提供者无关。支持以下大型语言模型(LLM)和嵌入终端:
当使用 MemGPT 与开放大型语言模型(例如从 HuggingFace 下载的模型)时,MemGPT 的性能将高度依赖于大型语言模型的函数调用能力。你可以在 Discord 上的 #model-chat 频道以及这个电子表格中找到已知与 MemGPT 配合使用效果良好的大型语言模型/模型列表。
完整文档链接
https://memgpt.readme.io
项目链接
https://github.com/cpacker/MemGPT
关注「 开源AI项目落地 」公众号
与AI时代更靠近一点