当前位置: 欣欣网 > 码农

llm-answer-engine:开源且完成度很高的AI搜索引擎,可商业化落地

2024-04-29码农

项目简介

llm-answer-engine利用Next.js, Groq, Mixtral, Langchain, OpenAI, Brave和Serper等技术,构建了一个复杂的回答引擎,可以根据用户的查询有效地返回源信息、回答、图片、视频和后续问题。开发者可以通过这个项目学习如何整合多种技术来创建一个功能全面的搜索引擎。

扫码加入交流群

获得更多技术支持和交流

(请注明自己的职业)

技术应用

· Next.js:一个用于构建服务器端渲染和静态Web应用程序的React框架。

· Tailwind CSS:一个以实用性为首的CSS框架,用于快速构建定制的用户界面。

· Vercel AI SDK:一个用于构建基于AI的流式文本和聊天用户界面的库。

· Groq & Mixtral:用于处理和理解用户查询的技术。

· Langchain.JS:一个专注于文本操作的JavaScript库,如文本分割和嵌入。

· Brave Search:一个注重隐私的搜索引擎,用于获取相关内容和图片。

· Serper API:用于根据用户的查询获取相关视频和图片结果的API。

· OpenAI Embeddings:用于创建文本块的向量表示。 · Cheerio:用于HTML解析,允许从网页提取内容。

· Ollama(可选):用于流式推理和嵌入。

· Upstash Redis 限流(可选):用于设置应用程序的限流。

先决条件

· 确保您的机器上安装了 Node.js 和 npm。

· 从 OpenAI、Groq、Brave Search 和 Serper 获取 API 密钥。

安装

1.克隆代码库:

git clone https://github.com/developersdigest/llm-answer-engine.git

2.安装所需的依赖:

npm install

或者

bun install

3.在项目的根目录创建一个 .env 文件,并添加你的 API 密钥:

OPENAI_API_KEY=your_openai_api_keyGROQ_API_KEY=your_groq_api_keyBRAVE_SEARCH_API_KEY=your_brave_search_api_keySERPER_API=your_serper_api_key

运行服务器

要启动服务器,请执行:

npm run dev

或者

print f("hello world!");

服务器将在指定的端口监听。

编辑配置

配置文件位于 app/config.tsx 文件中。你可以修改以下值:

useOllamaInference: false,

useOllamaEmbeddings: false,

inferenceModel: 'mixtral-8x7b-32768',

inferenceAPIKey:process.env.GROQ_API_KEY,

embeddingsModel:'text-embedding-3-small',textChunkSize: 800,

textChunkOverlap: 200,

numberOfSimilarityResults: 2,

numberOfPagesToScan: 10,

nonOllamaBaseURL: 'https://api.groq.com/openai/v1'useFunctionCalling: true

useRateLimiting: false

Ollama 支持(部分支持)

目前,Ollama 支持流式文本响应,但尚不支持后续问题。

支持嵌入,但是使用本地嵌入模型和本地流式推理模型时,首次生成令牌的时间可能会很长。我建议减少在 app/config.tsx 文件中指定的 RAG 值,以减少使用 Ollama 时的首次生成令牌时间。

要开始使用,请确保您的本地机器上运行了 Ollama 模型,并在配置中设置您希望使用的模型,并将 useOllamaInference 和/或 useOllamaEmbeddings 设置为 true。

注意:当设置 'useOllamaInference' 为 true 时,模型将用于文本生成,但在使用 Ollama 时会跳过后续问题推理步骤。

路线图

添加 AI 网关以支持多个模型和嵌入。(OpenAI, Azure OpenAI, Anyscale, Google Gemini & Palm, Anthropic, Cohere, Together AI, Perplexity, Mistral, Nomic, AI21, Stability AI, DeepInfra, Ollama 等)

https://github.com/Portkey-AI/gateway

添加设置组件,允许用户从 UI 选择模型、嵌入模型和其他参数

当使用 Ollama 时增加对后续问题的支持

[完成 - 测试版] 增加对基于用户查询动态和条件渲染的 UI 组件的支持

[已完成] 根据用户的系统偏好添加暗黑模式支持

后端 + 仅限 Node 的 Express API

观看此 express 教程以获取有关设置和运行此项目的详细指南。除了 Next.JS 版本的项目外,还有一个仅后端的版本,使用 Node.js 和 Express。位于 'express-api' 目录中。这是项目的独立版本,可以作为构建类似 API 的参考。'express-api' 目录中还有一个 readme 文件,说明如何运行后端版本。

https://youtu.be/43ZCeBTcsS8

Upstash Redis 限流

观看此 Upstash Redis 限流教程以获取有关设置和运行此项目的详细指南。Upstash Redis 限流是一个免费层服务,允许您为您的应用程序设置限流。它提供了一个简单易用的界面,用于配置和管理限流。使用 Upstash,您可以轻松设置每个用户、IP 地址或其他标准的请求数量限制。这可以帮助防止滥用并确保您的应用程序不会因请求过多而不堪重负。

https://youtu.be/3_aNVu6EU3Y

项目链接

https://github.com/developersdigest/llm-answer-engine

关注「 开源AI项目落地 」公众号