检索增强生成 — 一个搜索问题

搜索是与大型语言模型 (LLM) 协作以构建最佳生成式 AI 体验的关键基础设施。您只有一次机会提示 LLM 使用您的数据提供正确答案,因此相关性至关重要。使用 Elastic 将您的 LLM 与检索增强生成 (RAG) 相结合。

Video thumbnail

尝试自定进度的实践学习,学习如何构建 RAG 应用程序。

尝试实践学习

将 RAG 集成到您的应用程序中,并使用向量数据库尝试不同的 LLM。

在 Elasticsearch Labs 上了解更多信息

了解如何使用 Elasticsearch Relevance Engine™ 构建基于 RAG 的高级应用程序。

观看快速入门视频

Elastic 的优势

为企业规模的生产做好准备

  • 加速生成式 AI 体验

    借助 Elasticsearch,您可以快速且大规模地推出生成式 AI 体验。

  • 与 RAG 最相关的搜索引擎

    保持相关性,使用最前沿的搜索技术(文本、语义、向量、混合)、集成的重新排名工具和学习排序 (LTR)。

  • 简化模型选择

    利用我们的开放平台简化模型选择和管理,实现高效、有效且面向未来的 RAG 实施。

获得《财富》500 强企业的信赖,推动生成式 AI 创新

让您的数据为 RAG 做好准备

RAG 通过访问相关专有数据而无需重新训练来扩展 LLM 的功能。将 RAG 与 Elastic 结合使用时,您可以获得以下好处:

  • 最先进的搜索技术
  • 轻松选择模型并能够轻松更换模型
  • 通过安全文档和基于角色的访问控制,确保您的数据受到保护
检索增强生成 (RAG) 实际应用

转换搜索体验

什么是检索增强生成?

检索增强生成(RAG)是一种通过整合专有数据源的相关信息来增强文本生成的模式。通过向生成模型提供特定领域的上下文,RAG 提高了生成文本响应的准确性和相关性。

使用 Elasticsearch 创建高相关性上下文窗口,利用您的专有数据来改进大型语言模型 (LLM) 输出,并以安全高效的对话式体验交付信息。

RAG 如何与 ELASTIC 协同工作

使用 Elasticsearch 增强 RAG 工作流

了解如何在 RAG 工作流中使用 Elastic 增强生成式 AI 体验。使用专有数据源轻松同步实时信息,以获得最佳、最相关的生成式 AI 响应。

机器学习推理管道使用 Elasticsearch 的摄取处理器来高效提取嵌入。它无缝地结合了文本(BM25 匹配)和向量(kNN)搜索,检索出得分最高的文档,以生成上下文感知的响应。

用例

在您的私有数据集上运行的问答服务

使用 RAG 实现问答体验,Elasticsearch 作为向量数据库提供支持。

Elasticsearch - 部署最广泛的向量数据库

在两分钟内复制到本地进行试用

curl -fsSL https://elastic.co/start-local | sh
阅读文档

AI 搜索 —— 实际应用

  • 客户聚焦

    Consensus 使用 Elastic 先进的语义搜索和 AI 工具升级了学术研究平台。

  • 客户聚焦

    Cisco 在 Google Cloud 上利用 Elastic 打造 AI 驱动的搜索体验。

  • 客户聚焦

    佐治亚州立大学利用 AI 驱动的搜索增强了获取数据见解的能力,并致力于探索如何帮助学生申请助学金。

常见问题

在人工智能中,RAG 是什么?

检索增强生成(通常称为 RAG)是一种自然语言处理模式,使企业能够搜索专有数据源并提供大型语言模型的基础背景信息。这使得在生成式 AI 应用程序中能够实现更准确和更实时的响应。