RAG-Anything Logo
# 🚀 RAG-Anything: All-in-One RAG System

--- ## 🎉 新闻 - [X] [2025.07.04]🎯📢 RAGAnything 现在支持多模态内容查询,实现了集成文本、图像、表格和公式处理的增强检索生成功能。 - [X] [2025.07.03]🎯📢 RAGAnything 在GitHub上达到了1K星标🌟!感谢您的支持和贡献。 --- ## 🌟 系统概述 *下一代多模态智能*
**RAG-Anything**是一个综合性多模态文档处理RAG系统。该系统能够无缝处理和查询包含文本、图像、表格、公式等多模态内容的复杂文档,提供完整的检索增强(RAG)生成解决方案。 RAG-Anything
### 🎯 核心特性
- **🔄 端到端多模态处理流水线** - 提供从文档解析到多模态查询响应的完整处理链路,确保系统的一体化运行 - **📄 多格式文档支持** - 支持PDF、Office文档(DOC/DOCX/PPT/PPTX/XLS/XLSX)、图像等主流文档格式的统一处理和解析 - **🧠 多模态内容分析引擎** - 针对图像、表格、公式和通用文本内容部署专门的处理器,确保各类内容的精准解析 - **🔗 基于知识图谱索引** - 实现自动化实体提取和关系构建,建立跨模态的语义连接网络 - **⚡ 灵活的处理架构** - 支持基于MinerU的智能解析模式和直接多模态内容插入模式,满足不同应用场景需求 - **🎯 跨模态检索机制** - 实现跨文本和多模态内容的智能检索,提供精准的信息定位和匹配能力
--- ## 🏗️ 算法原理与架构
### 核心算法 **RAG-Anything** 采用灵活的分层架构设计,实现多阶段多模态处理流水线,将传统RAG系统扩展为支持异构内容类型的综合处理平台。
📄
文档解析
🧠
内容分析
🔍
知识图谱
🎯
智能检索
### 1. 文档解析阶段
该系统构建了高精度文档解析平台,通过结构化提取引擎实现多模态元素的完整识别与提取。系统采用自适应内容分解机制,智能分离文档中的文本、图像、表格、公式等异构内容,并保持其语义关联性。同时支持PDF、Office文档、图像等主流格式的统一处理,提供标准化的多模态内容输出。 **核心组件:** - **⚙️ 结构化提取引擎**:集成 [MinerU](https://github.com/opendatalab/MinerU) 文档解析框架,实现精确的文档结构识别与内容提取,确保多模态元素的完整性和准确性。 - **🧩 自适应内容分解机制**:建立智能内容分离系统,自动识别并提取文档中的文本块、图像、表格、公式等异构元素,保持元素间的语义关联关系。 - **📁 多格式兼容处理**:部署专业化解析器矩阵,支持PDF、Office文档系列(DOC/DOCX/PPT/PPTX/XLS/XLSX)、图像等主流格式的统一处理与标准化输出。
### 2. 多模态内容理解与处理
该多模态内容处理系统通过自主分类路由机制实现异构内容的智能识别与优化分发。系统采用并发多流水线架构,确保文本和多模态内容的高效并行处理,在最大化吞吐量的同时保持内容完整性,并能完整提取和保持原始文档的层次结构与元素关联关系。 **核心组件:** - **🎯 自主内容分类与路由**:自动识别、分类并将不同内容类型路由至优化的执行通道。 - **⚡ 并发多流水线架构**:通过专用处理流水线实现文本和多模态内容的并发执行。这种方法在保持内容完整性的同时最大化吞吐效率。 - **🏗️ 文档层次结构提取**:在内容转换过程中提取并保持原始文档的层次结构和元素间关系。
### 3. 多模态分析引擎
系统部署了面向异构数据模态的模态感知处理单元: **专用分析器:** - **🔍 视觉内容分析器**: - 集成视觉模型进行图像分析和内容识别 - 基于视觉语义生成上下文感知的描述性标题 - 提取视觉元素间的空间关系和层次结构 - **📊 结构化数据解释器**: - 对表格和结构化数据格式进行系统性解释 - 实现数据趋势分析的统计模式识别算法 - 识别多个表格数据集间的语义关系和依赖性 - **📐 数学表达式解析器**: - 高精度解析复杂数学表达式和公式 - 提供原生LaTeX格式支持以实现与学术工作流的无缝集成 - 建立数学方程与领域特定知识库间的概念映射 - **🔧 可扩展模态处理器**: - 为自定义和新兴内容类型提供可配置的处理框架 - 通过插件架构实现新模态处理器的动态集成 - 支持专用场景下处理流水线的运行时配置
### 4. 多模态知识图谱索引
多模态知识图谱构建模块将文档内容转换为结构化语义表示。系统提取多模态实体,建立跨模态关系,并保持层次化组织结构。通过加权相关性评分实现优化的知识检索。 **核心功能:** - **🔍 多模态实体提取**:将重要的多模态元素转换为结构化知识图谱实体。该过程包括语义标注和元数据保存。 - **🔗 跨模态关系映射**:在文本实体和多模态组件之间建立语义连接和依赖关系。通过自动化关系推理算法实现这一功能。 - **🏗️ 层次结构保持**:通过"归属于"关系链维护原始文档组织结构。这些关系链保持逻辑内容层次和章节依赖关系。 - **⚖️ 加权关系评分**:为关系类型分配定量相关性分数。评分基于语义邻近性和文档结构内的上下文重要性。
### 5. 模态感知检索
混合检索系统结合向量相似性搜索与图遍历算法,实现全面的内容检索。系统实现模态感知排序机制,并维护检索元素间的关系一致性,确保上下文集成的信息传递。 **检索机制:** - **🔀 向量-图谱融合**:集成向量相似性搜索与图遍历算法。该方法同时利用语义嵌入和结构关系实现全面的内容检索。 - **📊 模态感知排序**:实现基于内容类型相关性的自适应评分机制。系统根据查询特定的模态偏好调整排序结果。 - **🔗 关系一致性维护**:维护检索元素间的语义和结构关系。确保信息传递的连贯性和上下文完整性。
--- ## 🚀 快速开始 *启动您的AI之旅*
### 安装 #### 选项1:从PyPI安装(推荐) ```bash # 基础安装 pip install raganything # 安装包含扩展格式支持的可选依赖: pip install 'raganything[all]' # 所有可选功能 pip install 'raganything[image]' # 图像格式转换 (BMP, TIFF, GIF, WebP) pip install 'raganything[text]' # 文本文件处理 (TXT, MD) pip install 'raganything[image,text]' # 多个功能组合 ``` #### 选项2:从源码安装 ```bash git clone https://github.com/HKUDS/RAG-Anything.git cd RAG-Anything pip install -e . # 安装可选依赖 pip install -e '.[all]' ``` #### 可选依赖 - **`[image]`** - 启用BMP、TIFF、GIF、WebP图像格式处理(需要Pillow) - **`[text]`** - 启用TXT和MD文件处理(需要ReportLab) - **`[all]`** - 包含所有Python可选依赖 > **⚠️ Office文档处理配置要求:** > - Office文档 (.doc, .docx, .ppt, .pptx, .xls, .xlsx) 需要安装 **LibreOffice** > - 从[LibreOffice官网](https://www.libreoffice.org/download/download/)下载安装 > - **Windows**:从官网下载安装包 > - **macOS**:`brew install --cask libreoffice` > - **Ubuntu/Debian**:`sudo apt-get install libreoffice` > - **CentOS/RHEL**:`sudo yum install libreoffice` **检查MinerU安装:** ```bash # 验证安装 mineru --version # 检查是否正确配置 python -c "from raganything import RAGAnything; rag = RAGAnything(); print('✅ MinerU安装正常' if rag.check_mineru_installation() else '❌ MinerU安装有问题')" ``` 模型在首次使用时自动下载。手动下载参考[MinerU模型源配置](https://github.com/opendatalab/MinerU/blob/master/README_zh-CN.md#22-%E6%A8%A1%E5%9E%8B%E6%BA%90%E9%85%8D%E7%BD%AE): ### 使用示例 #### 1. 端到端文档处理 ```python import asyncio from raganything import RAGAnything from lightrag.llm.openai import openai_complete_if_cache, openai_embed from lightrag.utils import EmbeddingFunc async def main(): # 初始化RAGAnything rag = RAGAnything( working_dir="./rag_storage", llm_model_func=lambda prompt, system_prompt=None, history_messages=[], **kwargs: openai_complete_if_cache( "gpt-4o-mini", prompt, system_prompt=system_prompt, history_messages=history_messages, api_key="your-api-key", **kwargs, ), vision_model_func=lambda prompt, system_prompt=None, history_messages=[], image_data=None, **kwargs: openai_complete_if_cache( "gpt-4o", "", system_prompt=None, history_messages=[], messages=[ {"role": "system", "content": system_prompt} if system_prompt else None, {"role": "user", "content": [ {"type": "text", "text": prompt}, {"type": "image_url", "image_url": {"url": f"data:image/jpeg;base64,{image_data}"}} ]} if image_data else {"role": "user", "content": prompt} ], api_key="your-api-key", **kwargs, ) if image_data else openai_complete_if_cache( "gpt-4o-mini", prompt, system_prompt=system_prompt, history_messages=history_messages, api_key="your-api-key", **kwargs, ), embedding_func=EmbeddingFunc( embedding_dim=3072, max_token_size=8192, func=lambda texts: openai_embed( texts, model="text-embedding-3-large", api_key=api_key, base_url=base_url, ), ), ) # 处理文档 await rag.process_document_complete( file_path="path/to/your/document.pdf", output_dir="./output", parse_method="auto" ) # 查询处理后的内容 # 纯文本查询 - 基本知识库搜索 text_result = await rag.aquery( "文档的主要内容是什么?", mode="hybrid" ) print("文本查询结果:", text_result) # 多模态查询 - 包含具体多模态内容的查询 multimodal_result = await rag.aquery_with_multimodal( "分析这个性能数据并解释与现有文档内容的关系", multimodal_content=[{ "type": "table", "table_data": """系统,准确率,F1分数 RAGAnything,95.2%,0.94 基准方法,87.3%,0.85""", "table_caption": "性能对比结果" }], mode="hybrid" ) print("多模态查询结果:", multimodal_result) if __name__ == "__main__": asyncio.run(main()) ``` #### 2. 直接多模态内容处理 ```python import asyncio from lightrag import LightRAG from raganything.modalprocessors import ImageModalProcessor, TableModalProcessor async def process_multimodal_content(): # 初始化LightRAG rag = LightRAG( working_dir="./rag_storage", # ... 你的LLM和嵌入配置 ) await rag.initialize_storages() # 处理图像 image_processor = ImageModalProcessor( lightrag=rag, modal_caption_func=your_vision_model_func ) image_content = { "img_path": "path/to/image.jpg", "img_caption": ["图1:实验结果"], "img_footnote": ["数据收集于2024年"] } description, entity_info = await image_processor.process_multimodal_content( modal_content=image_content, content_type="image", file_path="research_paper.pdf", entity_name="实验结果图表" ) # 处理表格 table_processor = TableModalProcessor( lightrag=rag, modal_caption_func=your_llm_model_func ) table_content = { "table_body": """ | 方法 | 准确率 | F1分数 | |------|--------|--------| | RAGAnything | 95.2% | 0.94 | | 基准方法 | 87.3% | 0.85 | """, "table_caption": ["性能对比"], "table_footnote": ["测试数据集结果"] } description, entity_info = await table_processor.process_multimodal_content( modal_content=table_content, content_type="table", file_path="research_paper.pdf", entity_name="性能结果表格" ) if __name__ == "__main__": asyncio.run(process_multimodal_content()) ``` #### 3. 批量处理 ```python # 处理多个文档 await rag.process_folder_complete( folder_path="./documents", output_dir="./output", file_extensions=[".pdf", ".docx", ".pptx"], recursive=True, max_workers=4 ) ``` #### 4. 自定义模态处理器 ```python from raganything.modalprocessors import GenericModalProcessor class CustomModalProcessor(GenericModalProcessor): async def process_multimodal_content(self, modal_content, content_type, file_path, entity_name): # 你的自定义处理逻辑 enhanced_description = await self.analyze_custom_content(modal_content) entity_info = self.create_custom_entity(enhanced_description, entity_name) return await self._create_entity_and_chunk(enhanced_description, entity_info, file_path) ``` #### 5. 查询选项 RAG-Anything 提供两种类型的查询方法: **纯文本查询** - 使用LightRAG直接进行知识库搜索: ```python # 文本查询的不同模式 text_result_hybrid = await rag.aquery("你的问题", mode="hybrid") text_result_local = await rag.aquery("你的问题", mode="local") text_result_global = await rag.aquery("你的问题", mode="global") text_result_naive = await rag.aquery("你的问题", mode="naive") # 同步版本 sync_text_result = rag.query("你的问题", mode="hybrid") ``` **多模态查询** - 包含多模态内容分析的增强查询: ```python # 包含表格数据的查询 table_result = await rag.aquery_with_multimodal( "比较这些性能指标与文档内容", multimodal_content=[{ "type": "table", "table_data": """方法,准确率,速度 LightRAG,95.2%,120ms 传统方法,87.3%,180ms""", "table_caption": "性能对比" }], mode="hybrid" ) # 包含公式内容的查询 equation_result = await rag.aquery_with_multimodal( "解释这个公式及其与文档内容的相关性", multimodal_content=[{ "type": "equation", "latex": "P(d|q) = \\frac{P(q|d) \\cdot P(d)}{P(q)}", "equation_caption": "文档相关性概率" }], mode="hybrid" ) ``` #### 6. 加载已存在的LightRAG实例 ```python import asyncio from raganything import RAGAnything from lightrag import LightRAG from lightrag.llm.openai import openai_complete_if_cache, openai_embed from lightrag.utils import EmbeddingFunc import os async def load_existing_lightrag(): # 首先,创建或加载已存在的LightRAG实例 lightrag_working_dir = "./existing_lightrag_storage" # 检查是否存在之前的LightRAG实例 if os.path.exists(lightrag_working_dir) and os.listdir(lightrag_working_dir): print("✅ 发现已存在的LightRAG实例,正在加载...") else: print("❌ 未找到已存在的LightRAG实例,将创建新实例") # 使用您的配置创建/加载LightRAG实例 lightrag_instance = LightRAG( working_dir=lightrag_working_dir, llm_model_func=lambda prompt, system_prompt=None, history_messages=[], **kwargs: openai_complete_if_cache( "gpt-4o-mini", prompt, system_prompt=system_prompt, history_messages=history_messages, api_key="your-api-key", **kwargs, ), embedding_func=EmbeddingFunc( embedding_dim=3072, max_token_size=8192, func=lambda texts: openai_embed( texts, model="text-embedding-3-large", api_key=api_key, base_url=base_url, ), ) ) # 初始化存储(如果有现有数据,这将加载它们) await lightrag_instance.initialize_storages() # 现在使用已存在的LightRAG实例初始化RAGAnything rag = RAGAnything( lightrag=lightrag_instance, # 传入已存在的LightRAG实例 # 只需要为多模态处理配置vision model vision_model_func=lambda prompt, system_prompt=None, history_messages=[], image_data=None, **kwargs: openai_complete_if_cache( "gpt-4o", "", system_prompt=None, history_messages=[], messages=[ {"role": "system", "content": system_prompt} if system_prompt else None, {"role": "user", "content": [ {"type": "text", "text": prompt}, {"type": "image_url", "image_url": {"url": f"data:image/jpeg;base64,{image_data}"}} ]} if image_data else {"role": "user", "content": prompt} ], api_key="your-api-key", **kwargs, ) if image_data else openai_complete_if_cache( "gpt-4o-mini", prompt, system_prompt=system_prompt, history_messages=history_messages, api_key="your-api-key", **kwargs, ) # 注意:working_dir、llm_model_func、embedding_func等都从lightrag_instance继承 ) # 查询已存在的知识库 result = await rag.query_with_multimodal( "这个LightRAG实例中处理了哪些数据?", mode="hybrid" ) print("查询结果:", result) # 向已存在的LightRAG实例添加新的多模态文档 await rag.process_document_complete( file_path="path/to/new/multimodal_document.pdf", output_dir="./output" ) if __name__ == "__main__": asyncio.run(load_existing_lightrag()) ``` --- ## 🛠️ 示例 *实际应用演示*
`examples/` 目录包含完整的使用示例: - **`raganything_example.py`**:基于MinerU的端到端文档处理 - **`modalprocessors_example.py`**:直接多模态内容处理 - **`office_document_test.py`**:Office文档解析测试(无需API密钥) - **`image_format_test.py`**:图像格式解析测试(无需API密钥) - **`text_format_test.py`**:文本格式解析测试(无需API密钥) **运行示例:** ```bash # 端到端处理 python examples/raganything_example.py path/to/document.pdf --api-key YOUR_API_KEY # 直接模态处理 python examples/modalprocessors_example.py --api-key YOUR_API_KEY # Office文档解析测试(仅MinerU功能) python examples/office_document_test.py --file path/to/document.docx # 图像格式解析测试(仅MinerU功能) python examples/image_format_test.py --file path/to/image.bmp # 文本格式解析测试(仅MinerU功能) python examples/text_format_test.py --file path/to/document.md # 检查LibreOffice安装 python examples/office_document_test.py --check-libreoffice --file dummy # 检查PIL/Pillow安装 python examples/image_format_test.py --check-pillow --file dummy # 检查ReportLab安装 python examples/text_format_test.py --check-reportlab --file dummy ``` > **注意**:API密钥仅在完整RAG处理和LLM集成时需要。解析测试文件(`office_document_test.py`、`image_format_test.py` 和 `text_format_test.py`)仅测试MinerU功能,无需API密钥。 --- ## 🔧 配置 *系统优化参数* ### 环境变量 创建 `.env` 文件(参考 `.env.example`): ```bash OPENAI_API_KEY=your_openai_api_key OPENAI_BASE_URL=your_base_url # 可选 ``` ### MinerU配置 MinerU 2.0使用简化的配置方式: ```bash # MinerU 2.0使用命令行参数而不是配置文件 # 查看可用选项: mineru --help # 常用配置: mineru -p input.pdf -o output_dir -m auto # 自动解析模式 mineru -p input.pdf -o output_dir -m ocr # OCR重点解析 mineru -p input.pdf -o output_dir -b pipeline --device cuda # GPU加速 ``` 你也可以通过RAGAnything参数配置MinerU: ```python # 配置解析行为 await rag.process_document_complete( file_path="document.pdf", parse_method="auto", # 或 "ocr", "txt" device="cuda", # GPU加速 backend="pipeline", # 解析后端 lang="ch" # 语言优化 ) ``` > **注意**:MinerU 2.0不再使用 `magic-pdf.json` 配置文件。所有设置现在通过命令行参数或函数参数传递。 ### 处理要求 不同内容类型需要特定的可选依赖: - **Office文档** (.doc, .docx, .ppt, .pptx, .xls, .xlsx): 安装并配置 [LibreOffice](https://www.libreoffice.org/download/download/) - **扩展图像格式** (.bmp, .tiff, .gif, .webp): 使用 `pip install raganything[image]` 安装 - **文本文件** (.txt, .md): 使用 `pip install raganything[text]` 安装 > **📋 快速安装**: 使用 `pip install raganything[all]` 启用所有格式支持(仅Python依赖 - LibreOffice仍需单独安装) --- ## 🧪 支持的内容类型 ### 文档格式 - **PDF** - 研究论文、报告、演示文稿 - **Office文档** - DOC、DOCX、PPT、PPTX、XLS、XLSX - **图像** - JPG、PNG、BMP、TIFF、GIF、WebP - **文本文件** - TXT、MD ### 多模态元素 - **图像** - 照片、图表、示意图、截图 - **表格** - 数据表、对比图、统计摘要 - **公式** - LaTeX格式的数学公式 - **通用内容** - 通过可扩展处理器支持的自定义内容类型 *格式特定依赖的安装说明请参见[配置](#-配置)部分。* --- ## 📖 引用 *学术参考*
📖
```bibtex @article{guo2024lightrag, title={LightRAG: Simple and Fast Retrieval-Augmented Generation}, author={Zirui Guo and Lianghao Xia and Yanhua Yu and Tu Ao and Chao Huang}, year={2024}, eprint={2410.05779}, archivePrefix={arXiv}, primaryClass={cs.IR} } ``` --- ## 🔗 相关项目 *生态系统与扩展*
LightRAG
简单快速的RAG系统
🎥
VideoRAG
超长上下文视频RAG系统
MiniRAG
极简RAG系统
--- ## ⭐ Star History *社区增长轨迹*
Star History Chart
--- ## 🤝 贡献者 *加入创新*
感谢所有贡献者!
---
感谢您访问RAG-Anything!
构建多模态AI的未来
Closing Animation