-
Notifications
You must be signed in to change notification settings - Fork 19
Add RAG Documentation #161
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
base: main
Are you sure you want to change the base?
Changes from all commits
cbcdf02
eb3e6b3
985dc35
50d9d6d
c82260f
99dc05e
f2abae4
b641d82
87f5956
File filter
Filter by extension
Conversations
Jump to
Diff view
Diff view
There are no files selected for viewing
| Original file line number | Diff line number | Diff line change |
|---|---|---|
| @@ -0,0 +1,52 @@ | ||
| # RAG Retrieval | ||
|
|
||
| ## Introduction | ||
| Retrieval-Augmented Generation (RAG) retrieval is the process of searching a vector database for the most relevant information in response to a user query. | ||
|
|
||
| !!! note | ||
| - This guide assumes you have already ingested files into your vector store. If you haven't already follow the [Ingestion](rag-ingestion.md) guide on how you can do that. | ||
|
|
||
| To retrieve chunks that have already been ingested (without uploading new files), navigate to your organization using the **Organization** dropdown in the top left of the Devant console header. In the left navigation menu, click **RAG**, then select **Retrieval**. | ||
|
|
||
| ### Step 1: Initialize vector store | ||
|
|
||
| 1. Select `Pinecone` as the vector database. | ||
| 2. Enter the API key in the **API Key** field. | ||
|
|
||
| ???+ info "Info" | ||
| To create an API key, refer to the [Pinecone API key documentation](https://docs.pinecone.io/guides/projects/manage-api-keys#create-an-api-key). | ||
|
|
||
| 3. Enter the **Collection Name** from which you want to retrieve data. | ||
| 4. Click **Next**. | ||
|
|
||
| ### Step 2: Configure the embedding model | ||
|
|
||
| 1. Select `text-embedding-ada-002` embedding model from the **OpenAI** dropdown. | ||
| 2. Enter the API key in the **Embedding Model API Key** field. | ||
|
|
||
| ???+ info "Info" | ||
| To create an API key, refer to the [OpenAI platform documentation](https://platform.openai.com/docs/guides/embeddings). | ||
|
|
||
| 3. Click **Next**. | ||
|
|
||
| ### Step 3: Query and retrieve chunks | ||
|
|
||
| Execute queries to ensure proper data retrieval. | ||
|
|
||
| 1. Enter a query according to the content of the files ingested previously. | ||
| 2. **Maximum chunks to retrieve** and **Minimum similarity threshold** are automatically populated with default values. You can modify them if needed. | ||
|
|
||
| ???+ info "Info" | ||
| - **Maximum chunks to retrieve** defines the number of matching chunks to retrieve against the query. | ||
| - **Minimum similarity threshold** determines whether a chunk is relevant enough to be considered a match for a given query. Expressed as a value between 0 and 1 (for example, 0.7 or 70% similarity). | ||
|
|
||
| 3. Click **Retrieve**. The search results will display the chunks that match the query. | ||
|
|
||
| ???+ info "Info" | ||
| - Devant's retrieval process uses a reranking model to ensure that only the most accurate and contextually relevant chunks are returned. | ||
|
Comment on lines
+45
to
+46
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more.
Python-Markdown's admonition extension expects exactly 4 spaces of indentation for block content. The current 5-space indent ( ✏️ Proposed fix ???+ info "Info"
- - Devant's retrieval process uses a reranking model to ensure that only the most accurate and contextually relevant chunks are returned.
+ - Devant's retrieval process uses a reranking model to ensure that only the most accurate and contextually relevant chunks are returned.🤖 Prompt for AI Agents |
||
|
|
||
|  | ||
|
|
||
| After completing the RAG ingestion process, you can also implement a RAG retrieval to connect your vector database with user queries and generate responses using the WSO2 Integrator: BI. | ||
|
|
||
| For detailed implementation steps and configuration, refer to the [RAG retrieval](https://bi.docs.wso2.com/integration-guides/ai/rag/build-a-rag-application/#rag-retrieval) tutorial in the WSO2 Integrator: BI documentation. | ||
|
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. 🧩 Analysis chain🏁 Script executed: #!/bin/bash
# Check the HTTP status of the WSO2 BI RAG tutorial link
curl -o /dev/null -s -w "%{http_code}\n" \
"https://bi.docs.wso2.com/integration-guides/ai/rag/build-a-rag-application/#rag-retrieval"Repository: wso2/docs-devant Length of output: 63 Remove or replace the inaccessible external link. The referenced WSO2 Integrator: BI documentation link returns a 403 Forbidden status, making it inaccessible to users. Either provide a working link, embed the relevant information directly in the documentation, or remove the reference if the external resource is no longer available. 🤖 Prompt for AI Agents |
||
| Original file line number | Diff line number | Diff line change | ||||||||||||||||||||||||||||||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| @@ -0,0 +1,152 @@ | ||||||||||||||||||||||||||||||||||||||||||||||
| # RAG Service | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| ## Introduction | ||||||||||||||||||||||||||||||||||||||||||||||
| Devant provides a set of RESTful API endpoints for Retrieval-Augmented Generation (RAG) workflows. These endpoints enable you to ingest, retrieve, and process documents programmatically. | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| ### Step 1: Create service | ||||||||||||||||||||||||||||||||||||||||||||||
| Navigate to your organization using the **Organization** dropdown in the top left of the Devant console header. In the left navigation menu, click **RAG**, then select **Service**. | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| Fill in the required fields in the **Create RAG Ingestion Service** form to set up a new RAG service in Devant. | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| | **Field** | **Value** | | ||||||||||||||||||||||||||||||||||||||||||||||
| | ---------------- | ----------------- | | ||||||||||||||||||||||||||||||||||||||||||||||
| |**Project** | Select the target project from dropdown which lists the available projects in your organization | | ||||||||||||||||||||||||||||||||||||||||||||||
| | **Display Name** | Sample RAG Service | | ||||||||||||||||||||||||||||||||||||||||||||||
| | **Name** | sample-rag-service | | ||||||||||||||||||||||||||||||||||||||||||||||
| | **Description (Optional)** | My rag service description | | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| Click the **Create Service** button and your service will get created | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| !!! note | ||||||||||||||||||||||||||||||||||||||||||||||
| - When the service is created, Devant automatically increases the container resources (CPU and memory) to ensure reliable operation. | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| ### Step 2: Test endpoints | ||||||||||||||||||||||||||||||||||||||||||||||
| Once the component is created you will be redirected to the Overview page. | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| 1. On the development environment card, click **Test** to open the OpenAPI Console, where you will be able to try out all the available endpoints from the endpoint list. | ||||||||||||||||||||||||||||||||||||||||||||||
| 2. Expand the resource you want to test. | ||||||||||||||||||||||||||||||||||||||||||||||
| 3. Click Try it out to enable it. | ||||||||||||||||||||||||||||||||||||||||||||||
|
Comment on lines
+18
to
+28
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. Several minor prose issues in the Create/Test service steps.
✏️ Proposed fix-Click the **Create Service** button and your service will get created
+Click the **Create Service** button and your service will be created.-Once the component is created you will be redirected to the Overview page.
+Once the component is created, you will be redirected to the Overview page.-3. Click Try it out to enable it.
+3. Click **Try it out** to enable it.📝 Committable suggestion
Suggested change
🤖 Prompt for AI Agents |
||||||||||||||||||||||||||||||||||||||||||||||
| 4. Provide values for the parameters. | ||||||||||||||||||||||||||||||||||||||||||||||
| 5. Click **Execute**. The response will be displayed under the **Responses** section. | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| !!! note | ||||||||||||||||||||||||||||||||||||||||||||||
| - Some parameters are automatically populated with default values. You can modify them as needed. | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
|  | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| ### Available API endpoints | ||||||||||||||||||||||||||||||||||||||||||||||
| The image below shows how all the available endpoints are listed in the **Console** page. You can expand each endpoint and try them out as needed. | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
|  | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| #### **POST `/upload`** | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| Upload a file and ingest it into your vector store. Supports PDF (including scanned PDFs), DOCX, PPTX, XLSX, CSV, HTML, MD, images, and audio (MP3, WAV, M4A, FLAC, OGG). | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| **Required in the request:** | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| - File to upload. | ||||||||||||||||||||||||||||||||||||||||||||||
| - Vector DB provider (e.g., Pinecone, Chroma, Weaviate, Postgres) and connection/API key details. | ||||||||||||||||||||||||||||||||||||||||||||||
| - Collection name: where data will be stored. | ||||||||||||||||||||||||||||||||||||||||||||||
| - Embedding model provider and model (e.g., OpenAI, Azure, Mistral) and API key. | ||||||||||||||||||||||||||||||||||||||||||||||
| - Chunking strategy: `recursive`, `sentence`, or `character`. | ||||||||||||||||||||||||||||||||||||||||||||||
| - Max segment size and max overlap size for chunking. | ||||||||||||||||||||||||||||||||||||||||||||||
|
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. Terminology inconsistency between Line 53 ( Pick one term (e.g., "Max chunk size") and use it consistently across both endpoints. ✏️ Proposed fix-- Max segment size and max overlap size for chunking.
+- Max chunk size and max overlap size for chunking.📝 Committable suggestion
Suggested change
🤖 Prompt for AI Agents |
||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| **Expected response:** | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| Returns a JSON object indicating successful ingestion, including the file name and type. | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| ```json | ||||||||||||||||||||||||||||||||||||||||||||||
| { | ||||||||||||||||||||||||||||||||||||||||||||||
| "message": "Added data to vector store successfully", | ||||||||||||||||||||||||||||||||||||||||||||||
| "filename": "example.pdf", | ||||||||||||||||||||||||||||||||||||||||||||||
| "file_type": "document" | ||||||||||||||||||||||||||||||||||||||||||||||
| } | ||||||||||||||||||||||||||||||||||||||||||||||
| ``` | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| --- | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| #### **POST `/retrieve`** | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| Retrieve relevant chunks from your vector store based on a user query. Supports semantic search and optional reranking with Cohere. | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| **Required in the request:** | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| - Vector DB provider and connection/API key details. | ||||||||||||||||||||||||||||||||||||||||||||||
| - Name of the collection from which you want to retrieve chunks. | ||||||||||||||||||||||||||||||||||||||||||||||
| - Embedding model provider and model, and API key. | ||||||||||||||||||||||||||||||||||||||||||||||
| - User query for which you want to retrieve chunks. | ||||||||||||||||||||||||||||||||||||||||||||||
| - Max number of chunks to retrieve and minimum similarity threshold. | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| **Optional:** | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| - Cohere re-ranking model and API key (if using reranking) and the number of top results to rerank. | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| ???+ info "Info" | ||||||||||||||||||||||||||||||||||||||||||||||
| - To create a Cohere API key, refer to the [Cohere documentation](https://dashboard.cohere.com/api-keys). | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| **Expected response:** | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| Returns a JSON object containing the user query and an array of retrieved chunks. Each chunk includes the content, the file it is from, and a timestamp. | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| ```json | ||||||||||||||||||||||||||||||||||||||||||||||
| { | ||||||||||||||||||||||||||||||||||||||||||||||
| "query": "What is Devant?", | ||||||||||||||||||||||||||||||||||||||||||||||
| "retrieved_chunks": [ | ||||||||||||||||||||||||||||||||||||||||||||||
| { | ||||||||||||||||||||||||||||||||||||||||||||||
| "text": "Devant is ...", | ||||||||||||||||||||||||||||||||||||||||||||||
| "source": "example.pdf", | ||||||||||||||||||||||||||||||||||||||||||||||
| "timestamp": "2026-02-16T12:02:25.076312" | ||||||||||||||||||||||||||||||||||||||||||||||
| }, | ||||||||||||||||||||||||||||||||||||||||||||||
| ... | ||||||||||||||||||||||||||||||||||||||||||||||
| ] | ||||||||||||||||||||||||||||||||||||||||||||||
| } | ||||||||||||||||||||||||||||||||||||||||||||||
| ``` | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| --- | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| #### **POST `/chunks`** | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| Parse and chunk an uploaded file, returning the chunks as a JSON array. Does not store data in the vector DB. | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| This endpoint accepts all the same file types as the `/upload` endpoint, including PDF (with scanned PDF support), DOCX, PPTX, XLSX, CSV, HTML, MD, images, and audio files (MP3, WAV, M4A, FLAC, OGG). | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| **Required in the request:** | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| - File to upload. | ||||||||||||||||||||||||||||||||||||||||||||||
| - Chunk type: `recursive`, `sentence`, or `character`. | ||||||||||||||||||||||||||||||||||||||||||||||
| - Max chunk size and max overlap size. | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| **Expected response:** | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| Returns a JSON object containing the file name and an array of chunks. Each chunk includes a chunk ID and its content. | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| ```json | ||||||||||||||||||||||||||||||||||||||||||||||
| { | ||||||||||||||||||||||||||||||||||||||||||||||
| "filename": "example.pdf", | ||||||||||||||||||||||||||||||||||||||||||||||
| "chunks": [ | ||||||||||||||||||||||||||||||||||||||||||||||
| { "chunk_id": 0, "content": "First chunk content..." }, | ||||||||||||||||||||||||||||||||||||||||||||||
| { "chunk_id": 1, "content": "Second chunk content..." } | ||||||||||||||||||||||||||||||||||||||||||||||
| ] | ||||||||||||||||||||||||||||||||||||||||||||||
| } | ||||||||||||||||||||||||||||||||||||||||||||||
| ``` | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| --- | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| #### **GET `/health`** | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| Health check endpoint. | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| **Expected response:** | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| Returns a JSON object indicating the service status. | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| ```json | ||||||||||||||||||||||||||||||||||||||||||||||
| { | ||||||||||||||||||||||||||||||||||||||||||||||
| "status": "ok" | ||||||||||||||||||||||||||||||||||||||||||||||
| } | ||||||||||||||||||||||||||||||||||||||||||||||
| ``` | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| ???+ info "Info" | ||||||||||||||||||||||||||||||||||||||||||||||
| - For more details on RAG ingestion and retrieval, and how to obtain API keys and credentials refer the [RAG Ingestion](rag-ingestion.md) guide. | ||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||
| Original file line number | Diff line number | Diff line change |
|---|---|---|
| @@ -0,0 +1,66 @@ | ||
| # Schedule RAG Automation | ||
|
|
||
| ## Introduction | ||
|
|
||
| Devant provides a platform to automate document ingestion on a schedule and manage unstructured data for Retrieval-Augmented Generation (RAG) workflows. | ||
|
|
||
| This guide outlines the steps to set up scheduled RAG ingestion automation in Devant. | ||
|
|
||
| !!! note | ||
| - Schedule RAG ingestion option is available only for paid Devant users. | ||
| - This guide assumes you have completed steps 1 to 4 in the [RAG ingestion](rag-ingestion.md) guide. | ||
|
Comment on lines
+10
to
+11
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. 🧩 Analysis chain🏁 Script executed: #!/bin/bash
# Find and display all step headings in rag-ingestion.md
fd -e md -g "rag-ingestion.md" --exec cat -n {} | grep -E "^[^:]*:\s*#{2,4} (Step|step)"Repository: wso2/docs-devant Length of output: 42 🏁 Script executed: #!/bin/bash
# Find rag-ingestion.md in the repository
git ls-files | grep -i "rag-ingestion"Repository: wso2/docs-devant Length of output: 258 🏁 Script executed: #!/bin/bash
# Read rag-ingestion.md and find all step headings
cat -n en/docs/ai/rag-ingestion.md | grep -E "#{2,4} Step"Repository: wso2/docs-devant Length of output: 295 🏁 Script executed: #!/bin/bash
# View the exact content around line 11 in schedule-rag-automation.md to confirm the reference
head -15 en/docs/ai/schedule-rag-automation.md | tail -8Repository: wso2/docs-devant Length of output: 369 Update the prerequisite step reference to match the current RAG ingestion guide. Line 11 references "steps 1 to 4" in the RAG ingestion guide, but 🤖 Prompt for AI Agents |
||
|
|
||
| After selecting **Schedule RAG Ingestion** as the ingestion mode, follow these steps: | ||
|
|
||
| ### Step 1: Create automation | ||
| Fill in the required fields in the details form to create an automation in Devant for scheduled RAG ingestion. | ||
|
|
||
| | **Field** | **Value** | | ||
| | ---------------- | ----------------- | | ||
| |**Project** | Select the target project from dropdown which lists the available projects in your organization | | ||
| | **Display Name** | Sample Automation | | ||
| | **Name** | sample-automation | | ||
| | **Description (Optional)** | My sample automation description | | ||
|
|
||
|  | ||
|
|
||
| ### Step 2: Configure datasource | ||
|
|
||
| The datasource specifies the location from which files will be ingested. Devant supports both Google Drive folders and Amazon S3 buckets as datasources. | ||
|
|
||
| 1. Select `Google Drive` as the datasource. | ||
|
|
||
| 2. Enter the **API Key** in the API key field. | ||
|
|
||
| ???+ info "Info" | ||
| To obtain a key, use the [Google Cloud Console](https://console.cloud.google.com/) to create a project and generate a key as described in the [Google Documentation](https://cloud.google.com/docs/authentication/api-keys#create) and restrict it to the **Google Drive API**. | ||
|
|
||
| **Note:** The target folder must be **public** ("Anyone with the link"), as API keys cannot access private files. | ||
|
|
||
| 3. Provide the **Folder ID** of the Google Drive folder containing the files to be ingested. | ||
|
|
||
| ???+ info "Info" | ||
| The Google Drive folder ID can be found in the URL when viewing the folder in Google Drive. It is the string that appears after `/folders/` in the URL. | ||
|
Comment on lines
+29
to
+43
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. S3 datasource is mentioned as supported but its configuration steps are not documented. Line 29 explicitly states both Google Drive and Amazon S3 are supported, yet the guide only walks through Google Drive. Users choosing Either document the S3 configuration in a sub-section (parallel to the Google Drive sub-section), or note that S3 documentation is covered elsewhere and link to it. 🤖 Prompt for AI Agents |
||
|
|
||
| 4. Click **Create Automation** to complete the setup. You will be redirected to the automation overview page. | ||
|
|
||
| !!! note | ||
| - When a scheduled RAG ingestion automation is created, Devant automatically increases the container resources (CPU and memory) for the automation to ensure reliable operation. | ||
|
|
||
| - If you need to process very large files or expect high ingestion volumes, you can further scale your container resources in **Containers** tab from the **Admin** dropdown at the bottom of the left navigation. | ||
|
|
||
|  | ||
| ### Step 3: Schedule Ingestion | ||
|
|
||
| Once created, the automation is automatically deployed in the development environment with all previously entered configurations prefilled. | ||
|
|
||
| - To trigger an immediate ingestion, click the **Test** button. | ||
| - To schedule ingestion for a specific time interval, click the **Schedule** button and select your desired time. | ||
|
|
||
| You can verify successful ingestion by reviewing the automation logs. | ||
|
|
||
|  | ||
|
|
||
| As shown below, you can automate your ingestion workflow at specified intervals (e.g., minutely, hourly, daily, monthly). During each scheduled run, the system detects new files in the data source and ingests them into the vector store. | ||
|
|
||
|  | ||
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.