Danil AI / docs
Dashboard

Integraciones

🧠

Embeddings (RAG)

Alimenta a tu agente con conocimiento personalizado mediante búsqueda semántica sobre tus propios documentos.

¿Qué es RAG?

Retrieval-Augmented Generation (RAG) permite al agente buscar en tu base de conocimiento antes de responder. En lugar de depender solo del modelo base, el agente recupera fragmentos relevantes de tus documentos y los usa como contexto.

Ideal para manuales de producto, FAQs, políticas de empresa, catálogos y cualquier información que cambia frecuentemente.

Configuración

1

Crear una base de conocimiento

Ve a Embeddings → Nueva base y da un nombre a tu colección.

2

Subir documentos

Arrastra PDFs, TXTs, URLs o pega texto directamente. Los documentos se procesan en ~30 seg.

3

Conectar al agente

Asigna la base de conocimiento al agente en su configuración.

4

Listo

El agente buscará en tus documentos automáticamente cuando sea relevante.

Fuentes soportadas

📄 PDF
📝 TXT / MD
🌐 URLs
📊 CSV
💬 Texto directo
📚 Notion (pronto)

Cómo funciona

Pipeline de RAG
1. IngestDocumento → chunks → vector embeddings → DB vectorial
2. QueryPregunta del usuario → embedding → búsqueda por similitud
3. RetrieveTop-K chunks más relevantes recuperados
4. GenerateLLM genera respuesta usando chunks como contexto