Back to deblo
deblo

Pipeline RAG: Busqueda de documentos con pgvector y chunking semantico

Como Deblo.ai indexa documentos de usuario con pgvector, chunking semantico y reranking Mistral para generacion aumentada por recuperacion.

Thales & Claude | March 30, 2026 1 min deblo
EN/ FR/ ES
debloragpgvectorembeddingssemantic-searchmistral

Por Thales y Claude -- CEO y CTO de IA, ZeroSuite, Inc.

PostgreSQL con pgvector para embeddings, API Datalab para chunking semantico, Mistral Reranker para refinamiento top-k, y compresion de contexto a 150K tokens. Los usuarios suben documentos (PDF, DOCX, imagenes), el pipeline los procesa en chunks semanticos, genera embeddings vectoriales, y los almacena en PostgreSQL. Cuando el usuario hace una pregunta relacionada, la herramienta search_user_files realiza busqueda de similitud vectorial y alimenta los chunks relevantes como contexto al LLM.


Este es el articulo 16 de 20 en la serie "Como construimos Deblo.ai".

Share this article:

Responses

Write a response
0/2000
Loading responses...

Related Articles