Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Advanced RAG: AI-basierte Retriever-Auswahl mit...

Marco Frodl
September 25, 2024

Advanced RAG: AI-basierte Retriever-Auswahl mit Turbo

Retrieval Augmented Generation (RAG) verwendet Daten aus Retrieval-Systemen wie Vector-DBs, um die relevanten Informationen zur Beantwortung einer Benutzeranfrage zu finden. In Real-World-Szenarien geht es häufig um mehrere Quellen (Retriever) mit unterschiedlichen Datenarten. Um den zur Frage passenden Retriever auszuwählen, können wir eine MultiRoute-Chain nutzen. Hierbei wählt das LLM dynamisch die semantisch am besten passende Datenquelle für die Suche. Allerdings verlängert dieser Ansatz die Antwortzeit unseres AI-Workflows und kostet Tokens - also Geld.
Geht das auch schneller und günstiger? Ja! Ein Semantic Router nutzt für die Quellenauswahl kein LLM sondern ein Embedding Modell. Dieser Ansatz liefert eine mit einem LLM vergleichbare Qualität bei der Quellenauswahl, jedoch in Millisekunden und zu einem Bruchteil der Kosten.
Mit Live-Coding implementieren wir in einem Sample unter Verwendung des LangChain-Frameworks zuerst eine MultiRoute-Chain und optimieren dann auf eine Variante mit Semantic Router. Letztendlich zeigen beide Ansätze, wie die Leistung von RAG bei der Beantwortung von Benutzeranfragen deutlich verbessert werden kann.

Marco Frodl

September 25, 2024
Tweet

More Decks by Marco Frodl

Other Decks in Programming

Transcript

  1. Advanced RAG AI-basierte Retriever-Auswahl mit Turbo Turbo 🚀 https://www.aurelio.ai/semantic-router Semantic

    Router is a superfast decision-making layer for your LLMs and agents. Rather than waiting for slow, unreliable LLM generations to make tool-use or safety decisions, we use the magic of semantic vector space — routing our requests using semantic meaning.
  2. Advanced RAG AI-basierte Retriever-Auswahl mit Turbo Turbo 🚀 in Numbers

    In my RAG example, a Semantic Router using remote services is 3.4 times faster than an LLM and it is 30 times less expensive. A local Semantic Router is 7.7 times faster than an LLM and it is 60 times less expensive.
  3. Advanced RAG AI-basierte Retriever-Auswahl mit Turbo About Me Marco Frodl

    Principal Consultant for Generative AI Thinktecture AG X: @marcofrodl E-Mail: [email protected] https://www.thinktecture.com/thinktects/marco-frodl/
  4. Advanced RAG AI-basierte Retriever-Auswahl mit Turbo Refresher: What is RAG?

    “Retrieval-Augmented Generation (RAG) extends the capabilities of LLMs to an organization's internal knowledge, all without the need to retrain the model.
  5. Advanced RAG AI-basierte Retriever-Auswahl mit Turbo Refresher: What is RAG?

    https://aws.amazon.com/what-is/retrieval-augmented-generation/ “Retrieval-Augmented Generation (RAG) extends the capabilities of LLMs to an organization's internal knowledge, all without the need to retrain the model. It references an authoritative knowledge base outside of its training data sources before generating a response”
  6. Ask me anything Advanced RAG AI-basierte Retriever-Auswahl mit Turbo Simple

    RAG Question Prepare Search Search Results Question Answer LLM Vector DB Embedding Model Question as Vector Workflow Terms - Retriever - Chain Elements Embedding- Model Vector- DB Python LLM LangChain
  7. Just one Vector DB/Retriever? • Multiple Generative AI-Apps • Scaling

    and Hosting • Query Parameter per Retriever • Prompts per Retriever • Fast Updates & Re-Indexing • Access Rights • Custom Retriever Advanced RAG AI-basierte Retriever-Auswahl mit Turbo What’s wrong with Simple RAG? On-Premise AI-Apps Cloud Docs Public Tickets Features Website Sales Docs Internal Tickets
  8. Best source determination before the search Advanced RAG AI-basierte Retriever-Auswahl

    mit Turbo Advanced RAG Question Retriever Selection 0-N Search Results Question Answer LLM Embedding Model Vector DB A Question as Vector Vector DB B LLM Prepare Search or
  9. Best source determination before the search Advanced RAG AI-basierte Retriever-Auswahl

    mit Turbo Advanced RAG w/ Semantic Router Question Retriever Selection 0-N Search Results Question Answer Embedding Model Vector DB A Question as Vector Vector DB B LLM Prepare Search or Embedding Model