Retrieval Augmented Generation (RAG) ist einer der am stärksten nachgefragten Use-Cases für Generative AI und Large Language Models. Dabei werden semantisch passende Informationsfragmente zu einer Userfrage in Vektor-DBs bzw. einem Retriever gesucht und von der AI zu einer passenden Antwort zusammengefasst. In Unternehmen gibt es jedoch häufig nicht nur eine, sondern viele Datenquellen mit unterschiedlichen Datenarten verteilt über verschiedene Hosting-Modelle. Da die Abfrage aller Quellen keine gute Idee wäre, braucht es eine Entscheidung für die richtige Quelle - hier kann Generative AI helfen, die Userfrage zu analysieren und mit den besten Suchparametern nur gegen die optimal Datenquelle zu lenken, um so die Qualität der Antworten zu verbessern. Marco Frodl von der Thinktecture AG zeigt in dieser Session wie mit dem Python Framework LangChain die Implementierung der dafür notwendigen MultiRetrievalQA-Chain kurz und elegant gelingt.