Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Agentic RAG: das beste aus zwei (AI) Welten

Agentic RAG: das beste aus zwei (AI) Welten

Stell dir vor, du hast ein AI-basiertes System, das zur autonomen Umsetzung von Aufgaben nicht nur eigenständig denken und planen kann (Agentic AI), sondern darüber hinaus auch in der Lage ist, die für die Ausführung der Aufgaben notwendigen Informationen und Daten aus verschiedensten Quellen zielgerichtet abzufragen und aufzubereiten (Retrieval-augmented Generation). Willkommen in der Wunderwelt der Agentic RAG. Egal ob Customer Support, Healthcare, Education, Business Intelligence oder Scientific Research: die Anwendungsfälle scheinen unbegrenzt! Die Session gibt einen Einblick in den Aufbau und die Arbeitsweise von Agentic RAGs. Anhand von konkreten, praktischen Beispielen werden verschiedenste Anwendungsszenarien aufgezeigt und die Vorteile/Nachteile von Agentic RAG gegenüber traditioneller RAG diskutiert. Ein abschließender Praxischeck zeigt, welche Aspekte zusätzlich für den produktiven Einsatz geeignet sind.

Avatar for Lars Roewekamp

Lars Roewekamp PRO

November 07, 2025
Tweet

More Decks by Lars Roewekamp

Other Decks in Technology

Transcript

  1. „Was ist das schönste Reiseziel der Welt?“ GEN AI MODEL

    USER PROMPT „Es gibt viele schöne Orte auf der Welt, … .“
  2. „Was ist das schönste Reiseziel der Welt?“ GEN AI MODEL

    USER PROMPT SYSTEM PROMPT: „Du bist ein Reiseberater Assistent …“ + CONTEXT + „Das schönste Reiseziel für Dich ist … .“
  3. Wie generiert das LLM die Antwort? Die Idee: Frage und

    Antwort liegen SEMANTISCH dicht beieinander.
  4. Die Idee: Frage und Antwort liegen SEMANTISCH dicht beieinander. Die

    semantische Nähe wird MATHEMATISCH mit Hilfe von Vektoren abgebildet. Wie generiert das LLM die Antwort?
  5. Hund Katze Tiger Maus Hamburg Berlin Madrid Amazonas Embedding Model

    0.6 0.3 0.1 … 0.8 0.5 0.3 … 0.4 0.2 0.9 … Embeddings (semantische Vektoren)
  6. Hund Katze Tiger Maus Hamburg Berlin Madrid Amazonas Embedding Model

    0.6 0.3 0.1 … 0.8 0.5 0.3 … 0.4 0.2 0.9 … Embeddings (semantische Vektoren) Berlin: Stadt, Europa, Hauptstadt von Deutschland, …
  7. Hund Katze Maus Tiger Hamburg Berlin Madrid Amazonas Embedding Model

    0.6 0.3 0.1 … 0.8 0.5 0.3 … 0.4 0.2 0.9 … Hund Katze Tiger Maus Hamburg Berlin Madrid Amazonas Berlin: Stadt, Europa, Hauptstadt von Deutschland, …
  8. Hund Katze Maus Tiger Hamburg Berlin Madrid Amazonas Embedding Model

    0.6 0.3 0.1 … 0.8 0.5 0.3 … 0.4 0.2 0.9 … Hund Katze Tiger Maus Hamburg Berlin Madrid Amazonas
  9. Hund Katze Maus Tiger Hamburg Berlin Madrid Amazonas „Kannst du

    mir ein paar europäische Hauptstädte nennen?“ Embedding Model 0.8 0.5 0.4 … „Kannst du mir …“: Stadt, Europa, Hauptstadt, … FRAGE:
  10. Hund Katze Maus Tiger Hamburg Berlin Madrid Amazonas Embedding Model

    0.8 0.5 0.4 … „Kannst du mir …“: Stadt, Europa, Hauptstadt, … „Kannst du mir ein paar europäische Hauptstädte nennen?“ FRAGE:
  11. Hund Katze Maus Tiger Hamburg Berlin Madrid Amazonas Embedding Model

    0.8 0.5 0.4 … „Kannst du mir …“: Stadt, Europa, Hauptstadt, … Unser Ziel? „Kannst du mir ein paar europäische Hauptstädte nennen?“ FRAGE:
  12. Hamburg Berlin Madrid Amazonas Unser Ziel? Alles dafür tun, dass

    „Frage“ und „Antwort“ möglichst dicht beieinander liegen!
  13. man woman king queen queen – woman + man =

    king Ok, aber was ist jetzt das Tolle daran? Wir können damit rechnen und „verstehen“.
  14. man woman king queen Ok, aber was ist jetzt das

    Tolle daran? Wir können damit rechnen und „verstehen“. doctor – man + woman = ?
  15. man woman king queen Ok, aber was ist jetzt das

    Tolle daran? Wir können damit rechnen und „verstehen“. doctor – man + woman = nurse
  16. „Was ist das schönste Reiseziel der Welt?“ GEN AI MODEL

    USER PROMPT SYSTEM PROMPT: „Du bist ein Reiseberater Assistent …“ + CONTEXT „Das schönste Reiseziel der Welt ist … !“ +
  17. GEN AI MODEL USER PROMPT + CONTEXT SYSTEM PROMPT +

    Und das funktioniert wirklich auch für REAL LIFE PROBLEME?
  18. GEN AI MODEL USER PROMPT + CONTEXT SYSTEM PROMPT +

    Ja, wenn du deine HAUSAUFGABEN machst!
  19. GEN AI MODEL USER PROMPT Welches Model? Welche Parameter? Welche

    Infrastruktur? Welche Lizenz? Welches Preismodell? Welche Governance? 2 1 Parts of a Prompt System vs User Prompt Principles of Prompting Patterns of Prompting Context Window Query vs Chat + CONTEXT SYSTEM PROMPT + Deine HAUSAUFGABEN
  20. GEN AI MODEL USER PROMPT „Was ist das schönste Reiseziel

    der Welt?“ „Du bist ein Human Resources Assistent …“ +
  21. GEN AI MODEL USER PROMPT „Wie beantrage ich Urlaub bei

    open knowledge?“ „Das wüsste ich auch gerne… !“ „Du bist ein Human Resources Assistent …“ +
  22. GEN AI MODEL USER PROMPT „Wie beantrage ich Urlaub bei

    open knowledge?“ „Du musst das Formular A123 ausfüllen.“ + „Du bist ein Human Resources Assistent …“
  23. GEN AI MODEL USER PROMPT „Wie beantrage ich Urlaub bei

    open knowledge?“ „ok HR-Assistent via https://... aufrufen und …“ + Urlaubsregelung von open knowledge + „Du bist ein Human Resources Assistent …“
  24. GEN AI MODEL USER PROMPT „Wie aktiviere ich die Alarmanlage

    bei open knowledge?“ Urlaubsregelung von open knowledge + + „Du bist ein Human Resources Assistent …“
  25. GEN AI MODEL USER PROMPT „Wie aktiviere ich die Alarmanlage

    bei open knowledge?“ Urlaubsregelung & Alarmanlage von open knowledge + + „Du bist ein Human Resources Assistent …“
  26. GEN AI MODEL USER PROMPT „Wie mache ich was auch

    immer bei open knowledge?“ Alles „Wissen“ von open knowledge + + „Du bist ein Human Resources Assistent …“
  27. GEN AI MODEL USER PROMPT „Wie mache ich was auch

    immer bei open knowledge?“ Alles „Wissen“ von open knowledge + ERROR: Token-Limit Exception Context Window
  28. GEN AI MODEL USER PROMPT „Wie mache ich was auch

    immer bei open knowledge?“ Alles „Wissen“ von open knowledge + ERROR: Out-of-Budget Exception Context Window
  29. GEN AI MODEL USER PROMPT „Wie mache ich was auch

    immer bei open knowledge?“ Alles „Wissen“ von open knowledge + WARNING: Lost-in-the-Middle Context Window
  30. GEN AI MODEL USER PROMPT „Wie mache ich was auch

    immer bei open knowledge?“ Alles „Wissen“ von open knowledge + WARNING: Self-fulfilling Prophecy Small Context Window
  31. GEN AI MODEL USER PROMPT „Wie mache ich was auch

    immer bei open knowledge?“ Alles „Wissen“ von open knowledge Hmm, was jetzt?
  32. GEN AI MODEL USER PROMPT „Wie mache ich was auch

    immer bei open knowledge?“ Alles „Wissen“ von open knowledge Alles „Wissen“ von open knowledge What if … ?
  33. OK GEN AI MODEL USER PROMPT „Wie mache ich was

    auch immer bei open knowledge?“ Alles „Wissen“ von open knowledge Option 1: Eigenes Modell von Grund auf bauen ERROR: Way-to-complex ERROR: Way-to-expensive
  34. OK GEN AI MODEL USER PROMPT „Wie mache ich was

    auch immer bei open knowledge?“ Alles „Wissen“ von open knowledge WARNING: kind-of-complex WARNING: out-of-sync Option 2: Bestehendes Modell fine-tunen
  35. OK GEN AI MODEL USER PROMPT „Wie mache ich was

    auch immer bei open knowledge?“ Model Enrichment Prompt Enrichment Hmm, was jetzt v2?
  36. USER PROMPT GEN AI MODEL „Wie mache ich was auch

    immer bei open knowledge?“ SOME MAGIC Some „Magic“ in the Middle
  37. USER PROMPT GEN AI MODEL „Wie mache ich was auch

    immer bei open knowledge?“ SOME MAGIC Generation R etrieval A ugmented
  38. Retrieval … … suche die Textfragmente aus der Wissensbasis heraus,

    die für die Beantwortung der Ausgangsfrage hilfreich sein könnten. Augmented … … ergänze ein vorgegebenes Prompt-Template um den originären User Prompt und die gefundenen Textfragmente. Generation … … generiere mit Hilfe eines LLMs aus dem angereicherten Prompt-Template die passende Antwort auf die originäre Anfrage.
  39. USER PROMPT GEN AI MODEL „Wie mach ich XYZ bei

    open knowledge?“ SOME MAGIC Generation R etrieval A ugmented
  40. RETRIEVAL PIPELINE (verantwortlich dafür, dass etwa gefunden wird) LLM USER

    QUERY RETRIEVAL PIPELINE (verantwortlich dafür, dass etwa gefunden wird) INGESTING PIPELINE (verantwortlich dafür, dass etwa gefunden werden kann)
  41. RETRIEVAL PIPELINE (verantwortlich dafür, dass etwa gefunden wird) LLM USER

    QUERY RETRIEVAL PIPELINE (verantwortlich dafür, dass etwa gefunden wird) INGESTING PIPELINE (verantwortlich dafür, dass etwa gefunden werden kann) Database (Vector + Meta Data)
  42. Chunking Embedding via Chunking Strategy (fixed, semantic, paragraph) via Embedding

    Model (Text -> Vector) INGESTING PIPELINE LLM 1 2 3 RETRIEVAL PIPELINE
  43. RETRIEVAL PIPELINE (verantwortlich dafür, dass etwa gefunden wird) RETRIEVAL PIPELINE

    Top-k Fetching Result Reranking Query Embedding Prompt Augmenting LLM 1 2 3 4 5 Chunking Embedding via Chunking Strategy (fixed, semantic, paragraph) via Embedding Model (Text -> Vector) INGESTING PIPELINE
  44. RETRIEVAL PIPELINE (verantwortlich dafür, dass etwa gefunden wird) RETRIEVAL PIPELINE

    Top-k Fetching Result Reranking Query Embedding Prompt Augmenting Chunking Embedding via Chunking Strategy (fixed, semantic, paragraph) via Embedding Model (Text -> Vector) INGESTING PIPELINE „Oha, das sieht aber kompliziert aus - und das ist es leider auch!“* *außer im ‚Hello World‘ Beispiel aus dem Internet.
  45. RETRIEVAL PIPELINE (verantwortlich dafür, dass etwa gefunden wird) RETRIEVAL PIPELINE

    Top-k Fetching Result Reranking Query Embedding Prompt Augmenting Chunking Embedding via Chunking Strategy (fixed, semantic, paragraph) via Embedding Model (Text -> Vector) INGESTING PIPELINE 1 Missing Data 1
  46. RETRIEVAL PIPELINE (verantwortlich dafür, dass etwa gefunden wird) RETRIEVAL PIPELINE

    Top-k Fetching Result Reranking Query Embedding Prompt Augmenting Chunking Embedding via Chunking Strategy (fixed, semantic, paragraph) via Embedding Model (Text -> Vector) INGESTING PIPELINE 1 Missing Data 2 Unsuitable Strategy 1 2
  47. RETRIEVAL PIPELINE (verantwortlich dafür, dass etwa gefunden wird) RETRIEVAL PIPELINE

    Top-k Fetching Result Reranking Query Embedding Prompt Augmenting Chunking Embedding via Chunking Strategy (fixed, semantic, paragraph) via Embedding Model (Text -> Vector) INGESTING PIPELINE 1 Missing Data 2 Unsuitable Strategy 3 Inappropriate Model 1 2 3 3
  48. RETRIEVAL PIPELINE (verantwortlich dafür, dass etwa gefunden wird) RETRIEVAL PIPELINE

    Top-k Fetching Result Reranking Query Embedding Prompt Augmenting Chunking Embedding via Chunking Strategy (fixed, semantic, paragraph) via Embedding Model (Text -> Vector) INGESTING PIPELINE 1 Missing Data 2 Unsuitable Strategy 3 Inappropriate Model 4 Chunk(s) not found 1 2 3 4 3
  49. RETRIEVAL PIPELINE (verantwortlich dafür, dass etwa gefunden wird) RETRIEVAL PIPELINE

    Top-k Fetching Result Reranking Query Embedding Prompt Augmenting Chunking Embedding via Chunking Strategy (fixed, semantic, paragraph) via Embedding Model (Text -> Vector) INGESTING PIPELINE 1 Missing Data 2 Unsuitable Strategy 3 Inappropriate Model 4 Chunk(s) not found 5 Unprofitable Ranking 1 2 3 4 5 3
  50. RETRIEVAL PIPELINE (verantwortlich dafür, dass etwa gefunden wird) RETRIEVAL PIPELINE

    Top-k Fetching Result Reranking Query Embedding Prompt Augmenting LLM Chunking Embedding via Chunking Strategy (fixed, semantic, paragraph) via Embedding Model (Text -> Vector) INGESTING PIPELINE 6 6 6 Chunk(s) not relevant 1 Missing Data 2 Unsuitable Strategy 3 Inappropriate Model 4 Chunk(s) not found 5 Unprofitable Ranking 1 2 3 3 4 5
  51. RETRIEVAL PIPELINE (verantwortlich dafür, dass etwa gefunden wird) RETRIEVAL PIPELINE

    Top-k Fetching Result Reranking Query Embedding Prompt Augmenting LLM Chunking Embedding via Chunking Strategy (fixed, semantic, paragraph) via Embedding Model (Text -> Vector) INGESTING PIPELINE 6 6 1 2 3 3 4 5 … und ACTION! 7 „Sorry, aber ich kann leider nur Fragen beantworten!“
  52. Zwischenfazit: RAG Pros & Cons: Gut Lösung zur Abfrage „interner“

    Daten aller Art. Herausforderung bei großer, heterogener Datenbasis. Ausschließlich für Content Retrieval nutzbar.
  53. Zwischenfazit: RAG Pros & Cons: Gut Lösung zur Abfrage „interner“

    Daten aller Art. Herausforderung bei großer, heterogener Datenbasis. Ausschließlich für Content Retrieval nutzbar. Idee: Dedizierte Ingestors / Retriever je Datenpool. Zusätzlich Aktionen via Function Calling anstoßen. ! !
  54. Zwischenfazit: RAG Pros & Cons: Gut Lösung zur Abfrage „interner“

    Daten aller Art. Herausforderung bei großer, heterogener Datenbasis. Ausschließlich für Content Retrieval nutzbar. Idee: Dedizierte Ingestors / Retriever je Datenpool. Zusätzlich Aktionen via Function Calling anstoßen. ! ! ?
  55. Zwischenfazit: RAG Lösung: Datenpool wird auf optimierte Retriever verteilt. RAG-System

    wird um AI Agent(en) erweitert. Agenten übernehmen die Workflow-Steuerung. > > Idee: Dedizierte Ingestors / Retriever je Datenpool. Zusätzlich Aktionen via Function Calling anstoßen. ! ! > ?
  56. Zwischenfazit: RAG Lösung: Datenpool wird auf optimierte Retriever verteilt. RAG-System

    wird um AI Agent(en) erweitert. Agenten übernehmen die Workflow-Steuerung. > > Idee: Dedizierte Ingestors / Retriever je Datenpool. Zusätzlich Aktionen via Function Calling anstoßen. ! ! > -> Agentic RAG ?
  57. Agentic AI von GenAI zu Agentic AI APPLICATION MODEL LLM

    System + User Prompt Model Response User
  58. APPLICATION Agentic AI von GenAI zu Agentic AI MODEL LLM

    System + User Prompt Model Response User SERVICES Content Data Devices Code Services Human ?
  59. AGENT SERVICES Execution Loop in out Plan Action Memory [ST]

    Tools Content Data Devices Code Services Human APPLICATION Agentic AI unter der Haube MODEL Function Calling LLM
  60. AGENT MODEL SERVICES Execution Loop in out Plan Action Memory

    [ST] Tools Content Data Devices Code Services Human APPLICATION Function Calling LLM Agentic AI unter der Haube „Wie beantrage ich Urlaub bei open knowlege?“
  61. AGENT MODEL SERVICES Execution Loop in out Plan Action Memory

    [ST] Tools Content Data Devices Code Services Human APPLICATION Function Calling LLM Agentic AI unter der Haube 1 1 Planing: „Du bist ein HR-Assistent für Mitarbeiter von ok. Führe folgende Schritte durch, um die Aufgabe […] zu erfüllen: […].“ „Wie beantrage ich Urlaub bei open knowlege?“
  62. AGENT MODEL SERVICES Execution Loop in out Plan Action Memory

    [ST] Tools Content Data Devices Code Services Human APPLICATION Function Calling LLM Agentic AI unter der Haube 2 Reasoning: „Ich sollte zunächst schauen, ob und wo ich weitere Informationen zum Thema Urlaubsantrag abfragen kann.“ 2 3 3 „Wie beantrage ich Urlaub bei open knowlege?“
  63. AGENT MODEL SERVICES Execution Loop in out Plan Action Memory

    [ST] Tools Content Data Devices Code Services Human APPLICATION Function Calling LLM Agentic AI unter der Haube Act: „Ich nutze das HR-Retriever Tool, um Informationen zu Urlaubsanträgen aus dem internen HR RAG (Vector DB) des Unternehmens abzufragen.“ 4 4 5 5 „Wie beantrage ich Urlaub bei open knowlege?“
  64. AGENT MODEL SERVICES Execution Loop in out Plan Action Memory

    [ST] Tools Content Data Devices Code Services Human APPLICATION Function Calling LLM Agentic AI unter der Haube Mission Completed? „Ist die Aufgabe erledigt? Wenn nicht drehe ich einfach noch eine Runde. D.h. ich schaue, welches Tool mich weiter Richtung Ziel bringt.“ „Wie beantrage ich Urlaub bei open knowlege?“
  65. AGENT MODEL SERVICES Execution Loop in out Plan Action Memory

    [ST] Tools Content Data Devices Code Services Human APPLICATION Function Calling LLM Agentic AI unter der Haube „Wie beantrage ich Urlaub bei open knowlege?“ „Bitte einfach den ok HR-Assistent via [LINK] aufrufen und …“ Mission Completed!
  66. AGENT MODEL SERVICES Execution Loop in out Plan Action Memory

    [ST] Tools Content Data Devices Code Services Human APPLICATION Function Calling LLM Agentic AI unter der Haube „Beantrage bitte vom … bis zum … Urlaub für mich, danke.“ Waiting for Mission …
  67. AGENT MODEL SERVICES Execution Loop in out Plan Action Memory

    [ST] Tools Content Data Devices Code Services Human APPLICATION Function Calling LLM Agentic AI unter der Haube 1 1 Planing: „Du bist ein HR-Assistent für Mitarbeiter von ok. Führe folgende Schritte durch, um die Aufgabe […] zu erfüllen: […].“ „Beantrage bitte vom … bis zum … Urlaub für mich, danke.“
  68. AGENT MODEL SERVICES Execution Loop in out Plan Action Memory

    [ST] Tools Content Data Devices Code Services Human APPLICATION Function Calling LLM Agentic AI unter der Haube „Beantrage bitte vom … bis zum … Urlaub für mich, danke.“ „Um Urlaub zu beantragen, rufe ich am besten die open knowledge HR API mit den Parametern [from_date]und [to_date] auf.“ 2 2 3 3 Reasoning:
  69. AGENT MODEL SERVICES Execution Loop in out Plan Action Memory

    [ST] Tools Content Data Devices Code Services Human APPLICATION Function Calling LLM Agentic AI unter der Haube „Beantrage bitte vom … bis zum … Urlaub für mich, danke.“ „Ich nutze Function Calling und rufe die open knowledge HR API mit den Parametern ma_id=…, from_date= … und to_date= ... auf.“ Act: 4 4 5 5
  70. AGENT MODEL SERVICES Execution Loop in out Plan Action Memory

    [ST] Tools Content Data Devices Code Services Human APPLICATION Function Calling LLM Agentic AI unter der Haube Mission Completed? „Ist die Aufgabe erledigt? Wenn nicht drehe ich einfach noch eine Runde. D.h. ich schaue, welches Tool mich weiter Richtung Ziel bringt.“ „Beantrage bitte vom … bis zum … Urlaub für mich, danke.“
  71. AGENT MODEL SERVICES Execution Loop in out Plan Action Memory

    [ST] Tools Content Data Devices Code Services Human APPLICATION Function Calling LLM Agentic AI unter der Haube „Dein Urlaub ist beantragt. Dein Rest- urlaub beträgt X Tage…“ Mission Completed! „Beantrage bitte vom … bis zum … Urlaub für mich, danke.“
  72. AGENT MODEL SERVICES Execution Loop in out Plan Action Memory

    [ST] Tools Content Data Devices Code Services Human APPLICATION Function Calling LLM Agentic AI unter der Haube
  73. AGENT MODEL SERVICES Long-Term Memory Vector Datastore Execution Loop in

    out Plan Action Memory [ST] Tools Content Data Devices Code Services Human APPLICATION Function Calling LLM Agentic AI unter der Haube
  74. AGENT MODEL SERVICES Long-Term Memory Vector Datastore Execution Loop in

    out Plan Action Memory [ST] Tools Content Data Devices Code Services Human APPLICATION Function Calling LLM Agentic AI unter der Haube FLIGHTWHEEL
  75. AGENT MODEL SERVICES Long-Term Memory Vector Datastore Execution Loop in

    out Plan Action Memory [ST] Tools Content Data Devices Code Services Human APPLICATION Function Calling LLM Agentic AI unter der Haube A #2 A #n . . . FLIGHTWHEEL
  76. Zwischenfazit: Agentic AI AI Agenten können … Tools verwenden zwischen

    Optionen „entscheiden“ Ergebnisse von Aktionen bewerten aus Aktion und Ergebnis lernen im Team zusammenarbeiten > > > > >
  77. Vanilla RAG … Frage? LLM (Vector) DB Vector Query Engine

    … Antwort! Retrieval Tools Result Handling: Re-Ranking Augmenting …
  78. … Frage? LLM … Antwort! Retrieval Tools (Vector) DB A

    (Vector) DB B Vector Query Engine A Vector Query Engine B ? Agentic RAG
  79. … Frage? Retrieval Agent LLM (Vector) DB B Vector Query

    Engine A Vector Query Engine B … Antwort! Retrieval Tools Result Handling: Re-Ranking Augmenting … Agentic RAG (Vector) DB A
  80. … Frage? Retrieval Agent LLM (Vector) DB B Vector Query

    Engine A Vector Query Engine B eMail Search Web Search … Antwort! Retrieval Tools Result Handling: Re-Ranking Augmenting … Agentic RAG (Vector) DB A
  81. … Frage? Retrieval Agent LLM HR V-DB Controlling V-DB Human

    Resources Query Engine Controlling Data Query Engine eMail Search Web Search … Antwort! Retrieval Tools Agentic RAG Result Handling: Re-Ranking Augmenting …
  82. … Frage? Retrieval Agent LLM HR V-DB Controlling V-DB Human

    Resources Query Engine Controlling Data Query Engine eMail Search Web Search … Antwort! Retrieval Tools Agentic RAG Result Handling: Re-Ranking Augmenting …
  83. … Frage? Retrieval Agent LLM HR V-DB Human Resources Summary

    Engine Human Resources Retrieval Engine eMail Search Web Search … Antwort! Retrieval Tools Agentic RAG Result Handling: Re-Ranking Augmenting …
  84. … Frage? Retrieval Agent LLM HR V-DB Human Resources Summary

    Engine Human Resources Retrieval Engine eMail Search Web Search … Antwort! Retrieval Tools Agentic RAG Result Handling: Re-Ranking Augmenting …
  85. … Aktion! Manager Agent LLM HR V-DB Human Resources Summary

    Engine Human Resources Retrieval Engine Human Resource Platform Engine Web Search … Resultat. Agentic Tools Agentic RAG Result Handling: Re-Ranking Augmenting … HR APP
  86. Human Resources Retrieval Engine Human Resources Summary Engine Manager Agent

    „Dear agent, I‘ve a question.“ Human Resources Platform Engine
  87. Human Resources Retrieval Engine Human Resources Summary Engine Manager Agent

    „How to apply for holiday?“ Human Resources Platform Engine
  88. Human Resources Retrieval Engine Human Resources Summary Engine Manager Agent

    „Apply for holiday from … to … !“ Human Resources Platform Engine
  89. Human Resources Retrieval Engine Human Resources Summary Engine Manager Agent

    „Get info about employee Lars!“ Human Resources Platform Engine
  90. Financial Report Retrieval Engine Financial Report Summary Engine Manager Agent

    „Summarize the financial report.“ Human Resources Platform Engine
  91. Financial Report Retrieval Engine Financial Report Summary Engine Manager Agent

    „What was the turnover in 2024?“ Human Resources Platform Engine
  92. … Aktion! Manager Agent LLM HR V-DB Human Resources Query

    Engine Human Resources Query Engine Human Resource Platform Engine Web Search … Resultat. Agentic RAG Result Handling: Re-Ranking Augmenting … HR APP Agentic Tools
  93. … Aktion! Manager Agent LLM HR V-DB Human Resources Query

    Engine Human Resources Query Engine Human Resource Platform Engine Web Search … Resultat. Agentic RAG Result Handling: Re-Ranking Augmenting … HR APP Das ist mir etwas zu viel! Agentic Tools
  94. … Frage? LLM eMail Slack … Antwort? Management Retrieval Agent

    HR Platform Agent Channel Agent Manager Agent Controlling Data Query Engine Sales Resources Query Engine Human Resources Platform Engine Agentic RAG
  95. … Frage? LLM eMail Slack … Antwort? Management Retrieval Agent

    HR Platform Agent Channel Agent Manager Agent Controlling Data Query Engine Sales Resources Query Engine Human Resources Platform Engine Agentic RAG
  96. Manager Agent „Apply for holiday from X to Y!“ Human

    Resources Platform Engine Function Calling unter der Haube ?
  97. Function Calling unter der Haube Application Model 1 apply_holiday(from_date, to_date)

    „Apply for holiday from 01.07.25 to … .“ Tool Definition + Prompt 1 Initialer Modell-Call mit Prompt & Functions.
  98. Function Calling unter der Haube 1 Initialer Modell-Call mit Prompt

    & Functions. 2 Rückgabe eines passenden Tools. Application Model 1 2 apply_holiday(from_date, to_date) „Apply for holiday from 01.07.25 to … .“ Tool Calls Tool Definition + Prompt apply_holiday(01.07.2025, 15.07.2025)
  99. Function Calling unter der Haube 1 Initialer Modell-Call mit Prompt

    & Functions. 2 Rückgabe eines passenden Tools. 3 Aufruf des Tools aus der Anwendung heraus. Application Model 1 2 apply_holiday(from_date, to_date) „Apply for holiday from 01.07.25 to … .“ Tool Calls Tool Definition + Prompt apply_holiday(01.07.2025, 15.07.2025) 3 Execute Function Code apply_holiday(01.07.25, …) {“status“: “APPROVED: …“}
  100. Zweiter Modell-Call mit Context & Fn Output. Function Calling unter

    der Haube 1 Initialer Modell-Call mit Prompt & Functions. 2 Rückgabe eines passenden Tools. 3 Aufruf des Tools aus der Anwendung heraus. 4 Application Model 1 2 4 apply_holiday(from_date, to_date) „Apply for holiday from 01.07.25 to … .“ all prior messages Tool Calls Tool Definition + Prompt Function Call Results apply_holiday(01.07.2025, 15.07.2025) {“status“: “APPROVED: …“} 3 Execute Function Code apply_holiday(01.07.25, …) {“status“: “APPROVED: …“}
  101. Zweiter Modell-Call mit Context & Fn Output. Function Calling unter

    der Haube 1 Initialer Modell-Call mit Prompt & Functions. 2 Rückgabe eines passenden Tools. 3 Aufruf des Tools aus der Anwendung heraus. 4 Rückgabe der finalen Antwort vom Modell. 5 Application Model 1 2 4 5 apply_holiday(from_date, to_date) „Apply for holiday from 01.07.25 to … .“ all prior messages Holiday approved from 01.07.2025 to … . Tool Calls Tool Definition + Prompt Function Call Results Final Response apply_holiday(01.07.2025, 15.07.2025) {“status“: “APPROVED: …“} 3 Execute Function Code apply_holiday(01.07.25, …) {“status“: “APPROVED: …“}
  102. Function Calling unter der Haube Application Model 1 2 4

    5 apply_holiday(from_date, to_date) „Apply for holiday from 01.07.25 to … .“ all prior messages Holiday approved from 01.07.2025 to … . Tool Calls Tool Definition + Prompt Function Call Results Final Response apply_holiday(01.07.2025, 15.07.2025) {“status“: “APPROVED: …“} 3 Execute Function Code apply_holiday(01.07.25, …) {“status“: “APPROVED: …“} { "type": "function", "name": "apply_for_holiday", "description": "Apply for holiday for an employee for a given period of time..", "strict": true, "parameters": { "type": "object", "properties": { "firstname": { "type": "string", "description": "Firstname of the employee." }, "lastname": { "type": "string", "description": "Lastname of the employee." }, "from_date": { "type": "string", "description": "Start date of holiday request." }, "to_date": { "type": "string", "description": "End date of holiday request." } }, "required": ["firstname, lastname, from_date, to_date"], "additionalProperties": false }, "strict": true } apply_for_holiday.json for open AI API
  103. Function Calling unter der Haube Application Model 1 2 4

    5 apply_holiday(from_date, to_date) „Apply for holiday from 01.07.25 to … .“ all prior messages Holiday approved from 01.07.2025 to … . Tool Calls Tool Definition + Prompt Function Call Results Final Response apply_holiday(01.07.2025, 15.07.2025) {“status“: “APPROVED: …“} 3 Execute Function Code apply_holiday(01.07.25, …) {“status“: “APPROVED: …“} { "type": "function", "name": "apply_for_holiday", "description": "Apply for holiday for an employee for a given period of time..", "strict": true, "parameters": { "type": "object", "properties": { "firstname": { "type": "string", "description": "Firstname of the employee." }, "lastname": { "type": "string", "description": "Lastname of the employee." }, "from_date": { "type": "string", "description": "Start date of holiday request." }, "to_date": { "type": "string", "description": "End date of holiday request." } }, "required": ["firstname, lastname, from_date, to_date"], "additionalProperties": false }, "strict": true } apply_for_holiday.json for gemini API
  104. Function Calling Herausforderung e.g. OpenAI GenAI Model 1 e.g. Function

    API e.g. Cloud Storage e.g. Database e.g. Gemini GenAI Model 2 e.g. Anthropic GenAI Model 3 Service A Service B Service C N*M Connections Jedes Modell muss mit jedem Service individuell integriert werden.
  105. Function Calling Herausforderung e.g. OpenAI GenAI Model 1 e.g. Function

    API e.g. Cloud Storage e.g. Database e.g. Gemini GenAI Model 2 e.g. Anthropic GenAI Model 3 Service A Service B Service C MCP (Standardized Protocp) N+M MCP Connections Modelle und Services müssen je nur einmalig mit MPC integrieren.
  106. Function Calling Herausforderung MCP (Standardized Protocp) AI Applications Data Sources

    & Tools bidirectional Flow PostgreSQL, SQLite, GDrive Data & File Systems Sentry, Git, Fetch … Development Tools Google Maps, Slack, … Productivity Tools YOUR App, Sire, … AI Applications Claude Code, Goose, … IDEs Claude Desktop, LibreChat, … Chat Interfaces
  107. Function Calling via Model Context Protocol (MCP) AI APPLICATION SOME

    API MCP Host MCP Client MCP Client MCP Client MCP Sever MCP Sever FILESYSTEM DATABASE MCP Sever
  108. RAG … … gute Lösung zu Abfrage interner Daten. Allerdings

    ausschließlich für Content Retrieval gedacht, mit Schwächen bei großen / heterogenen Datenpools. AGENTIC AI … … kann je nach Task „passende“ Tools auswählen und nutzen. Mittels Observation werden Aktionen / Ergebnisse ausgewertet und über den nächsten Schritt entschieden. Agenten können lernen und in Teams zusammenarbeiten. AGENTIC RAG … … ist das beste aus zwei Welten! Es erlaubt ein „intelligentes“ Retrieval, das auch bei großen / heterogenen Datenpools sehr gute Ergebnisse liefern kann. Neben dem Retrieval erlauben die Agenten darüber hinaus auch die Ausführung von Aktionen via Functions Calls.
  109. AGENTIC RAG … … ist das beste aus zwei Welten!

    Es erlaubt ein „intelligentes“ Retrieval, das auch bei großen / heterogenen Datenpools sehr gute Ergebnisse liefern kann. Neben dem Retrieval erlauben die Agenten darüber hinaus auch die Ausführung von Aktionen via Functions Calls. „REAL LIFE“ AGENTIC RAG … … ist leider noch etwas komplizierter: • ACL / Security für Retrieval und Function Calls • I18N für Retrieval und Function Calls • Guardrails zur Absicherung von Input / Output • Response Quality Monitoring via LLM & RAG Metriken • Aufrufprotokolle à la MCP und A2A … aber trotzdem machbar. Wenn man weiß, was und wie ;-)
  110. BILDNACHWEISE Folie 1: © Buch und Bee - shutterstock.com Alle

    anderen Bilder, , Zeichnungen und Icons stammen aus den folgenden freien Quellen • pexels.com, • pixabay.com, • unsplash.com, • flaticon.com oder wurden von mir selbst erstellt.