Upgrade to Pro — share decks privately, control downloads, hide ads and more …

W-JAX 2024: 'Talk to your systems': LLM-Anbindu...

W-JAX 2024: 'Talk to your systems': LLM-Anbindung durch strukturierte Daten & Function Calling

Ja, es gibt mehr zu entdecken für Generative AI & Large Language Models (LLMs) als das bekannte "Sprechen" mit eigenen Daten (auch bekannt als RAG). Basierend auf ihrem Verständnis der menschlichen Sprache können LLMs genutzt werden, um innovative Interaktionen für Anwendungen und Systeme zu realisieren. In dieser Session zeigt Christian, wie Sie strukturierte Datenausgaben mit Datenschemata und Funktionsaufrufen nutzen, um Ihre APIs und Applikationen mit der Power von LLMs zu integrieren. Sehen Sie, wie die transformative Natur von Generative AI auch Ihren Lösungen helfen kann. Kommen Sie vorbei und lassen Sie uns mit Anwendungen und Systemen sprechen - im wahrsten Sinne des Wortes.

Christian Weyer

November 07, 2024
Tweet

More Decks by Christian Weyer

Other Decks in Programming

Transcript

  1. ‘Talk to your systems’ LLM-Anbindung durch strukturierte Daten & Function

    Calling Christian Weyer | Co-Founder & CTO | Thinktecture AG | [email protected]
  2. § Technology catalyst § AI-powered solutions § Pragmatic end-to-end architectures

    § Microsoft Regional Director § Microsoft MVP for AI § Google GDE for Web Technologies [email protected] @christianweyer https://www.thinktecture.com 'Talk to your systems' LLM-Anbindung durch strukturierte Daten & Function Calling Christian Weyer Co-Founder & CTO @ Thinktecture AG 2
  3. 'Talk to your systems' LLM-Anbindung durch strukturierte Daten & Function

    Calling Talk to your systems Why? What? How? 3
  4. 'Talk to your systems' LLM-Anbindung durch strukturierte Daten & Function

    Calling Human language rocks Extending access to software 5
  5. 'Talk to your systems' LLM-Anbindung durch strukturierte Daten & Function

    Calling A classical UI – strong with certain use cases 6
  6. One possible UX pattern 'Talk to your systems' LLM-Anbindung durch

    strukturierte Daten & Function Calling Language-enabled “UIs” 7
  7. § LLMs are always part of end-to-end architectures § Client

    apps (Web, desktop, mobile) § Services with APIs § Databases § etc. § An LLM is ‘just’ an additional asset in your architecture § Enabling human language understanding & generation § It is not the Holy Grail for everything § Enable human language as a first-class citizen 🤯 'Talk to your systems' LLM-Anbindung durch strukturierte Daten & Function Calling End-to-end architectures with LLMs Clients Services LLMs Desktop Web Mobile Service A Service B Service C API Gateway Monitoring LLM 1 LLM 2 9
  8. 'Talk to your systems' LLM-Anbindung durch strukturierte Daten & Function

    Calling It’s just HTTP APIs Inference, FTW 10
  9. § Llama, Mistral, Qwen families show big potential § Success

    factors § Use case § Parameter size § Quantization § Processing power needed § CPU optimization on its way § Local inference runtimes with APIs § E.g. llama.cpp, ollama, llamafile, vLLM 'Talk to your systems' LLM-Anbindung durch strukturierte Daten & Function Calling Open-source LLMs thrive § Local UIs § E.g. Open WebUI 12
  10. 'Talk to your systems' LLM-Anbindung durch strukturierte Daten & Function

    Calling Most convenient platform for developers today to work with Gen AI 14
  11. 'Talk to your systems' LLM-Anbindung durch strukturierte Daten & Function

    Calling ‘Function’ Calling Give it schema! 16
  12. 'Talk to your systems' LLM-Anbindung durch strukturierte Daten & Function

    Calling 17 Pydantic & Instructor Make it easier!
  13. 'Talk to your systems' LLM-Anbindung durch strukturierte Daten & Function

    Calling 19 End-to-End Talking to your applications
  14. 'Talk to your systems' LLM-Anbindung durch strukturierte Daten & Function

    Calling Talk to Thinktecture 20 Angular PWA Speech-to-Text Internal Gateway (Python FastAPI) LLM / SLM Text-to-Speech Transcribe spoken text Transcribed text Check for experts availability with text Extract { experts, booking times } from text Structured JSON data (Tool calling) Generate response with availability Response Response with experts availability 🗣 🔉 Speech-to-text for response Response audio Internal Business API (node.js – veeeery old) Query Availability API Availability When is CL…? CL will be…
  15. Filling Angular forms with human language input protected readonly formGroup

    = this.fb.group({ firstName: [’’], lastName: [’’], addressLine1: [’’], addressLine2: [’’], city: [’’], state: [’’], zip: [’’], country: [’’] }); 'Talk to your systems' LLM-Anbindung durch strukturierte Daten & Function Calling Smart form filling OK, nice – so here is my address then:: Peter Schmitt, Rheinstr. 7 in Schkeuditz – postcode is 04435, BTW. 21 Smart Form Filler (TS code & LLM)
  16. § Human language enables new powerful use cases & access

    to our software § Always use structured output § Structured output is the secret sauce for integrating LLMs into your application architectures § Consider applying the Maybe pattern § Brings more robustness § Function Calling can be flaky § Especially with smaller models § Do not use frameworks that ‘auto-magically’ map Function Calling results to local code § Always validate return data! § Instructor is a helpful library to boost LLM use cases § Implements lots of best practices § Supports any LLM / SLM § Integrates with FastAPI 'Talk to your systems' LLM-Anbindung durch strukturierte Daten & Function Calling Recap & Recommendations 23