Menschliche Sprache als Universal Interface für Software-Lösungen - das hört sich spannend an! In diesem Workshop bieten Christian und Sebastian eine intensive Einführung in die Integration generativer KI und von Large Language Models (LLMs) & Large Multimodal Models (LMMs) in eigene Anwendungen. Mit Python und .NET APIs zeigen wir Ihnen, wie Sie das Potenzial von LLMs für verschiedene Anwendungsfälle ausschöpfen können. Dabei ist die Anbindung von Sprachmodellen jedoch grundsätzlich technologieoffen.
Im Zentrum stehen Architektur-Patterns wie In-Context Learning, Retrieval-Augmented Generation (RAG), Reasoning & Acting (ReAct) oder Agents. Diese Techniken sind entscheidend für die Entwicklung moderner, KI-gesteuerter Business-Anwendungen.
Für komplexere Anforderungen setzen wir SDKs wie z.B. LangChain und Semantic Kernel ein. Diese Frameworks eröffnen erweiterte Möglichkeiten für Textverständnis und -generierung, vor allem hinsichtlich lang anhaltender Konversationen.
Wir geben auch einen Überblick über Cloud-basierte Lösungen, darunter Azure Open AI Service. Dabei gehen wir insbesondere auf die Möglichkeit ein, LLMs auf Basis von GPT-4 oder Mistral bereitzustellen und zu nutzen.
Lassen Sie uns gemeinsam pragmatische Ansätze zur Integration von Generative AI in Ihre Business-Anwendungen erkunden. Wir freuen uns auf Sie!
Der Workshop startet mit notwendigen Grundlagen, bevor wir tiefer in das Design und die Implementierung von Business-Anwendungen mithilfe von Generative AI eintauchen.
Inhalte:
• Menschliche Sprache als Zugang zu Software-Lösungen: Prompts als Universal Interface
• Generative AI mit Large Language Models & Large Multimodal Models: Usecases & Grundlagen mit Python und .NET APIs
• Architektur-Patterns wie In-Context Learning, Retrieval-Augmented Generation (RAG), Reasoning & Acting, Agents etc.
• SDKs wie LangChain und Semantic Kernel für komplexere Szenarien
• Firmen-Chat-Systeme wie Slack als Zugang zu eigenen LLM-basierten Lösungen
• Speech-to-Text / Text-to-Speech als Brücke vom gesprochenen Wort hin zu LLMs und zurück
• Private LLMs wie GPT-4 mit Azure Open AI Service betreiben