Large Language Models (LLMs) haben die Art und Weise verändert, wie wir Software konzipieren: Statt Klicks und GUI dominiert plötzlich natürliche Sprache. Und das nicht nur über Tastatur und Text – sondern auch per Stimme. In diesem Webinar erfahren Sie, wie Sie sprachfähige KI-Modelle direkt in Ihre Anwendung integrieren und sie in Echtzeit mit Ihrer Stimme steuern können.
Dank Realtime API, WebRTC und Tool Calling entstehen neue Möglichkeiten für natürlichsprachliche Interfaces – mit minimaler Latenz, bidirektional, multilingual.
Christian Liebel von Thinktecture zeigt in praxisnahen Demos, wie Sie ausgewählte LLMs per Sprache ansprechen, eigene Funktionalitäten damit verknüpfen und smarte, gesprächige Interfaces entwickeln. Das ist keine Science-Fiction.
Achtung: Interaktive Sprach-KIs können süchtig machen.