Upgrade to PRO for Only $50/Year—Limited-Time Offer! 🔥

Lernen durch Schmerzen! Mit Reinforcement Learn...

Lernen durch Schmerzen! Mit Reinforcement Learning selbstlernende Systeme entwickeln

Jörg Neumann

June 27, 2024
Tweet

More Decks by Jörg Neumann

Other Decks in Technology

Transcript

  1. THEMEN  AI Development  Business App Development  Frontend

    Technologies  Development, Consulting, Coaching, Training KONTAKT  Mail: [email protected]  LinkedIn: www.linkedin.com/in/jörgneumann  X: @JoergNeumann  Web: www.neogeeks.de JÖRG NEUMANN Founder & CEO NeoGeeks GmbH Azure OpenAI Service, Azure Machine Learning Platform
  2. AI Dev Camp 8.-9. Oktober 2024 in Düsseldorf Das Trainingsevent

    für KI-getriebene Softwareentwicklung. 2 Tage geballte Wissensvermittlung mit Jörg Neumann, Neno Loje & Special Guests. Jörg Neumann MVP AI Platform Neno Loje MVP Developer Technologies www.AIDevCamp.de
  3.  Machine-Learning-Methode  Ein Agent interagiert mit einer Umgebung 

    Lernt dabei selbständig auf Basis des Belohnungsprinzips WAS IST REINFORCEMENT LEARNING?
  4. Agent Environment State Action Reward Ein Agent führt in einer

    Umgebung zu einem best. Status eine Action aus und erhält eine Reaktion Die Reaktion der Umgebung auf die Aktion beeinflusst die Wahl der Aktion im nächsten Status Entscheidungsmatrix FUNKTIONSWEISE
  5. DEFINITION  Entwickelt 1989 von Chris Watkins  Eine Variante

    des Temporal-Different-Learnings  Benannt nach der Bewertungsfunktion, der Q-Function: u ׂ ¸ ְ � †׃  Anwendung bei kleinen Aktions- und Zustandsräumen Q-LEARNING
  6. DEFINITION  Q-Funktion: Q(s,a)  Beschreibt den erwarteten Nutzen Q

    einer Aktion a im Status s  Die Nutzenwerte werden in der sog. Q-Matrix gespeichert  Dimensionen der Matrix: Anzahl der möglichen Stati und Aktionen  Beim Training versucht der Agent, die Q-Werte der Q-Matrix durch Exploration zu approximieren, um diese später als Entscheidungsregel zu nutzen  Nach der Lernphase wählt der Agent in jedem Status diejenige Aktion mit dem höchsten Q-Wert aus Q-FUNCTION
  7. erwarteter Nutzen Aktion Status Learning Rate Current Value Discount Factor

    Reward Future Value Estimate 𝑄𝑄 𝑠𝑠𝑡𝑡 , 𝑎𝑎𝑡𝑡 = 1 − 𝛼𝛼 𝑄𝑄 𝑠𝑠𝑡𝑡 , 𝑎𝑎𝑡𝑡 + 𝛼𝛼 𝑟𝑟𝑡𝑡 + 𝛾𝛾 𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚 𝑠𝑠𝑡𝑡+1 , 𝑎𝑎 EIN WENIG MATHEMATIK
  8. APPROXIMATION DER Q-WERTE  Agent startet in einem zufällig initialisierten

    Status  Agent selektiert zufällig eine Aktion  Agent beobachtet die entsprechende Belohnung und den darauf folgenden Status  Der gesamte Vorgang der Exploration bis hin zur Belohnung wird als Episode bezeichnet Q-LEARNING
  9. Action(0) Action(1) Action(2) Action(3) Action(4) Action(5) 0 0 0 0

    0 0 0 . . . . . . . . . . . . . . . . . . . . . 500 0 0 0 0 0 0 . . . . . . . . . . . . . . . . . . . . . 1000 0 0 0 0 0 0 States Q-MATRIX Actions Initialisierung Nach dem Training Action(0) Action(1) Action(2) Action(3) Action(4) Action(5) 0 0 0 0 0 0 0 . . . . . . . . . . . . . . . . . . . . . 500 -2.466928 -3.457417 -4,176588 -0.192454 -6.210890 -0.295700 . . . . . . . . . . . . . . . . . . . . . 1000 0.446754 3.257648 6.854144 8.879366 7.275916 1.135062 Q-MATRIX Actions States Q-MATRIX
  10. MODELL-BASIERTES Q-LEARNING  Manchmal ist der Statusraum zu komplex, um

    ihn allumfänglich in einer Table abzubilden (z.B. beim autonomen Fahren)  Generalisierung der Daten durch neuronale Netze  Exploration der Umgebung findet nicht per Zufall statt  Q-Werte werden – basierend auf dem aktuellen Status – durch ein Machine Learning Modell approximiert DEEP Q-LEARNING
  11. REINFORCEMENT LEARNING  Ermöglicht die Lösung von komplexen Problemen 

    Noch mächtiger als Supervised Learning  Entwicklung selbstlernender Systeme  Aber auch komplex in der Implementierung FAZIT
  12. RESSOURCEN  Project Bonsai RL Service in Microsoft Azure 

    AWS Deep Racer Simulationsumgebung für autonomes Fahren in AWS  Artikel Top 20 Reinforcement Learning Libraries You Should Know  7 Reinforcement Learning GitHub Repositories To Give You Project Ideas