Lernen durch Handeln, nicht durch Auswendiglernen
Reinforcement Learning funktioniert anders als klassisches Programmieren. Und genau so sollte man es auch lernen – durch Ausprobieren, Scheitern und Verstehen.
Bei Gaxton bauen wir auf praktische Erfahrung. Ihr schreibt Code, trainiert Agenten, analysiert Fehler. Manchmal funktioniert's nicht beim ersten Mal. Das ist normal. Aus diesen Momenten lernt man am meisten.
Wir zeigen euch nicht nur Formeln und Konzepte. Wir schaffen Situationen, in denen ihr selbst herausfinden müsst, warum ein Agent nicht lernt oder wie man Belohnungssysteme richtig gestaltet. So bleibt das Wissen hängen.
Wie wir euch beim Lernen begleiten
Erst verstehen, dann umsetzen
Bevor ihr loslegt, klären wir die Grundlagen. Was ist ein Markov-Decision-Process? Wie funktioniert Q-Learning? Wir nehmen uns Zeit für Fragen und gehen in Diskussionen, bis alles klar ist.
Projekte mit echten Problemen
Ihr arbeitet an Aufgaben, die Sinn machen. Ein Agent, der lernt, ein Spiel zu meistern. Ein System, das Ressourcen optimiert. Keine konstruierten Beispiele, sondern realistische Szenarien.
Feedback, das weiterhilft
Wir schauen uns euren Code an, besprechen eure Lösungen und zeigen alternative Ansätze. Manchmal gibt es mehrere richtige Wege – wir helfen euch, den besten für eure Situation zu finden.
Themen, die wir vertiefen
Model-Free Methoden
Ihr lernt, wie Agenten durch Erfahrung lernen, ohne ein Modell der Umgebung zu kennen. Q-Learning, SARSA und ihre praktischen Anwendungen stehen im Fokus.
Policy Gradient Verfahren
Statt Werte zu schätzen, optimiert ihr direkt die Handlungsstrategie. Wir zeigen euch, wie das funktioniert und wann diese Methode Vorteile bringt.
Deep Reinforcement Learning
Neuronale Netze treffen auf RL. Ihr baut Deep Q-Networks und versteht, warum manche Probleme nur so lösbar sind. Mit Beispielen aus der Praxis.
Multi-Agent Systeme
Was passiert, wenn mehrere Agenten gleichzeitig lernen? Ihr beschäftigt euch mit Kooperation, Konkurrenz und den Herausforderungen komplexer Umgebungen.
Lernen mit echten Herausforderungen
Praxisnahe Projekte
Wir werfen euch nicht ins kalte Wasser. Aber wir geben euch Aufgaben, die nicht nach Schema F lösbar sind. Das bedeutet: Ihr müsst nachdenken, experimentieren und manchmal auch improvisieren.
Genau so funktioniert die Arbeit später auch. Kein Projekt ist wie das andere, und oft gibt es keine perfekte Lösung – nur eine, die gut genug ist und funktioniert.
Ein Agent lernt zu navigieren
Ihr baut einen Agenten, der sich in einer Umgebung zurechtfinden muss. Zuerst läuft er gegen Wände. Dann findet er einen Weg. Irgendwann optimiert er seine Route.
Dabei lernt ihr, wie Exploration und Exploitation zusammenspielen und warum die richtige Balance wichtig ist.
Belohnungen richtig gestalten
Ein Agent macht nur das, wofür er belohnt wird. Klingt einfach, ist es aber nicht. Ihr entdeckt schnell, dass falsch gestaltete Belohnungen zu unerwartetem Verhalten führen.
Wir zeigen euch, wie man das vermeidet und Systeme baut, die wirklich das tun, was sie sollen.
Debugging und Optimierung
Ein RL-Modell trainiert stundenlang und lernt nichts? Das kommt vor. Ihr lernt systematisch zu debuggen: Daten prüfen, Hyperparameter anpassen, Architekturen überdenken.
Diese Fähigkeit ist später unbezahlbar. Denn Modelle funktionieren selten auf Anhieb perfekt.
Offen für alle, die lernen wollen
Egal, woher ihr kommt oder welchen Background ihr habt – bei Gaxton seid ihr willkommen. Wir arbeiten mit Studierenden aus der ganzen Welt und schaffen eine Umgebung, in der jeder auf seinem Niveau wachsen kann. Mehr Infos findet ihr auf unserer Seite für internationale Studierende.
Unser Lernprogramm entdecken