Inhaltszusammenfassung:
Das menschliche Gehirn ist in der Lage, Vorhersagen zu treffen, zu planen und sich durch mentale Simulationen kontrafaktische Situationen vorzustellen. Künstliche neuronale Netze sind zwar in bestimmten Bereichen brereits sehr leistungsfähig, scheinen aber immer noch ein mechanistisches Verständnis der Welt zu vermissen. In dieser Arbeit befassen wir uns mit verschiedenen Ansätzen, wie neuronale Netze die zugrundeliegenden Mechanismen des modellierten Systems besser erfassen können. Wir werden uns mit Adaptive skip intervals (ASI) befassen; eine Methode, die es dynamischen Modellen ermöglicht, ihre eigene zeitliche Vergröberung an jedem Punkt zu wählen. Dadurch werden langfristige Vorhersagen sowohl einfacher als auch rechnerisch effizienter. Als Nächstes werden wir uns mit alternativen Möglichkeiten zur Aggregation von Gradienten in verschiedenen Umgebungen befassen, was zum Begriff der Invariant Learning Consistency (ILC) und der Methode AND-mask für einen modifizierten stochastischen Gradientenabstieg führt. Durch das Herausfiltern inkonsistenter Trainingssignale aus verschiedenen Umgebungen bleiben die gemeinsamen Mechanismen erhalten. Schließlich werden wir sehen, dass Lernen auf der Grundlage von Meta-Gradienten Trajektorien von dynamischen Systemen transformieren kann, um nützliche Lernsignale in Richtung eines zugrunde liegenden Ziels zu konstruieren, wie z. B. Reward beim Reinforcement Learning. Dadurch kann das interne Modell sowohl eine zeitliche als auch eine Zustandsabstraktion beinhalten.