Neuronale Netze bilden das Herzstück des maschinellen Lernens. Darunter versteht man eine Klasse von Funktionen, die auf nichtlineare Weise von einer endlichen Anzahl von Parametern abhängen. Genutzt werden diese, um unbekannte Funktionen möglichst gut zu approximieren.
In diesem Seminar geht es um Approximationseigenschaften solcher neuronaler Netze und den damit verbundenen Erfolg des maschinellen Lernens. Ausgehend von Hilbert's 13. Problem geht es über Kolmogorovs Superpositions Theorem bis bin zu aktuellen Erkenntnissen moderner Netzstrukturen.
Vorbesprechung: Dienstag 01.03.2022 um 15:00 Uhr via Zoom