Digicampus
Seminar: Seminar zur Stochastik im Themenfeld Stochastische Optimierung (Master) - Details
Sie sind nicht in Stud.IP angemeldet.
Lehrveranstaltung wird als Hybrid/gemischt abgehalten.

Allgemeine Informationen

Veranstaltungsname Seminar: Seminar zur Stochastik im Themenfeld Stochastische Optimierung (Master)
Untertitel Stochastic Gradient Methods
Veranstaltungsnummer MTH-1410; MTH-1400
Semester WS 2022/23
Aktuelle Anzahl der Teilnehmenden 3
erwartete Teilnehmendenanzahl 8
Heimat-Einrichtung Rechnerorientierte Statistik und Datenanalyse
beteiligte Einrichtungen Institut für Mathematik
Veranstaltungstyp Seminar in der Kategorie Lehre
Teilnehmende Hauptsächlich für Masterstudiengänge Mathematik und Wirtschafstsmathematik sowie Masterstudiengang Mathematical Analysis and Modelling Master geeignet.
Voraussetzungen notwendig:
- Programmiererfahrung in einer beliebigen Programmiersprache
- Stochastik I
- Optimierung II (nichtlineare Optimierung)
vorteilhaft:
- Numerische Verfahren der Optimierung
Lernorganisation - Das Seminar wird als Blockseminar im Wintersemester stattfinden (online / in Präsenz)
Leistungsnachweis - Das Seminar besteht aus den folgenden abzugebenden Bestandteilen (Abgabe spätestens 14 Tage vor Vortrag)
• einem 30-45minütigen Vortrag (Folien bzw. Tafelkonzept) und
• einer Implementierung in Matlab (Scilab / Octave)
Online/Digitale Veranstaltung Veranstaltung wird als Hybrid/gemischt abgehalten.
Hauptunterrichtssprache deutsch
Literaturhinweise Englischsprachige Originalarbeiten
Sonstiges Die Vorbesprechung und Themenvergabe erfolgen ausschließlich am Donnerstag, den 21.07.2022 um 15:45 Uhr im Raum 3008 L1. Sollten Sie zum Vorbesprechungstermin verhindert sein, jedoch am Seminar teilnehmen wollen, so melden Sie sich bitte ebenfalls vorab unverbindlich per email an. (ralf.werner@uni-a.de) Alternativ kann das Seminar als Seminar in Optimierung angerechnet werden. Bitte teilen Sie
dies spätestens bei der Anmeldung mit
ECTS-Punkte 6

Räume und Zeiten

Keine Raumangabe

Kommentar/Beschreibung

Im Seminar werden Originalarbeiten zur Konvergenz des SGD-Verfahrens (SGD = stochastic gradient descent) besprochen. Im Fokus stehen Arbeiten zur fast sicheren Konvergenz, sowie Arbeiten zur Konvergenz im Mittel.

Anmeldemodus

Die Anmeldung ist verbindlich, Teilnehmende können sich nicht selbst austragen.