Digicampus
Seminar: Seminar zur Stochastik im Themenfeld Stochastische Optimierung (Master) - Details
You are not logged into Stud.IP.
Lehrveranstaltung wird als Hybrid/gemischt abgehalten.

General information

Course name Seminar: Seminar zur Stochastik im Themenfeld Stochastische Optimierung (Master)
Subtitle Stochastic Gradient Methods
Course number MTH-1410; MTH-1400
Semester WS 2022/23
Current number of participants 3
expected number of participants 8
Home institute Rechnerorientierte Statistik und Datenanalyse
participating institutes Institut für Mathematik
Courses type Seminar in category Teaching
Participants Hauptsächlich für Masterstudiengänge Mathematik und Wirtschafstsmathematik sowie Masterstudiengang Mathematical Analysis and Modelling Master geeignet.
Pre-requisites notwendig:
- Programmiererfahrung in einer beliebigen Programmiersprache
- Stochastik I
- Optimierung II (nichtlineare Optimierung)
vorteilhaft:
- Numerische Verfahren der Optimierung
Learning organisation - Das Seminar wird als Blockseminar im Wintersemester stattfinden (online / in Präsenz)
Performance record - Das Seminar besteht aus den folgenden abzugebenden Bestandteilen (Abgabe spätestens 14 Tage vor Vortrag)
• einem 30-45minütigen Vortrag (Folien bzw. Tafelkonzept) und
• einer Implementierung in Matlab (Scilab / Octave)
Online/Digitale Veranstaltung Veranstaltung wird als Hybrid/gemischt abgehalten.
Hauptunterrichtssprache deutsch
Literaturhinweise Englischsprachige Originalarbeiten
Miscellanea Die Vorbesprechung und Themenvergabe erfolgen ausschließlich am Donnerstag, den 21.07.2022 um 15:45 Uhr im Raum 3008 L1. Sollten Sie zum Vorbesprechungstermin verhindert sein, jedoch am Seminar teilnehmen wollen, so melden Sie sich bitte ebenfalls vorab unverbindlich per email an. (ralf.werner@uni-a.de) Alternativ kann das Seminar als Seminar in Optimierung angerechnet werden. Bitte teilen Sie
dies spätestens bei der Anmeldung mit
ECTS points 6

Course location / Course dates

unspecified

Module assignments

Comment/Description

Im Seminar werden Originalarbeiten zur Konvergenz des SGD-Verfahrens (SGD = stochastic gradient descent) besprochen. Im Fokus stehen Arbeiten zur fast sicheren Konvergenz, sowie Arbeiten zur Konvergenz im Mittel.

Registration mode

The enrolment is binding, participants cannot unsubscribe themselves.