Sie sind hier: Startseite Studium und Lehre Wintersemester 2020/2021 Vorlesung Stochastic Machine …

Informationen zu den Übungen und der Vorlesung Stochastic Machine Learning (WS 2020/2021)

Dozent: Prof. Dr. Thorsten Schmidt

Assistent:  Lars Niemann, M.Sc.

Termin:
Mo, Do 10–12 Uhr, SR 226, Hermann-Herder-Str. 10, ggf. als Online-Kurs

Übungen: 2-stündig n.V.

This lecture will be held in English. We meet on Monday, 2nd of November 10.15 via Zoom.

Meeting-ID: 853 3690 3384

Kenncode: Kolmogo21

Not all lectures will be recorded, but many of them will be available online. 

Description

Machine Learning is one of the key technology in the recent developments in artificial intelligence. In this lecture we will look at the most recent developments and concentrate on a probabilistic perspective.

In particular we will study the reservoir computing paradigm, stochastic aspects of learning like GANs, new discretizations schemes of stochastic differential equations and many more.

A particular focus in the second half of the lecture will be on applications in Finance, like deep pricing, deep calibration and deep hedging.

 

Studien- und Prüfungsleistung

 Die Anforderungen an Studien- und Prüfungsleistungen entnehmen Sie bitte dem aktuellen Modulhandbuch.

 

Übung

Es wird keinen klassischen Übungsbetrieb geben.

Um die Studienleistung zu erhalten muss in Gruppenarbeit ein Projekt bearbeitet werden. Dabei werden Konzepte des Machinellen Lernens

in praktischen Anwendungen studiert, und mithilfe von Keras in Python 3 umgesetzt.

Die Richtlinien für das Projekt sind:

  •  Finden sie sich in Gruppen von 4-6 Teilnehmern zusammen.

   Beschäftigen sie sich frühzeitig mit der Themenauswahl. Sollten sie ein eigenes Thema vorschlagen, so muss dies bis zum 23.11.2020 geschehen. Rückmeldung ob ihr Thema angenommen wird, erhalten sie bis zum 25.11.2020.

  •  Bis zum 30.11.2020: Schreiben sie dem Assistenten eine E-Mail (Lars.Niemann[at]stochastik[dot]uni-freiburg[dot]de) mit folgendem Inhalt:  Namen der Teilnehmer und die dazugehörigen Matrikelnummern, ausgewähltes Thema, Formulierung von Zielen und geplante Arbeitsverteilung.
  •   Bis zum 21.12.2020:   Bereiten sie ein Dokument vor, um Probleme zu klären und einen Zwischenstand zu präsentieren. 

   Das Dokument soll ihren bisherigen Fortschritt aufzeigen. Gehen sie insbesondere auf die Erreichbarkeit ihrer Ziele ein, und welche Ziele sie gegebenenfalls ändern müssen. Teilen sie ihren Code im zur Vorlesung gehörenden Git.

  •   Bis zum 10.2.2021:  Präsentieren sie ihre Arbeit in der Vorlesung. Sie bekommen dafür rechtzeitig einen Termin zugewiesen. Spätestens eine Woche vor ihrem Termin muss eine schriftliche Ausarbeitung des Projekts an den Assistenten gesendet werden. Fügen sie ihren verständlich kommentierten Code sowohl der Ausarbeitung, als

   auch dem Git bei. Gehen sie in der Ausarbeitung auch auf den Projektprozess ein, und machen sie die Leistung der einzelnen Gruppenteilnehmer kenntlich.

 Die Einhaltung der Richtlinien ist zwingend notwendig um die Studienleistung zu erhalten.

 

 

Themenauswahl

Solving (high-dimensional, non-linear partial) differential equations
Literature:  
Solving semilinear PDEs: Han, Jiequn, Arnulf Jentzen, and E. Weinan. "Solving high-dimensional partial differential equations using deep learning." Proceedings of the National Academy of Sciences 115.34 (2018): 8505-8510.
Solving non-linear PDEs based on the connection to 2BSDEs: Beck, Christian, E. Weinan, and Arnulf Jentzen. "Machine learning approximation algorithms for high-dimensional fully nonlinear partial differential equations and second-order backward stochastic differential equations." Journal of Nonlinear Science 29.4 (2019): 1563-1619.
 
Principal Component Analysis 
Literature:
Herrera, Calypso, Florian Krach, and Josef Teichmann. "Denise: Deep Learning based Robust PCA for Positive Semidefinite Matrices." arXiv preprint arXiv:2004.13612 (2020).
 
Learning under Constraints
Literature:
Dugas, Charles, et al. "Incorporating second-order functional knowledge for better option pricing." Advances in neural information processing systems. 2001.
Itkin, Andrey. "Deep learning calibration of option pricing models: some pitfalls and solutions." arXiv preprint arXiv:1906.03507 (2019)
and references therein.
 
Optimal Stopping
Literature
Becker, Sebastian, Patrick Cheridito, and Arnulf Jentzen. "Pricing and hedging American-style options with deep learning." Journal of Risk and Financial Management 13.7 (2020): 158.
Becker, Sebastian, Patrick Cheridito, and Arnulf Jentzen. "Deep optimal stopping." Journal of Machine Learning Research 20 (2019): 74.
Longstaff, Francis A., and Eduardo S. Schwartz. "Valuing American options by simulation: a simple least-squares approach." The review of financial studies 14.1 (2001): 113-147.

Dependence Uncertainty
Literature:
Eckstein, Stephan, and Michael Kupper. "Computation of optimal transport and related hedging problems via penalization and neural networks." Applied Mathematics & Optimization (2019): 1-29.
P. Embrechts, G. Puccetti, and L. Rüschendorf. Model uncertainty and VaR aggregation.
Journal of Banking & Finance, 37(8):2750–2764, 2013.
 
Deep Hedging and Extensions
Literature:
Buehler, H., Gonon, L., Teichmann, J., & Wood, B. (2019). Deep hedging. Quantitative Finance, 19(8), 1271-1291.
Based on this there are several extensions related to finance possible.

Literatur

Wird in der Vorlesung bekannt gegeben.

 

Sprechstunden

Bis auf Weiteres finden Sprechstunden Corona-bedingt nur individuell und online via BigBlueButton statt.