Overordnede kursusmål
Formål med kursus er at introducere deltagere kursus til nogle af
de metoder og algoritmer der anvendes i scientific machine learning
(SciMl), og lade deltagerne opnå erfaringer med disse vha.
elementære computer eksperimenter. PhD kursus dækker flere emner
indenfor SciML: neurale differential ligninger, universelle
differentialligninger, physics-informed neurale netværk (PINN),
automatic differentiation (AD), differentiabel programmering,
neurale operatorer, symbolsk regression, mv. Det overordnede mål er
at give deltagerne et overblik over "værktøjer" der er
til rådighed og hvordan de kan modificeres til specifikke SciML
anvendelser. Kursus er delvist baseret på forelæsningsnoter fra
MIT's kursus 18.337 Parallel Computing and Scientific Machine
Learning.
Læringsmål
En studerende, der fuldt ud har opfyldt kursets mål, vil kunne:
- Forstå hvilke typer af problemer og spørgsmål der bedst
addresseres med SciML metoder.
- Forstå hvordan metoder kan udnyttes som byggesten til at
addressere SciML spørgsmål.
- Være i stand til a vælge relevante metoder afhængig af
problem.
- Implementere metoder i Julia.
- Udføre numeriske eksperimenter på en nyttig og korrekt måde
samt kunne tolke resultater.
- Opsætte og træne neurale differentialligningsløsere og
fysisk-baserede neurale netværk.
- identiificere og udnytte egenskaber og struktur af
videnskabeligt forankret viden indenfor maskinlæring
anvendelser.
- Selvstændigt løse et problem indenfor et special emne der
udbydes i kursus.
- Skrivning af opnåede resultater i en rapport eller
poster.
Kursusindhold
1. Introduktion til Scientific Machine Learning (SciML)
Forelæsning: Hvad er SciMl? Hvad er de væsentlige matematiske ideer
bag SciML? Hvilke succes'er har området haft? Hvilke
udfordringer skal man have øje for? Hvilke problemer skal man bruge
SciML til at løse, og hvilke problemer skal man ikke?
2. Fysisk-baserede Neurale Netværk
Forelæsning: What er et fysisk-baseret neuralt netværk (PINN)? Hvad
kan man brruge PINN til? Hvad er den matematiske basis bag PINN?
Hvilke mulige udvidelser til PINN er nødvendig for ingeniørmæssige
anvendelser?
3. Automatisk differentiering og Differentiabel programmering
Forelæsning: Hvad er automatisk differentiering, og hvordan
fungerer det? Hvordan implementerer man et automatisk
differentieringssystem effektivt? Hvad er
forskel mellem fremad, baglæns og numerisk differentiering? Hvordan
håndterer man sparsitet i differentiering?
4. Neurale differentialligninger
Forelæsning: Hvad er en neural differentialligning? Hvordan er
neurale differentialer
ligninger (som neurale ordinære differentialligninger (neurale
ODE'er)) trænet?
Hvilke matematiske algoritmer skal man kende til adjoints? Hvilke
numeriske
vanskeligheder kan der opstå?
Computereksperimenter med neurale ODE'er: Træn neurale
ODE'er på data ved hjælp af stabiliseringsteknikker som
multi-skydning.
5. Universelle differentialligninger og symbolsk regression
Forelæsning: Hvad er en universel differentialligning (UDE)?
Hvordan kan mange algoritmer,
såsom diskrete fysik-informerede neurale netværk (diskrete
PINN'er), dybe
baglæns stokastiske differentialligninger, og optimal kontrol
udtrykkes
som et UDE træningsproblem? Hvordan løser man et
UDE-træningsproblem? Hvordan lave
én blanding af symbolsk regression for at give en fortolkelig
løsning?
Computereksperimenter med UDE'er: Automatiseret symbolsk
udvidelse af en delvist kendt
videnskabelig model ved hjælp af eksperimentelle data.
6. Neurale operatører
Foredrag: Hvad er DeepONets? Hvad er Fourier Neurale Operatører?
Hvornår er disse
metoder nyttige ved sammenligning med PINN'er og UDE'er?
Litteraturhenvisninger
-
https://book.sciml.ai/Sidst opdateret
04. maj, 2022