31392 Perception for Autonome Systemer

2021/2022

Kursusinformation
Perception for autonomous systems
Engelsk
10
Kandidat
F2 (man 13-17, tors 8-12)
Campus Lyngby
Forelæsninger, øvelse, gruppearbejde og hjemmeopgaver.
13-uger
F2A, Aftales med underviser
Skriftlig eksamen og bedømmelse af øvelse(r)
Godkendelse af rapport er forudsætning for at gå til eksamen. Skriftlig eksamen er multiple-choice. Rapporten og eksamen vil blive bedømt som en helhed. Omeksamen kan være skriftlig eksamen alene (når rapporten er godkendt).
Skriftlig eksamen: 4 timer
Alle hjælpemidler er tilladt
7-trins skala , intern bedømmelse
31391 , Billedbehandling, kalmanfiltrering, software arkitekture for autonome systemer
Lazaros Nalpantidis , Lyngby Campus, Bygning 326 , lanalpa@dtu.dk
Evangelos Boukas , Lyngby Campus, Bygning 326 , evanb@dtu.dk
Ole Ravn , Lyngby Campus, Bygning 326, Tlf. (+45) 4525 3560 , oravn@dtu.dk
31 Institut for Elektroteknologi
I studieplanlæggeren
Overordnede kursusmål
Kurset orienterer deltagerne om teori og praktiske anvendelser af perception for autonome systemer. Formålet er at sætte eleverne i stand til at omdanne sensorers input fra en række billeddannelses- og 3D-sensorer til mere abstrakte beskrivelser af den observerede scene. Således vil sådanne teknikker tillade autonome systemer at sanser deres omverden og handle ind i det eller interagere med det. Kurset skal give både de matematiske beskrivelser og programmeringsværktøjer for at implementere sådanne perception teknikker.
Endelig er målet at sætte deltagerne i stand til at anvende de undervisede koncepter og værktøjer til yderligere at udvikle enten autonome systemer, der er udformet (fx roboter) eller immaterielle (fx software agent).
Læringsmål
En studerende, der fuldt ud har opfyldt kursets mål, vil kunne:
  • Beskriv de trin, der fører til 3D rekonstruktion ved hjælp af flere visninger.
  • Definer almindelige image feature ekstraktion og matchende teknikker.
  • Diskuter egenskaber ved forskellige afstand sansning sensorer og teknikker.
  • Anvend softwareværktøjer til at behandle 3D point clouds.
  • Kombiner billeddannelse og 3D sensorers input med state estimation teknikker.
  • Beskriv forskellene mellem klassisk og læringsbaseret objekt / scene klassifikation teknikker.
  • Beskriv de forskellige trin i visual odometry og forklar driften af de relaterede algoritmer.
  • Kombiner det lærte materiale til at foreslå og beskrive mulige implementeringer af yderligere perception applikationer.
Kursusindhold
Multiple View Geometry, Image Feature Detection and Description, Ranging, 3D Cloud Processing, State Estimation, Classification, Visual Servoing, Visual Odometry, SLAM, Object Detection.
Yderligere applikationer som: Hand and Skeleton Tracking, Semantic Mapping for Navigation, Object Pose Estimation, Scene Recognition, Long-Term Visual Recognition.
Øvelsesdelen består af introducerende øvelser og en projektopgave
Sidst opdateret
22. april, 2021