Computer Graphics
TU Braunschweig

Seminar Computer Vision SS'22
Seminar

Prof. Dr.-Ing. Martin Eisemann

Hörerkreis: Bachelor & Master
Kontakt: seminarcv@cg.cs.tu-bs.de

Modul: INF-STD-66, INF-STD-68
Vst.Nr.: 4216031, 4216032

Thema: Aktuelle Forschungsergebnisse aus dem Bereich Visual Computing

Aktuelles

Achtung! Leider muss der Präsentationstermin auf den 22.07.2022 09:00 - ca. 14 Uhr (IZ812) verschoben werden. Die Vorträge finden in Präsenz statt.

Inhalt

In diesem Semester bieten wir erneut das Seminar Computer Vision an, in welchem aktuelle Forschungsergebnisse aus der Computer Vision, des Visual Computings und Bild-/Videoverarbeitung diskutiert werden. Die Aufgabe der TeilnehmerInnen ist es Forschungsberichte schriftlich aufzuarbeiten, die Aufarbeitung eines anderen Studierenden schriftlich zu begutachten und dem Gutachten anderer Studierenden entsprechend die eigene Ausarbeitung zu verbessern. In einem Blockseminar am Ende des Semesters wird der jeweilige Forschungsbericht in einem mündlichen Vortrag präsentiert. Dieser muss vorab ebenfalls Probe gehalten werden vor einem anderen Studierenden und dessen Verbesserungsvorschläge integriert werden.

Teilnehmer

Das Angebot richtet sich an Bachelor- bzw. Masterstudierende aus den Fachrichtungen Informatik, IST und Wirtschaftsinformatik.

Die Anmeldung erfolgt zentral über StudIP. Die Teilnehmeranzahl ist auf 8 Studierende beschränkt.

Sollten Sie eine Platzreservierung erhalten haben, so senden Sie bitte das folgende Formular eingescannt und mit den entsprechend ausgefüllten Daten und Unterschrift bis zum unten genannten Termin der Abgabe der Themenwünsche an seminarcv@cg.cs.tu-bs.de (die fettgedruckten Angaben bitte mit der entsprechenden Information füllen). Im Anmeldeformular muss zusätzlich benannt werden, um die wievielte Teilnahme am Seminar im aktuellen Studiengang es sich handelt.

Anmeldeformular (bei Problemen senden Sie bitte eine Email an seminarcv@cg.cs.tu-bs.de)

Veranstaltungstermine

Die Veranstaltungstermine werden hier zu gegebener Zeit bekanntgegeben.

Sämtliche hier aufgeführten Termine sind einzuhalten. Alle Veranstaltungstermine müssen besucht werden.

ACHTUNG! Es möglich, dass das Kick-Off und ggf. die Veranstaltung online durchgeführt werden muss. Angemeldete Studierende erhalten die vollständigen Informationen dazu rechtzeitig per Mail an Ihre TU-Adresse. Bei Fragen oder Unklarheiten wenden Sie sich bitte an seminarcv@cg.cs.tu-bs.de. Es besteht Anwesenheitspflicht!

  • 03.02.22 - 24.02.22: Anmeldung über Stud.IP
  • Bis 18.04.2022: Abgabe der Themenwünsche
  • 26.04.2022, 10:30 Uhr: Kickoff Meeting (G30, ICG Online)
  • 03.05.2022: Ende der Abmeldefrist 
  • 24.05.2022: Abgabe der schriftlichen Ausarbeitung (bitte Datei nach folgendem Schema benennen: IhrNachname_Draft_SeminarCV.pdf)
  • 07.06.2022: Abgabe des Gutachtens (bitte Datei nach folgendem Schema benennen: IhrNachname_Gutachten_SeminarCV.pdf)
  • 05.07.2022: Abgabe der überarbeiteten schriftlichen Ausarbeitung (bitte Datei nach folgendem Schema benennen: IhrNachname_FinaleVersion_SeminarCV.pdf)
  • Bis 11.07.2022: Probevortrag
  • 14.07.2022  22.07.2022 (IZ 812), 09:00 - 14:00: Vorträge - Blockveranstaltung (bitte Folien nach folgendem Schema benennen: IhrNachname_Vortrag_SeminarCV.pdf)

Angemeldete Studierende haben die Möglichkeit, sich bis spätestens 2 Wochen nach Beginn der Vorlesungen abzumelden. Für eine erfolgreiche Abmeldung ist es erforderlich sich bei der Seminarbetreuung abzumelden.

Die jeweiligen Abgaben erfolgen per Email an seminarcv@cg.cs.tu-bs.de und ggf. per Email an den Tandempartner. Falls nicht anders kommuniziert, müssen die Abgaben bis um 23:59 Uhr des Abgabetages erfolgen.

Bei Fragen zur Veranstaltung wenden Sie sich bitte an seminarcv@cg.cs.tu-bs.de.

Format

  • Zu jedem Thema wird eine Zusammenfassung in Latex mithilfe des Institut-Templates erstellt.
    Inhalt der Ausarbeitung ist eine kurze Zusammenfassung der Arbeit mit eigenen Worten und die Herausarbeitung der Hauptpunkte mit einem Umfang von mindestens 8 Seiten. Die Ausarbeitung soll deutlich machen, dass das Thema verstanden wurde.
  • Jeder Teilnehmende verfasst ein 1-2 seitiges Gutachten über eine vorgegebene schriftliche Ausarbeitung. Dabei soll insbesondere auf die Verständlichkeit und den sprachlichen Stil der Zusammenfassung eingegangen werden.
  • Die Themen werden in ca. 20 minütigen Vorträgen mit anschließender Diskussion präsentiert.
  • Für die Vorträge vor Ort kann ein Laptop des Instituts oder ein eigener Laptop verwendet werden. Falls der Institutslaptop genutzt werden soll, ist es notwendig sich rechtzeitig unter seminarcv@cg.tu-bs.de zu melden, spätestens zwei Wochen vor den Vorträgen. In diesem Falle müssen die Vortragsfolien min. eine Woche vor dem Vortrag zur Verfügung gestellt werden.
  • Falls die Vorträge online stattfinden, wird Big Blue Button als Plattform genutzt. Studierende benötigen in diesem Fall einen eigenen PC mit Mikrofon. Zudem wäre eine Videoübertragung während des eigenen Vortrages wünschenswert. Sollten diese Vorraussetzungen nicht erfüllbar sein, ist es notwendig sich rechtzeitig unter seminarcv@cg.cs.tu-bs.de zu melden.
  • Die Sprache ist wahlweise Deutsch oder Englisch.
  • Der Vortrag, die schriftliche Zusammenfassung und die Erstellung des Gutachtens sind zwingende Voraussetzungen für den Erhalt eines Scheines.

Dateien und Templates

Themen 

  1. Endless Loops: Detecting and Animating Periodic Patterns in Still Images
    Halperin et al.

    Siggraph 2021

    Das Colosseum in einem Photo rotieren lassen? Wasser oder Rauch in einem Photo automatisch animieren? Das geht, dank dieser Arbeit.

  2. ChoreoMaster : Choreography-Oriented Music-Driven Dance Synthesis
    Chen et al.

    Siggraph 2021

    Wer WoW kennt hat mit Sicherheit schon diverse Male seinen Avatar tanzen lassen. Warum das jetzt sogar passend zur Musik geht, erfährt man in dieser Arbeit.

  3. Real-time Global Illumination Decomposition of Videos
    Meka et al.
    ACM Transactions on Graphics 2021

    Für überzeugendes Video-Editing ist es wichtig die Lichtverhältnisse innerhalb eines Videos korrekt zu rekonstruieren. Diese Arbeit zeigt die erste Echtzeit-Anwendung in welcher es möglich ist, direkte und indirekte Beleuchtung aus einem einzelnen RGB Video zu extrahieren.

  4. Eccentricity-Dependent Spatio-Temporal Flicker Fusion
    Krajancich et al.

    Siggraph 2021

    Unser Auge integriert das Licht über einen bestimmten Zeitraum, wodurch wir schnelle Lichtblitze als konstante Beleuchtung wahrnehmen. Dieser Effekt lässt sich für verschiedenste Anwendungen ausnutzen, bspw. Auflösungserhöhung über das physikalische Limit eines Displays hinaus. Wann und unter welchen Umständen das menschliche Auge dazu in der Lage ist, erarbeitet dieser Artikel.
     
  5. Selective Region-based Photo Color Adjustment for Graphic Designs
    Zhao et al.

    Siggraph 2021

    Professionelle Graphikdesigner justieren oftmals die Farben in einem Foto von Hand, damit es bspw. zu einem hinzugefügten Schriftzug passt. Wie dieser Schritt automatisiert werden kann, wird in diesem Artikel erklärt.
     
  6. Free-form Scanning of Non-planar Appearance with Neural Trace Photography
    Ma et al.
    Siggraph 2021

    Qualitativ hochwertiges 3D Scanning von Objekten mit anisotropen Materialeigenschaften war bisher ein schwieriges Problem. In diesem Ansatz wird es gelöst, indem die übliche 3D Punktwolke als Messpunkte in ein Neuronales Netz gespeist werden, welches die Rekonstruktion vornimmt, mit erstaunlichen Ergebnissen.

  7. Video Recoloring via Spatial-Temporal Geometric Palettes
    Du et al.

    ACM Transactions on Graphics 2021

    Color Correction und Color Grading sind einer der wichtigsten und meist der letzte Schrit in einer professionellen Videobearbeitung aber auch Rendering. In dieser Arbeit wird ein neuer Ansatz vorgestellt, der statt der üblichen Histogramme auf einem Raumzeit-Polytop arbeitet, quasi ein verzerrter 4D Würfel. Was diesen letzten Schritt deutlich vereinfacht.

  8. Dirty Pixels: Towards End-to-End Image Processing and Perception
    Diamond et al.

    Siggraph 2021

    Photoaufnahmen unter schlechten Lichtbedingungen sind auch heute noch eine Herausforderung für die meisten Kameras und die darunterliegende Software. In dieser Arbeit wird ein end-to-end Ansatz für ein gemeinsam optimiertes Demosaicking, Denoising, Deblurring und Klassifzierung vorgestellt.

      Betreuer

      Martin Eisemann