Computer Graphics
TU Braunschweig

Seminar Computergraphik WS'18/19
Seminar

Prof. Dr.-Ing. Marcus Magnor

Hörerkreis: Bachelor & Master
Kontakt: seminar@cg.cs.tu-bs.de

Modul: INF-STD-66, INF-STD-68
Vst.Nr.: 4216012, 4216021

Thema: Aktuelle Forschungsergebnisse aus der Computergraphik

 Left: BodyNet, Right: Saliency in VR

Inhalt

Auch in diesem Semester werden im Seminar Computergraphik wieder aktuelle Forschungsergebnisse aus der Computergraphik diskutiert. Die Aufgabe der TeilnehmerInnen ist es Forschungsberichte schriftlich aufzuarbeiten, die Aufarbeitung eines anderen Studierenden schriftlich zu begutachten und dem Gutachten anderer Studierenden entsprechend die eigene Ausarbeitung zu verbessern. In einem Blockseminar am Ende des Semesters wird der jeweilige Forschungsbericht in einem mündlichen Vortrag präsentiert.

Teilnehmer

Das Angebot richtet sich an Bachelor- bzw. Masterstudierende aus den Fachrichtungen Informatik, IST und Wirtschaftsinformatik.
Die Teilnehmeranzahl ist auf 8 Studierende beschränkt.

Veranstaltungstermine

Sämtliche hier aufgeführten Termine sind einzuhalten. Alle Veranstaltungstermine müssen besucht werden.

  • 28.06.2018 - 19.07.2018: Anmeldung über Stud.IP
  • Bis 17.10.2018: Abgabe der Themenwünsche
  • 19.10.2018, 13:00 Uhr: Kickoff Meeting (G30, ICG)
  • 29.10.2018: Ende der Abmeldefrist
  • 14.11.2018: Abgabe der schriftlichen Ausarbeitung
  • 28.11.2018: Abgabe des Gutachtens
  • 12.12.2018: Abgabe der überarbeiteten schriftlichen Ausarbeitung
  • Bis 11.01.2019: Probevortrag
  • 18.01.2019, 09:00 - 12:00: Vorträge - Blockveranstaltung Teil 1
  • 25.01.2019, 09:00 - 12:00: Vorträge - Blockveranstaltung Teil 2

Angemeldete Studierende haben die Möglichkeit, sich bis spätestens 2 Wochen nach Beginn der Vorlesungen abzumelden (Montag, 29.10.2018). Für eine erfolgreiche Abmeldung ist es erforderlich sich bei der Seminarbetreuung abzumelden.

Angemeldete Studierende haben die Möglichkeit bis zum 17.10.18 ihre Top 3 Themenwünsche per Mail an seminar@cg.cs.tu-bs.de zu schicken, damit diese bei der Themenvergabe berücksichtigt werden. In der Mail muss zusätzlich benannt werden, um die wievielte Teilnahme am Seminar im aktuellen Studiengang es sich handelt.

Die jeweiligen Abgaben erfolgen per Mail an den jeweiligen BetreuerIn und zusätzlich an seminar@cg.cs.tu-bs.de. Falls nicht anders kommuniziert, müssen die Abgaben bis um 23:59 Uhr des Abgabetages erfolgen.

Bei Fragen zur Veranstaltung wenden Sie sich bitte an seminar@cg.cs.tu-bs.de oder +49 531 391 2106.

Format

  • Zu jedem Thema wird eine Zusammenfassung in Latex mithilfe des Institut-Templates erstellt.
    Inhalt der Ausarbeitung ist eine kurze Zusammenfassung der Arbeit mit eigenen Worten und die Herausarbeitung der Hauptpunkte mit einem Umfang von mindestens 8 Seiten. Die Ausarbeitung soll deutlich machen, dass das Thema verstanden wurde.
  • Jeder Teilnehmende verfasst ein 1-2 seitiges Gutachten über eine vorgegebene schriftliche Ausarbeitung. Dabei soll insbesondere auf die Verständlichkeit und den sprachlichen Stil der Zusammenfassung eingegangen werden.
  • Die Themen werden in ca. 20 minütigen Vorträgen mit anschließender Diskussion präsentiert.
    Für die Vorträge kann ein Laptop des Instituts oder ein eigener Laptop verwendet werden. Falls der Institutslaptop genutzt werden soll, ist es notwendig sich rechtzeitig unter seminar@cg.cs.tu-bs.de zu melden.
  • Die Sprache ist wahlweise Deutsch oder Englisch.
  • Der Vortrag, die schriftliche Zusammenfassung und die Erstellung des Gutachtens sind zwingende Voraussetzungen für den Erhalt eines Scheines.

Templates

Themen

  1. Ranking Visualizations of Correlation Using Weber’s Law
    Lane Harrison, Fumeng Yang, Steven Franconeri, Remco Chang
    Transactions on Visualization and Computer Graphics 2014
    Betreuer: Georgia Albuquerque

    Das Paper beschreibt ein Experiment, das basierend auf Weber's Law die Wahrnehmung von Korrelationen verschiedener Visualisierungsarten vergleicht.
     
  2. BodyNet: Volumetric Inference of 3D Human Body Shapes, Material-Webseite
    Varol, Gül and Ceylan, Duygu and Russell, Bryan and Yang, Jimei and Yumer, Ersin and Laptev, Ivan, Schmid, Cordelia
    Betreuer: Thiemo Alldieck

    Das Paper beschreibt einen Ansatz zur Bestimmung der 3D Körperform von Menschen aus nur einem Bild. Im Gegensatz zu bisherigen Methoden werden nicht Parameter eines statistischen Modells geschätzt, sondern mithilfe eines CNNs direkt ein Volumen berechnet.
     
  3. Towards Virtual Reality Infinite Walking: Dynamic Saccadic Redirection, Material-Webseite
    Qi Sun, Anjul Patney, Li-Yi Wei, Omer Shapira, Jingwan Lu, Paul Asente, Suwen Zhu, Morgan McGuire, David Luebke, Arie Kaufman
    SIGGRAPH 2018
    Betreuer: Steve Grogorick

    Das Paper präsentiert eine Technik aus dem Bereich des sogenannten "Redirected Walking" für virtuelle Umgebungen. Dabei wird eine Schwäche der menschlichen visuellen Wahrnehmung ausgenutzt, um die virtuelle Bewegung von Nutzern unbemerkt von der realen Bewegung abweichen zu lassen.
     
  4. Context-aware Synthesis for Video Frame Interpolation, Material-Webseite
    Simon Niklaus und Feng Liu
    CVPR 2018
    Betreuer: Marc Kassubeck

    Dieses Paper beschreibt ein neues Verfahren zur Interpolation zwischen zwei Bildern mittels optischem Fluss und zusätzlichen ‚Kontextinformationen‘, die helfen, schwierige Situationen wie Verdeckung besser zu behandeln.
     
  5. Adversarial Collaboration: Joint Unsupervised Learning of Depth, Camera Motion, Optical Flow and Motion Segmentation
    Anurag Ranjan, Varun Jampani, Kihwan Kim, Deqing Sun, Jonas Wulff, Michael J. Black
    Betreuer: Moritz Mühlhausen

    Das Paper beschäftigt sich mit dem unsupervised learning von vier miteinander verknüpten Problemen: Monokulare Tiefenschätzung, Kamera-Bewegungs-Schätzung, Bewegungs-Segmentierung und der optischen Fluss Schätzung. Sie verbinden die neuronalen Netze für diese Probleme, sodass sie gemeinsam, ohne ground truth Daten, ihre jeweilige Aufgabe lernen. Nach dem Lernprozess können die Netze auch eigenständig für ihre jeweilige Aufgabe verwendet werden.

     
  6. Real-Time Movie-Induced Discrete Emotion Recognition from EEG Signals
    Transactions on Affective Computing 2017
    Betreuer: JP Tauscher

    Das Paper stellt ein System zur Echtzeitanalyse und Klassifikation von diskret quantisierten, emotionalen Zuständen im Zusammenhang mit ihren kontinuierlichen Positionen in der Valence-Arousal-Ebene während des Betrachtens von bewegtem, realem Bildmaterial mittels Elektroenzephalografie vor.
     
  7. PanoTrace: interactive 3D modeling of surround-view panoramic images in virtual reality
    Ehsan Sayyad, radeep Sen, Tobias Höllerer
    VRST 2017
    Betreuer: Matthias Überheide

    Für moderne Virtual Reality Erfahrungen werden meist Informationen über die Szenengeometrie benötigt um dem Benutzer die volle Bewegungsfreiheit gewähren zu können. Da diese für die echte Welt nicht verfügbar oder zumindest nicht leicht erhaltbar sind, sind VR Erfahrungen meist auf künstliche Szenen begrenzt. PanoTrace beschreibt ein Framework mit dem nicht bewegte Szenen aus Panoramaaufnahmen manuell rekonstruiert werden können. Es werden verschiedene Werkzeuge vorgestellt, die den Benutzer in VR bei der Rekonstruktion unterstützen und so die Rekonstruktion der Szene erlauben.

     
  8. Saliency in VR: How do people explore virtual environments?, Material-Webseite
    Vincent Sitzmann and Ana Serrano and Amy Pavel and Maneesh Agrawala and Diego Gutierrez and Belen Masia and Gordon Wetzstein
    VR 2018
    Betreuer: Leslie Wöhler

    In diesem Paper wird ein Experiment zum Sehverhalten in statischen Virtual Reality Szenen durchgeführt und ausführlich evaluiert. Betrachtet werden dabei insbesondere Unterschiede zwischen dem normalen Sehverhalten am Monitor im Gegensatz zum Sehverhalten bei der Nutzung von Virtual Reality Brillen.
     

Betreuer

Georgia Albuquerque

Thiemo Alldieck

Steve Grogorick

Marc Kassubeck

Moritz Mühlhausen

JP Tauscher

Matthias Überheide

Leslie Wöhler