Computer Graphics
TU Braunschweig

Seminar Computer Vision WS'22/23
Seminar

Prof. Dr.-Ing. Martin Eisemann

Hörerkreis: Bachelor & Master
Kontakt: seminarcv@cg.cs.tu-bs.de

Modul: INF-STD-66, INF-STD-68
Vst.Nr.: 4216031, 4216032

Thema: Aktuelle Forschungsergebnisse aus dem Bereich Visual Computing

Aktuelles

Inhalt

In diesem Semester bieten wir erneut das Seminar Computer Vision an, in welchem aktuelle Forschungsergebnisse aus der Computer Vision, des Visual Computings und Bild-/Videoverarbeitung diskutiert werden. Die Aufgabe der TeilnehmerInnen ist es Forschungsberichte schriftlich aufzuarbeiten, die Aufarbeitung eines anderen Studierenden schriftlich zu begutachten und dem Gutachten anderer Studierenden entsprechend die eigene Ausarbeitung zu verbessern. In einem Blockseminar am Ende des Semesters wird der jeweilige Forschungsbericht in einem mündlichen Vortrag präsentiert. Dieser muss vorab ebenfalls Probe gehalten werden vor einer/m anderen Studierenden und dessen Verbesserungsvorschläge integriert werden.

Teilnehmer

Das Angebot richtet sich an Bachelor- bzw. Masterstudierende aus den Fachrichtungen Informatik, IST und Wirtschaftsinformatik.

Die Anmeldung erfolgt zentral über StudIP. Die Teilnehmeranzahl ist auf 8 Studierende beschränkt.

Sollten Sie eine Platzreservierung erhalten haben, so senden Sie bitte das folgende Formular eingescannt und mit den entsprechend ausgefüllten Daten und Unterschrift bis zum unten genannten Termin der Abgabe der Themenwünsche an seminarcv@cg.cs.tu-bs.de (die fettgedruckten Angaben bitte mit der entsprechenden Information füllen). Im Anmeldeformular muss zusätzlich benannt werden, um die wievielte Teilnahme am Seminar im aktuellen Studiengang es sich handelt.

Anmeldeformular (bei Problemen senden Sie bitte eine Email an seminarcv@cg.cs.tu-bs.de)

Veranstaltungstermine

Die Veranstaltungstermine werden hier zu gegebener Zeit bekanntgegeben.

Sämtliche hier aufgeführten Termine sind einzuhalten. Alle Veranstaltungstermine müssen besucht werden.

  • 14.07.22 - 04.08.22: Anmeldung über Stud.IP
  • Bis 24.10.2022: Abgabe der Themenwünsche
  • 25.10.2022, 10:30 Uhr: Kickoff Meeting (G30, ICG)
  • 07.11.2022: Ende der Abmeldefrist 
  • 27.11.2022: Abgabe der ersten schriftlichen Ausarbeitung (bitte Datei nach folgendem Schema benennen: IhrNachname_Draft_SeminarCV.pdf)
  • 07.12.2022: Abgabe des Gutachtens (bitte Datei nach folgendem Schema benennen: IhrNachname_Gutachten_SeminarCV.pdf)
  • 08.01.2023: Abgabe der überarbeiteten schriftlichen Ausarbeitung (bitte Datei nach folgendem Schema benennen: IhrNachname_FinaleVersion_SeminarCV.pdf)
  • Bis 20.01.2023: Probevortrag
  • 26.01.2023, 09:00 - 14:00: Vorträge - Blockveranstaltung, Teil 1 (bitte Folien nach folgendem Schema benennen: IhrNachname_Vortrag_SeminarCV.pdf)
  • 02.02.2023, 09:00 - 14:00: Vorträge - Blockveranstaltung, Teil 2 (bitte Folien nach folgendem Schema benennen: IhrNachname_Vortrag_SeminarCV.pdf)

Angemeldete Studierende haben die Möglichkeit, sich bis spätestens 2 Wochen nach Beginn der Vorlesungen abzumelden. Für eine erfolgreiche Abmeldung ist es erforderlich sich bei der Seminarbetreuung abzumelden.

Die jeweiligen Abgaben erfolgen per Email an seminarcv@cg.cs.tu-bs.de und ggf. per Email an den Tandempartner. Falls nicht anders kommuniziert, müssen die Abgaben bis um 23:59 Uhr des Abgabetages erfolgen.

Bei Fragen zur Veranstaltung wenden Sie sich bitte an seminarcv@cg.cs.tu-bs.de.

Format

  • Zu jedem Thema wird eine Zusammenfassung in Latex mithilfe des Institut-Templates erstellt.
    Inhalt der Ausarbeitung ist eine kurze Zusammenfassung der Arbeit mit eigenen Worten und die Herausarbeitung der Hauptpunkte mit einem Umfang von mindestens 8 Seiten. Die Ausarbeitung soll deutlich machen, dass das Thema verstanden wurde.
  • Jeder Teilnehmende verfasst ein 1-2 seitiges Gutachten über eine vorgegebene schriftliche Ausarbeitung. Dabei soll insbesondere auf die Verständlichkeit und den sprachlichen Stil der Zusammenfassung eingegangen werden.
  • Die Themen werden in ca. 20 minütigen Vorträgen mit anschließender Diskussion präsentiert.
  • Für die Vorträge vor Ort kann ein Laptop des Instituts oder ein eigener Laptop verwendet werden. Falls der Institutslaptop genutzt werden soll, ist es notwendig sich rechtzeitig unter seminarcv@cg.tu-bs.de zu melden, spätestens zwei Wochen vor den Vorträgen. In diesem Falle müssen die Vortragsfolien min. eine Woche vor dem Vortrag zur Verfügung gestellt werden.
  • Falls die Vorträge online stattfinden, wird Big Blue Button als Plattform genutzt. Studierende benötigen in diesem Fall einen eigenen PC mit Mikrofon. Zudem wäre eine Videoübertragung während des eigenen Vortrages wünschenswert. Sollten diese Vorraussetzungen nicht erfüllbar sein, ist es notwendig sich rechtzeitig unter seminarcv@cg.cs.tu-bs.de zu melden.
  • Die Sprache ist wahlweise Deutsch oder Englisch.
  • Der Vortrag, die schriftliche Zusammenfassung und die Erstellung des Gutachtens sind zwingende Voraussetzungen für den Erhalt eines Scheines.

Dateien und Templates

Themen 

  1. Ecoclimates: Climate-Response Modeling of Vegetation
    Palubicki et al.

    Siggraph 2022

    In this work we take steps towards simulating ecoclimates by modeling the feedback loops between vegetation, soil, and atmosphere. In contrast to existing methods that only describe the climate at a global scale, our model aims at simulating local variations of climate.

  2. Tailored Reality: Perception-Aware Scene Restructuring for Adaptive VR Navigation
    Dong et al.

    Siggraph 2022

    We present a novel VR-oriented algorithm that automatically restructures a given virtual scene for a user’s physical environment. Different from the previous methods, we introduce neither interrupted walking experience nor curved appearances. Instead, a perception-aware function optimizes our retargeting technique to preserve the fidelity of the virtual scene that appears in VR head-mounted displays. 

  3. Designing Perceptual Puzzles by Differentiating Probabilistic Programs
    Chandra et al.

    Siggraph 2022

    We design new visual illusions by finding “adversarial examples” for principled models of human perception — specifically, for probabilistic models, which treat vision as Bayesian inference. We demonstrate our method by automatically creating illusions for three features of human vision: color constancy, size constancy, and face perception.
     
  4. Detecting Viewer-Perceived Intended Vector Sketch Connectivity
    Yin et al.

    Siggraph 2022

    Many sketch processing applications target precise vector drawings with accurately specified stroke intersections, yet free-form artist drawn sketches are typically inexact: strokes that are intended to intersect often stop short of doing so. While human observers easily perceive the artist intended stroke connectivity, manually, or even semi-manually, correcting drawings to generate correctly connected outputs is tedious and highly time consuming. We propose a novel, robust algorithm that extracts viewer-perceived stroke connectivity from inexact free-form vector drawings by leveraging observations about local and global factors that impact human perception of inter-stroke connectivity.
     
  5. CLIPasso: Semantically-Aware Object Sketching
    Vinker et al.

    Siggraph 2022

    Abstraction is at the heart of sketching due to the simple and minimal nature of line drawings. Abstraction entails identifying the essential visual properties of an object or scene, which requires semantic understanding and prior knowledge of high-level concepts. We present an object sketching method that can achieve different levels of abstraction, guided by geometric and semantic simplifications.
     
  6. Palette: Image-to-Image Diffusion Models
    Saharia et al.

    Siggraph 2022

    Many computer vision problems can be formulated as image-to-image translation. Examples include restoration tasks like super-resolution, colorization, and inpainting. The difficulty in these problems arises because for a single input image, we can have multiple plausible output images e.g. for colorization, given a black-and-white image, there can be several possible colorized versions of it. We introduce Palette, a simple and general framework for image-to-image translation using conditional diffusion models.
     
  7. Interactive Augmented Reality Storytelling Guided by Scene Semantics
    Li et al.

    Siggraph 2022

    We present a novel interactive augmented reality (AR) storytelling approach guided by indoor scene semantics. Our approach automatically populates virtual contents in real-world environments to deliver AR stories, which match both the story plots and scene semantics. During the storytelling process, a player can participate as a character in the story. 
     
  8. MegaViews: Scalable Many-View Rendering with Concurrent Scene-View Hierarchy Traversal
    Kol et al.

    Computer Graphics Forum 2019

    We present a scalable solution to render complex scenes from a large amount of viewpoints. While previous approaches rely either on a scene or a view hierarchy to process multiple elements together, we make full use of both, enabling sublinear performance in terms of views and scene complexity. 

      Betreuer

      Martin Eisemann