Events
Talk BA-Vortrag: The Splitted Grid - An acceleration structure for ray tracing
08.04.2013 13:00
Informatikzentrum, Seminarraum G30
Speaker(s): Marc A. Kastner
Uniform Grids are commonly employed acceleration structures for speeding up ray tracing. Unfortunately, the classic Grid suffers from several problems such as a high memory footprint, the inability to handle clustered geometry (tea-pot-in-a-stadium problem) and a scaling linear to its resolution. However, their construction and traversal times are slightly faster compared to Bounding Volume Hierarchies (BVH) or other hierarchical approaches. Extensions to the uniform Grid are Hierarchical or Nested grids, which try to overcome some of the known drawbacks.
This thesis provides a new acceleration data structure for ray tracing that takes the advantage of the best of previous methods. It combines common approaches of hierarchical space-partitioning data structures with nested grids. The algorithm is introduced in a naive way which nests 1-dimensional grids in a hierarchy. Due to its structure, it can use techniques similar to 3D-DDA from uniform grids for traversal. Heuristic approaches to calculate parameters like resolution and hierarchy depth adaptively are evaluated. Furthermore, an additional technique to reduce the number of double references by using a loose variant is presented. Both approaches are implemented on CPU, evaluated in detail with common scenes and compared to other state-of-the-art acceleration data structures.
Talk Bild - Wahrnehmung
05.04.2013 18:00
Kunstgeschichtliches Seminar und Sammlung, Universität Göttingen
invited talk Tagung Digitalbild "Euphorie und Angst"
Talk MA-Vortrag: Reconstructing dynamic models from video sequences
05.11.2012 13:45
Informatikzentrum, Seminarraum G30
Speaker(s): Andreas König
In computer graphics a varity of methods which compute a 3D model of a scene from 2D images are known. These methods are able to reconstruct static scenes captured with synchronised cameras. There exists a method to reconstruction position as well as the motion of a point from a dynamic scene. This approach simultaneously estimates depth, orientation and 3D motion of the scene from the input views. The approach computes a sparse set of patches from the input views which are iterativly expanded along the object surfaces. The result is a quasi-dense surface representation of the dynamic scene. However, the method only considers a small time section of frames from the video sequences. The main contribution of this thesis is to perform a consistent reconstruction of the whole video sequences of the scene. Therefore the approach is modified to consider the whole video sequences fo the reconstruction process. Hereby the geometry and motion of the scene is transfered to a model which represents the captured scene. Farther on, methods to cope with occlusion and disocclusion of objects throughout the scene are presented. The dynamic model is later on used for free viewpoint rendering of the scene. In addition a new patch expansion approach is presented to generate a more dense scene representation. The proposed expansion is based on a domain transform filter for image and video processing. In conclusion, the approach is evaluated with synthetic and real world scenes captured with consumer video cameras.
Talk BA-Vortrag: On-the-fly Displacement Mapping Algorithms and Architecture Consideration for Raytracing
05.11.2012 13:00
Informatikzentrum, Seminarraum G30
Speaker(s): Rashid Kratou
Rendering images with photorealistic quality is a major challenge in the field of computer graphics. To achieve visual richness of geometry, usually a large amount of geometric data needs to be stored and processed. An alternative is displacement mapping, where a low-polygon model is used to define the basic structure while a special texture, the displacement map, is used to add the geometric details. In contrast to techniques such as bump-, normal- or parallax mapping, actual geometry is created and thus, tessellation of geometry is fundamental. Advantages of displacement mapping are the reduced memory footprint and its ability to be applied relative to a given viewpoint allowing adaptive creation of geometry only in areas where additional geometry is actually needed to improve the visual result.
While commodity GPU architectures incorporate a tessellation unit in the rasterization pipeline which allows a straightforward integration of displacement mapping techniques in real-time applications, the integration of On-the-fly tessellation into Ray Tracing systems is not straightforward. This is mainly due to the fact that these systems usually rely on acceleration structures for high performance. Previous algorithms that incorporate tessellation and displacement mapping into Ray Tracing systems exist, but none of them achieve interactive or real-time performance.
The main target of the thesis is to analyze previous algorithms regarding its bottlenecks and suitability for many-core architectures (e.g. GPUs).
Talk BA-Vortrag: Rekonstruktion von Kameraparametern aus asynchronen Aufnahmen dynamischer Szenen
29.10.2012 13:00
Informatikzentrum, Seminarraum G30
Speaker(s): Matthias Überheide
In der Computergrafik sind verschiedene Verfahren bekannt, um die Bilder mehrerer Kameras zur Rekonstruktion der aufgezeichneten Szene zu nutzen. Dabei müssen die üblichen Verfahren jedoch entweder bewegte Szenenelemente verwerfen oder synchronisierte Kameras fordern.
Es existiert ein Verfahren zur Rekonstruktion bewegter Szenen mit unsychronisierten Kameras, dass ohne Verwerfen von Szenenelementen auskommt. Für die Rekonstruktion wird jedoch nur ein sehr kurzer Zeitausschnitt von wenigen Frames aus den Eingabevideos verwendet. Dabei wird für jeden rekonstruierten Punkt, zusätzlich zur Position, eine Bewegung ermittelt und in einem kleinen Zeitausschnitt linear angenommen, sodass dort Zwischenpositionen errechenbar werden.
Im Rahmen dieser Arbeit wird das eben genannte Verfahren so erweitert, dass es auf der Länge des gesamten Videos angewendet werden kann. Dazu wird ein Szenenmodell erarbeitet, das zusätzlich die Bewegung der Szene modelliert sowie Bewegungen und Folgepositionen konsistent hält. Die Bewegung wird dabei implizit durch die Folgepositionen modelliert. Weiterhin wird angenommen, dass sich die Bewegung von zu rekonstruierenden Punkten in hinreichend kleinen zeitlichen Umgebungen durch eine geeignet parametrisierbare Funktion, zum Beispiel eine Gerade, darstellen lässt. Es wird zudem gezeigt, dass mit dem Modell alle Parameter einer Szene optimiert werden können.
Abschließend wird das Verfahren an sieben synthetischen Szenen evaluiert.
Talk BA talk: Volume modeling and editing in Blender
01.10.2012 13:00
Informatikzentrum, Seminarraum G30
Speaker(s): Julius Saretzki
This thesis describes an approach how to edit volumetric data, like astronomical nebulae or other semi- transparent phenomena, using Blender. Traditional modeling works on surfaces and solids, but it performs not very well on semi-transparent datasets like nebulae. The problem is how to edit those phenomena like astronomical nebulae using Blender. This approach transforms nebulae to solids and back. For the editing operations an algorithm (MarchingCubes) transforms semi-transparent datasets into an editable representation which Blender is able to edit. After editing, the resulting data will be retransformed into a voxel representation. The problem is that the surface does not contain all data. For this, the free spaces are approximated using another algorithm (Diffusion-Curves) which is extended to performs on 3D data too.
Talk BA-Vortrag: "Perceptually realistic rendering of glare sources"
24.09.2012 09:15
Informatikzentrum, Seminarraum G30
Speaker(s): Sören Petersen
Nowadays virtually created scenes are required to look as realistic as possible. Computer based illustration of light, especially in nighttime situations, is a hallenging topic in computer graphics. In nighttime situations glare effects occur in addition to usual lightning and need to be applied manually. Based on the current state of research, task of this bachelor thesis is to implement such a glare effect running at real time frame rates.
Talk BA-Vortrag Pattern- and Markerless RGB and Depth Sensor Calibration
21.09.2012 10:00
Informatikzentrum, Seminarraum G30
Speaker(s): Dennis Franke
With the help of Structure from Motion (SfM) algorithms the camera motion and a rough estimates of the scene geometry can be estimated from a video recording. Such approaches are an integral part of state-of-the-art commercial software. Recently, afordable depth sensors have become available on the consumer market, which estimate the spatial depth for each pixel. There have already been approaches to jointly calibrate RGB and depth sensors, but they require special patterns or markers. The goal of this bachelor thesis is to develop an approach that calibrates RGB and depth sensors without the help of a marker or pattern.
Talk Promotionsvortrag: Measuring, Modeling and Verification of Light-Matter-Interaction Phenomena
12.09.2012 09:30
Informatikzentrum, IZ 161
Speaker(s): Kai Berger
Talk 3D reconstruction - from science to art and back again
10.08.2012 11:00
Informatikzentrum, Seminarraum G30
Speaker(s): Rahul Nair
"So you want a CG T-Rex dancing around in this footage of your living room? Fine - give me some depth information and I can do that for you...` Visual effects are ubiquitous in the film and broadcast industry, even in productions where this is not directly apparent. The core element in combining vfx with shot footage is the knowledge of scene geometry, which is plausible in some sense. In computer vision, on the other hand, knowledge of metrically correct scene geometry solves the inverse problem created by the imaging system. This can then be used to quantitatively benchmark almost any kind of computer vision algorithm class.
In my talk I will present the various ongoing research activities in our group related to 3D reconstruction. The topics will range from `cheap` 3D reconstruction using sensor fusion systems to 3D conversion of monoscopic sequences. Additionally, some work on the evaluation of the obtained 3D scans shall be shown in order to assess the scan quality. Furthermore, I will describe how we are applying these techniques to the post-production pipeline as well as to performance analysis.
Talk BA-Vortrag: "Audio Resynthesis on the Dancefloor: A Music Structural Approach"
23.07.2012 13:00
Informatikzentrum, Seminarraum G30
Speaker(s): Jan-Philipp Tauscher
Im Rahmen der Bachelorarbeit soll ein existierendes Verfahren zur Audio-Resynthese verbessert und neue Anwendungsfelder dafür erschlossen werden. Das bestehende Verfahren findet mögliche Sprungstellen in einem Musikstück und synthetisiert durch Aneinanderreihung von Segmenten des Stückes ein neues, das vorgegebene Randbedingungen erfüllt. Im Rahmen der Arbeit soll mittels Beat Tracking ein zuverlässigeres Matching rhythmischer Strukturen bei der Sprungstellensuche erreicht werden. Darauf aufbauend soll eine Benutzerschnittstelle entwickelt werden, die den Einsatz des Verfahrens im Rahmen von Live-Performances ermöglicht. Dabei soll insbesondere die Verwendung bei Konzeption, Vermittlung und Übung von Tanzchoreographien Berücksichtigung finden. Die Qualität der Ergebnisse soll anhand von Beispielen und Vergleichen mit dem ursprünglichen Verfahren demonstriert werden.
Talk BA-Vortrag: "3D-Rekonstruktion von solaren Ereignissen"
28.06.2012 13:00
Informatikzentrum, Seminarraum G30
Speaker(s): Thomas Schrader
Immer wieder erreichen Sonnenstürme die Erde, die von koronalen Massenauswürfen ausgelöst werden. Um diese Naturphänomene besser untersuchen zu können, wurden in den letzten Jahrzehnten mehrere Satelliten zur Beobachtung eingesetzt, zum Beispiel SDO. Die meisten betrachten nur die Sonnenseite, die man von der Erde aus sieht. Zusätzlich gibt es das Duo STEREO, welches sich auf der Erdumlaufbahn vor und hinter der Erde um die Sonne herum bewegt. Da es noch keine überzeugende Visualisierung der Sonne gibt, behandelt diese Arbeit die Rekonstruktion eines dreidimensionalen Voxel-Volumens aus SDO und STEREO Bildern und die Darstellung mit Hilfe eines Ray-Casters aus beliebigen Blickpunkten. So erhält man einen besseren Überblick über die Sonne und ihre Aktivitäten. Dabei entsteht ein für das Auge plausibles, aber physikalisch nicht unbedingt korrektes Ergebnis.
Talk EEG Analysis of Implicit Human Visual Perception
27.04.2012 10:30
Informatikzentrum, Seminarraum G30
Speaker(s): Maryam Mustafa
Image Based Rendering (IBR) allows interactive scene exploration from images alone. However, despite considerable development in the area, one of the main obstacles to better quality and more realistic visualizations is the occurrence of visually disagreeable artifacts. In this paper we present a methodology to map out the perception of IBR-typical artifacts. This work presents an alternative to traditional image and video quality evaluation methods by using an EEG device to determine the implicit visual processes in the human brain. Our work demonstrates the distinct differences in the perception of different types of visual artifacts and the implications of these differences.
Talk Promotions-vor-vortrag Albuquerque
13.04.2012 13:00
Informatikzentrum, Seminarraum G30
Speaker(s): Georgia Albuquerque
Promotions-vor-vortrag Georgia Albuquerque
Talk Promotions-vor-vortrag Lipski
26.03.2012 13:00
Informatikzentrum, Seminarraum G30
Speaker(s): Christian Lipski
Promotions-vor-vortrag christian Lipski
Talk MA-Vortrag "Folding Textures"
19.03.2012 13:00
Informatikzentrum, Seminarraum G30
Speaker(s): Thorben Schulze
Texturen werden seid bereits mehr als 30 Jahren in der Computergraphik verwendet um Modellkomplexität vorzutäuschen, welche nicht in der Geometrie selbst widergespiegelt wird. Dabei werden zumeist statische Texturkoordinaten an die Eckpunkte eines Modells zugewiesen, welche während der Bildsynthese interpoliert und dann zum Nachschlagen in der Texturkarte verwendet werden.
Zwar bieten heutige Graphik-APIs rudimentäre Möglichkeiten diese Koordinaten zu verändern, doch ist dies im Grunde beschränkt auf einfache Transformationen, welche sich mittels einer Homographie beschreiben lassen. Komplexere Funktionen werden nicht unterstützt.
Ziel dieser Arbeit ist es die Transformation der Zuweisung von Texturkoordinaten auf einem Dreiecksmodell zu verallgemeinern, um auf diese Weise komplexere Effekte darstellen zu können, dazu gehört im einfachsten Falle beliebige Transformationsfunktionen anzuwenden, aber auch komplexere Abläufe, wie Sprünge in der Textur zu erlauben, oder übereinander gefaltete Texturen zu erzeugen. Damit wäre es beispielsweise möglich Effekte zu erzeugen, wie etwa sich überlagernde Schuppen, die sich der Bewegung des Modells anpassen, Dehnungsvisualisierungen, Wassereffekte über einem beliebigen Untergrund und das alles ohne die Geometrie selbst zu verändern.
Talk BA-Vortrag The capturing of turbulent gas flows using Kinect
05.03.2012 13:00
Informatikzentrum, Seminarraum G30
Speaker(s): Mark Albers
Vortrag über die Bachelorarbeit "The capturing of turbulent gas flows using Kinect` - die Tiefenkarten mehrerer Kinects werden ausgewertet und minimale Änderungen induziert durch ein Gas, welches von allen Kinects erfasst wird, werden zur Rekonstruktion desselben verwendet.
Talk Promotions-vor-vortrag Berger
27.02.2012 13:00
Informatikzentrum, Seminarraum G30
Speaker(s): Kai Berger
In this talk i lay out the parts of my thesis, that is
modeling and verification of light-matter interaction phenomena.
The first part focuses on a new setup for capturing and modeling immersed surface reflectances, while the second part introduces ellipsometry as a new way verify the real-world applicability of existing reflectance models, which are widely considered physically plausible.
Talk MA-Vortrag Inverse erweiterte Realität auf einem Mobiltelefon
06.02.2012 13:00
Informatikzentrum, Seminarraum G30
Speaker(s): Martin Fiebig
Bei normaler erweiterter Realität (Augmented Reality) wird ein
Kamerabild um Informationen erweitert. Diese
Informationen werden aufgrund von Sensorendaten dem Kamerabild
angepasst. Auf einem Smartphone können dies z. B. ein GPS-Signal,
Kompassdaten, Gyroskopdaten oder eine beliebige
Kombination aus diesen Daten sein. Auch ausgedruckte Marker oder
QR-Codes können verwendet
werden, um die Lage der Kamera zu bestimmen oder Bereiche im Kamerabild
zu
identifizieren.
Bei der inversen erweiterten Realität wird eine virtuelle Umgebung
erschaffen und mit
realen Inhalten ergänzt. Die realen Inhalte sollen in diesem Fall von
der Kamera stammen.
Eine vor die Videokamera getretene Person soll vom Hintergrund getrennt
und in eine
virtuelle Szene eingefügt werden.
Talk BA-Vortrag "Plug-in-based Rapid Prototype Development Tool"
23.01.2012 13:00
Informatikzentrum, Seminarraum G30
Speaker(s): Timo Veit
Eine Reihe von aktuellen Grafikalgorithmen nutzen Fotos, Videos oder Bilddatenbanken als Eingabe. Eine vereinheitlichte Schnittstelle und intuitive Benutzeroberfläche zur Verarbeitung dieser Daten könnte dabei von großem Nutzen sein, um die Entwicklung neuer Algorithmen zu beschleunigen, sowie
bereits bestehende zu integrieren. Ein solches Framework benötigt dabei eine Reihe von Funktionalitäten, wie bspw. das Laden, Speichern, Anzeigen von Bildern oder Videoframes, Scribble
Funktionalität, Streaming, graphenbasierter Datenfluss, und vieles mehr. In dieser Arbeit soll ein entsprechendes Framework entwickelt werden, welches eben diesen Ansprüchen genügt. Dafür soll eine graphenbasierte Oberfläche generiert werden bei der Eingabe, Algorithmen und Ausgabe über
Knotenpunkte verbunden und kombiniert werden können. Für die Knotenpunkte muss ein einheitliches Interface geschaffen werden, so dass sich diese beliebig kombinieren lassen.
Über einen Plug-In Mechanismus soll dabei sichergestellt werden, dass neue Funktionalität auf möglichst einfache Art und Weise hinzugefügt werden kann.
Talk Probevortrag CVMP
11.11.2011 11:11
Informatikzentrum, Seminarraum G30
Speaker(s): Christian Lipski
Probevortrag von Christian Lipski
`Who Carez - Making Of`
Talk BA-Vortrag Christian Brümmer
14.10.2011 13:00
Informatikzentrum, Seminarraum G30
Speaker(s): Christian Brümmer
Title "Avatar: Depth-based Multi-Camera Motion Capturing"
Talk Optimization in Function Spaces
12.10.2011 13:00
Informatikzentrum, Seminarraum G30
Speaker(s): Benjamin Hell
This talk shall give a brief overview of some aspects concerning the wide ?eld of optimization in
function spaces, i.e. the optimization variables are functions. Although most research work done
by me is of a rather theoretical nature with connections to applications this talk shall focus on
techniques for obtaining solutions. Therefore the main emphasis will lie on numerical methods and
programming aspects, while some more complicated analytical mathematics will only be presented
when necessary or when they serve as interesting side notes. In general this talk shall just serve as
a brief overview rather than a lecture on mathematics in the ?eld of optimization.
Talk Optimal control based image sequence interpolation
11.10.2011 13:00
Informatikzentrum, Seminarraum G30
Speaker(s): Kanglin Chen
The introduced interpolation methods are mainly based on finding an
appropriate optical flow field, with which the objects in an initial
image can be ``transported'' and ``warped'' to a certain time. To
identify the optical flow field the interpolation problem is considered
in the framework of optimal control governed by the transport equation.
To improve the interpolation quality, the models are introduced so that
the edges of the optical flow are preserved, the forward and backward
interpolation are locally selected. Basically the smooth version of
total variation and the active contours for segmentation are used.
Talk The Portable Light Field Camera: Extended Depth of Field, Aliasing and Superresolution
26.09.2011 14:00
Informatikzentrum, Seminarraum G30
Speaker(s): Paolo Favaro
Portable light field cameras have demonstrated capabilities beyond
conventional cameras. In a single snapshot, they enable digital image
refocusing, i.e., the ability to change the camera focus after taking
the snapshot, and 3D reconstruction. We show that they also achieve
a larger depth of field while maintaining the ability to reconstruct
detail at high resolution. More interestingly, we show that their depth
of field is essentially inverted compared to regular cameras.
Crucial to the success of the light field camera is the way it samples
the light field, trading off spatial vs. angular resolution, and how
aliasing affects the light field. We present a novel algorithm that
estimates a full resolution sharp image and a full resolution depth map
from a single input light field image. The algorithm is formulated in a
variational framework and it is based on novel image priors designed
for light field images. We demonstrate the algorithm on synthetic and
real images captured with our own light field camera, and show that it
can outperform other computational camera systems.