Computer Graphics
TU Braunschweig

Events


Talk Stereo Video Perception (Topics from ICIP 2010, Hong Kong )

29.11.2010 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Anita Sellent

Scanning the contribution to the ICIP 2010 in Hong Kong, it becomes obvious that stereo video is a topic in which many researchers currently are interested. This talk will focus on stereo perception. First issue is the observation that watching a stereo video can cause headache. What causes this headache and what points have to be considered for recording and projection setup to avoid it? Next issue is the perception of compression artifacts in stereo-video, an important point, as the amount of raw-data for a stereoscopic film is twice as high as for a monoscopic film, but the content is highly redundant. The final issue of the talk is an evaluation of viewing setups to measure the quality of the images, that finally reach our eyes. After the talk we will discuss the experiences with stereo video we made in our research group.

Talk Vorträge über das Dissertationsthema

01.11.2010 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Martin Eisemann, Christian Linz, Anita Sellent

In den Vorträgen, die jeweils 45 Minuten dauern, stellen die Promotionskandidaten ihr Dissertationsthema vor und präsentieren ihre Forschungsergebnisse.

Martin Eisemann, Titel: Error-Concealed Rendering

Fotorealismus ist seit jeher eines der großen Ziele in der Computergrafik. Anstatt die Komplexität der Natur mit Standardmodellierungstools nachzubauen, gehen bildbasierte Ansätze den umgekehrten Weg und verwenden reale Aufnahmen zur Modellierung, da diese bereits per Definition fotorealistisch sind. Ein Nachteil dieser Variante ist jedoch, dass die Komposition oder Kombination mehrerer Quellbilder eine nichttriviale Aufgabe darstellt und häufig störende, sichtbare Artefakte im erzeugten Bild nach sich zieht. In dieser Dissertation verfolgen wir verschiedene Ansätze um Artefakte, welche durch die Komposition/ Kombination mehrerer Bilder in einer gemeinsamen Bilddomäne entstehen, zu verhindern oder zumindest abzuschwächen. Im Ergebnis liefern die vorgestellten Verfahren neue Bilder oder neue Ansichten einer Bildsammlung oder Videosequenz, je nachdem ob die Aufgabe dabei die Komposition mehrerer Bilder oder die Kombination mehrerer Videos verschiedener Kameras darstellt.

Christian Linz, Titel: Beiträge zur Virtuellen Videokamera: von symmetrischen, dichten Korrespondenzkarten zu qualitativ hochwertigen bildbasierten Spezialeffekten

3D-Video mit Blickpunktnavigation ist eine neues digitales Medium welchem die Forschung in den letzten 10 Jahren viel Aufmerksamkeit gewidmet hat. Die meisten Verfahren rekonstruieren dabei die Szenengeometrie und schränken sich somit auf Lambertsche Szenen und synchron aufgenommene Eingabedaten ein. In diesem Vortrag beschreiben wir Beiträge zur `Virtuellen Videokamera`, einem rein bildbasierten System zur Blickpunktnavigation, welches auf unsynchronisierten Eingabevideos arbeitet. Der Fokus liegt dabei auf der Schätzung dichter Korrespondenzkarten und auf der Synthese von Zwischenbildern. Das resultierende System eignet sich sowohl zur Produktion von räumlich-zeitlichen Spezialeffekten als auch zur Erzeugung stereoskopischer Sequenzen.

Anita Sellent, Titel: Akkurate Bewegungsfeldbestimmung anhand von alternativen Bildgegebenheiten

Projektionen der Szenenbewegung auf die Bildebene einer Kamera werden traditionell durch Betrachten von zwei aufeinanderfolgenden möglichst kurzen und scharfen Standbildern bestimmt. Die Modellierung von Bewegung durch die zeitliche Differenz zweier Bilder trifft allerdings einige Annahmen, die in realen Szenen nicht gegeben sind: so werden Szenenpunkte durch die unterschiedliche Bewegung von Objekten verdeckt oder aufgedeckt, Farbwerte verändern sich durch den Einfluß von Beleuchtung in der 3D Szene oder Bewegungen zwischen zwei Bildern umfassen mehrere Pixel. In dem Vortrag sollen die klassische Bewegungsformulierung, die Ursache des zeitlichen Aliasing und Ansätze zu dessen Vermeidung dargestellt werden.

Talk Python für Computergraphiker

26.10.2010 15:30
Informatikzentrum, Seminarraum G30

Speaker(s): Stephan Wenger, Thomas Neumann

Der Vortrag bietet eine Einführung in Python und SciPy sowie einige Live-Demos.

Talk Multi-Video Foreground Segmentation

22.10.2010 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Julia Wolf

Im Forschungsfeld der Foto- und Videoverarbeitung wird unter anderem an der automatischen Segmentierung eines Bildes in seine Vorder- und Hintergrundanteile gearbeitet. Die Verfahren sind für Einzelbilder bereits sehr stabil und benötigen nur wenige Benutzerinteraktionen. Es ist möglich, viele dieser Algorithmen auf die Verarbeitung von Videos zu erweitern. Dort wird versucht, möglichst viele Bilder hintereinander automatisch zu segmentieren. Bei anspruchsvollen Szenen mit großen Bewegungen oder komplexem Hintergrund bleibt die automatische Segmentierung über mehrere Bilder jedoch unzuverlässig, so dass der Anwender oft manuelle Nachbesserungen vornehmen muss. Bei der Verwendung von mehreren Kameras in einer Szene, mit denen das Vordergrundobjekt aus verschiedenen Blickwinkeln aufgenommen werden kann, muss jedoch ein Vielfaches an Material ausgewertet und manuell angepasst werden. Entgegen des allgemeinen Ansatzes, jeden Videostrom getrennt voneinander zu bearbeiten, wird in dieser Arbeit ein Verfahren entwickelt, dass die Ergebnisse der einzelnen Bilder unterschiedlicher Videoströme miteinander kombiniert. Es soll durch den Informationsgewinn eine Verbesserung der Einzelbildergebnisse, der Gesamtbearbeitungszeit und folglich eine Verringerung der manuellen Korrekturen erreicht werden. Zusätzlich dazu wird ein Algorithmus entwickelt, der automatisch schlechte Segmentierungen detektiert und dem Benutzer zur manuellen Nachbesserung anbietet. Als Ergebnis dieser Arbeit ist ein Verfahren entstanden, das einen Algorithmus zur Trennung von Vorder- und Hintergrundinformationen für einen einzelnen Videostrom auf die Verwendung von mehreren Kameras adaptiert und in Verknüpfung mit der Detektion und Anpassung von schlechten Segmentierungen funktioniert. Der Algorithmus zur kameraübergreifenden Verwendung der Ergebnisse aus unterschiedlichen Videoströmen bringt einen deutlichen Vorteil gegenüber anderen Verfahren.

Talk Adapted Computations and Representations for Real-time Graphics

23.09.2010 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Elmar Eisemann

Recent advances in computer graphics have contributed to a surprising increase in complexity with respect to geometry as well as the simulation of physical phenomena (such as shadows, refraction, or depth of field). Approximating and visualizing geometry consisting of tens of millions of polygons simultaneously tested for collision or visibility is becoming increasingly common. Involving the complete virtual environment poses a significant computational challenge. We will show how simplified representations, suitable approximations of physical effects, and perceptual findings can be exploited to push the boundaries of image synthesis and enable detailed, yet efficient rendering solutions.

Talk Enhanced Poisson Image Editing

13.09.2010 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Daniel Gohlke

Mit Hilfe der Poisson-Gleichung, die vor allem in der Bildbearbeitung große Bedeutung erlangt hat, lassen sich Objekte nahtlos in andere Bilder einfügen. Für die erfolgreiche Anwendung der Gleichung sind jedoch bestimmte Vorbedingungen zu erfüllen. Das nahtlose Einfügen funktioniert am Besten, wenn die Farbdifferenz in den Randgebieten sehr ähnlich ist und die Objektkanten im Quell- und Zielbild sich möglichst gut überlagern. Im Zuge dieser Arbeit ist ein Verfahren entwickelt worden, das bestehende Konzepte für das nahtlose Einfügen umsetzt und erweitert. Dabei ist das "Poisson Image Editing" umgesetzt und um die Suche der optimalen Kontur mit Hilfe des "Drag-and-Drop Pasting" Verfahrens erweitert worden. Das Hauptaugenmerk dieser Arbeit liegt jedoch auf der überlagerung von starken Objektkanten. Es wird ein Verfahren vorgestellt, dass zum Finden und Zuordnen von Objektkanten im Quell- und Zielbild verwendet werden kann. Nach der erfolgreichen Zuordnung der Objektkanten wird die Verschiebung zwischen den Objektkanten ermittelt. Anschließend wird das Quellbild so verzerrt, dass die passenden Objektkanten sich überdecken. Da dies zu starken Verzerrungen am Rand führen kann, ist es außerdem möglich die Kanten in das Bild hinein zu verfolgen und die Verschiebungen entlang wichtiger Kanten festzulegen. Dies führt zur Erhaltung der Kantenform im Zielbild und zur Verbesserung des optischen Eindrucks in der Randregion. Zusätzlich wird das Verfahren für das nahtlose Einfügen von Objekten in andere Bilder in einen pyramidenbasierten Ansatz eingebettet. Dadurch können auch Bilder mit unterschiedlichen Schärfegraden ineinander eingef ügt werden. Die Korrespondenzfindung zwischen den Bildern wird durch die Verwendung von SIFT-Features automatisiert. Neben der Ermittlung von einer Korrespondenz zwischen den Bildern ist es möglich, für bestimmte Bildbereiche mehrere Korrespondenzen zu finden und somit ein Objekt an mehreren Stellen im Zielbild zu platzieren. Nach der Korrespondenzfindung erfolgt die Berechnung der optimalen Bilddimensionen für das Einfügen, so dass die Bilder möglichst gut für die Anwendung des Verfahrens geeignet sind. Das Einfügen erfolgt dann mit Hilfe des des oben genannten Verfahrens. Mit dem in dieser Arbeit entwickelten Programm ist es möglich, einige Probleme die bei der Verwendung des "Poisson Image Editing" Verfahrens auftreten zu beseitigen und optisch ansprechende Ergebnisse zu erzielen. Vor allem die Erhaltung von Bildkanten innerhalb des eingefügten Bereichs trägt deutlich zur Verbesserung des optischen Eindrucks des zusammengesetzten Bildes bei.

Talk Projektarbeit: Erstellung eines BRDF-Editors für das Reflektanzverhalten von Oberflächen in refrakti

23.08.2010 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Alexander Schäfer

Um eine künstliche 3D-Szene realistisch wirken zu lassen, bedarf es authentischen Oberflächen-Materialien bzw. einem glaubwürdigen Reflektanzverhalten der Szenenobjekte. Ein gängiges und schnelles Verfahren ist die Auswertung einer Bidirektionalen-Reflektanz-Verteilungs-Funktion(BRDF), mit welcher man verschiedene Materialien mathematisch beschreiben kann. Bisher vernachlässigt dieses Modell die Tatsache, dass sich das Reflektanzverhalten vieler Materialien, je nach dem welches Medium das Objekt umgibt, verändert. So sieht ein Kleidungsstück unter Wasser anders aus als an der Luft. Im Rahmen der Forschungsarbeiten des Instituts für Computergrafik, TU Braunschweig, und des MPI für Informatik, Saarbrücken, soll deshalb das BRDF-Modell zur Ermittlung des Reflektanzverhaltens von Oberflächen in Abhängigkeit zum umgebenden Medium entsprechend erweitert werden. Im Kontext dieses Forschungsvorhabens liefert diese Arbeit ein passendes Werkzeug zur Visualisierung und Auswertung der entstandenen Messdaten, und bietet dem Benutzer die Möglichkeit das Reflektanzverhalten der realen Bilddaten mit einem beliebigen, mathematischen Modell zu vergleichen.

Talk Interactive Fur Shaping and Rendering

17.08.2010 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Hanqlu Sun

Furry surfaces are crucial in representing the realistic appearance of virtual creatures and cartoon-style objects/bodies. It is highly demanding to model and render the realistic furry effects in interactive gaming and virtual environments. Most of the hair/fur modeling systems proposed geometry-based representations so the systems do not directly support interactive modeling and rendering of virtual furry creatures. Our work is motivated for representing the realistic furry surfaces based on the non-uniform layered approach, and supporting users the interactive tools to intuitively shape dense, messy fur over the bodies with the realistic rendering effects. These include fur combing, wind blowing, pulling, interpolating, smoothing and disturbing, thus users can intuitively design and manipulate the furry surfaces over the bodies with simple user input. Further, we developed layered shadow maps for the realistic self-shadowing effects of fur, which can significantly enhance the realistic appearance of furry creatures. Using the interactive tools, users can intuitively create the furry shapes of virtual creatures, and visualize the realistic rendering of edited fur instantly. Our interactive fur system utilizes GPU-accelerated processing, and supports the intuitive user input for shaping the furry surfaces of virtual creatures. Also, other current research projects we have worked on will be briefly introduced at the end as well.

Talk Strömungsvisualisierung

23.07.2010 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Daniel Weiskopf

Talk Perceptual Research Methodology and its relevance for Computer Graphics

24.06.2010 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Douglas Cunningham

Perceptual psychology and computer graphics ask many questions that are formally similar. These questions relate to how one can -- with rather limited resources -- extract, represent, and manipulate targeted portions of the vast amount of information present in the physical world. Over the last 150 years, perceptual psychologists have developed and refined a wide variety of experimental methods, and have gathered a wealth of detailed information about the algorithms that underlie human perceptual processes. Since many of the tasks and challenges explored in computer graphics are similar to those faced in human perception, and since humans are often the end-user of computer generated imagery, computer scientists are increasingly adapting knowledge about human perception to develop perceptually-inspired computer graphics algorithms. Moreover, computer graphics researchers are increasingly being asked to prove that newly developed techniques meet specific claims, such as "Are the images generated by the new method really indistinguishable from a photograph?"; "If not, why not?"; "Do the new visualizations really improve the performance of experts on specific tasks?" A firm understanding of perceptual research methodology will now only make it easier to comprehend and utilize existing knowledge about human perceptual capabilities, but will also enable you to ask and answer similar questions for your algorithms. In this talk, I will provide a brief overview of perceptual methodology and some of the fundamental assumptions that lie behind it.

Talk Visual Computing Workshop

10.06.2010 14:00
Haus der Wissenschaft

Speaker(s): Timo Stich, Hans-Peter Seidel, Bernt Schiele, Oliver Grau, Philipp Slusallek, Ralph Bruder, Peter Eisert, Andreas Kolb, Aljoscha Smolic, Hartmut Schirmacher

Webseite

Talk An introduction to space weather, for computer scientists

26.04.2010 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Kai Ruhl

Space weather are solar and cosmic background effects on satellites and astronauts, the ionosphere, and ground systems. Our solar system is not quite as empty as the word "space" implies: Photons, electrons and protons as well as ions from the Sun fill most of the heliosphere, driving back the galactic cosmic rays that would otherwise dominate. This talk aims at providing an overview of the primary concepts used in space weather, suited to the understanding of computer scientists (who might not necessarily be versed in solar physics). A packet of photons and particles will be followed from the surface of the sun to the surface of the earth, describing basic interactions on its way. Advanced topics will not be covered.

Talk Deklarative XML-Verarbeitung mit Anwendungen in der Linguistik und im Sport

12.04.2010 17:00
Informatikzentrum, Hörsaal 160

Speaker(s): Dietmar Seipel

Die komfortable und effiziente Verarbeitung von XML-Dokumenten und XML-basiertem Wissen spielt heute eine zunehmend wichtige Rolle, z.B. zur Verwaltung und zum Austausch komplexer Daten oder im Semantic Web. Zum Zugriff auf und zur Transformation von XML--Strukturen haben wir die deklarative Anfrage-, Transformations- und Updatesprache FnQuery entwickelt und in verschiedenen Anwendungen erprobt. In einem Projekt zur Analyse von Varianz in Sprache und Genomen werden schwach in XML strukturierte Wörterbücher aufbereitet und analysiert. Wir haben dazu ein deklaratives Toolkit zur Annotation von Wörterbüchern entwickelt, das auf XML- und Prolog-Technologie basiert. Eines der Hauptziele des Projektes ist die Erstellung einer Metalemmaliste als Grundlage für den Strukturvergleich mit bioinformatischen Daten. Metalemma ist dabei die als Wort in der Gegenwartssprache angesiedelte Referenzeinheit, auf die - soweit möglich - die sprachlichen Entsprechungen aus Dialekträumen (diatopische Varianz) und Sprachstufen (diachronische Varianz) abgebildet werden. Es zeigte sich, daß der deklarative Ansatz in Prolog viel lesbarer, flexibler, verläßlicher und sogar schneller ist als eine alternative Implementierung, die vorher in Java und XSLT für das TextGRID- CommunityProjekt gemacht worden war. In einem anderen Projekt werden räumlich/zeitliche Spielsequenzen im Sport (Basketball, Tennis) in XML gespeichert und mit Hilfe von deklarativen Anfragen bzw. temporalem Data Mining analysiert.

Talk Rotationsinvariante Texturoptimierung für Super-Resolution und Detailhalluzination

29.03.2010 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Lea Lindemann

Beispielbasierte Textursynthese dient normalerweise dazu, aus einem kleinen Eingabepatch eine größre Textur mit höherer Auflösung zu erzeugen. Problematisch dabei ist, daß meist nur eine Textur erzeugt wird, welche zwar eine höhere Auflösung hat, die Details jedoch gleich bleiben und nicht mit skaliert werden. Die bisherige Forschung in diesem Gebiet unterliegt dabei noch vielen Einschränkungen, so müßen exakte Größnkorrespondenzen meist von Hand vorgegeben werden, und die Bilder müßen bereits paßend ausgerichtet sein. Es ist jedoch aus verschiedenen Gründen nicht immer einfach paßende Eingabebilder zu erzeugen. Ein Beispiel wäre ein Bild, welches man aus dem Internet geladen hat und welches man gerne in einer höheren Auflösung hätte, ohne daß es verschwommen erscheint. Im Grunde existiert in diesem Falle kein Eingabebild, welches man zum Hochskalieren verwenden könnte. Superresolution Ansätze können zwar niedrige und sehr hohe Frequenzen erhalten, haben aber das Problem, daß mittlere Frequenzen, meist verloren gehen, oder nicht synthetisiert werden. Aber vielleicht hat man ähnliche Bilder der vorkommenden Materialien gegeben. Diese könnte man eventuell verwenden. Leider ist die notwendige Voraußetzung der gleichen Perspektive dabei meist verletzt. In dieser Arbeit soll untersucht werden, inwieweit eine neuartige Textursynthese mit rotations- und beleuchtungsinvarianten Nachbarschaftsbeschreibungen, das Problem der Perspektive und der neu hinzuzufügenden Details lösen kann. Dazu benötigt man eine genaue Analyse der Stärken und Schwächen eines solchen Ansatzes. Ist es wirklich sinnvoll eine genaue übereinstimmung mit dem Originalbild zu erhalten, oder kann es nicht von Vorteil sein, dem Algorithmus leichte Freiheiten zu gewähren? Dafür wird ein Optimierungsalgorithmus vorgestellt, der sich genau mit diese Fragen beschäftigt.

Talk Modeling the planetary nebula IC418: a combined approach using stellar and nebular model

25.02.2010 14:00
Informatikzentrum, Hörsaal 160

Speaker(s): Christophe Morisset

We present a coherent stellar and nebular model reproducing the observations of the Planetary Nebula IC418. We want to test whether a stellar model obtained by fitting the stellar observations is able to satisfactory ionize the nebula and reproduce the nebular observations, which is by no mean evident. This allows us to determine all the physical parameters of both the star and the nebula, including the abundances and the distance. We used all the observational material available (FUSE, IUE, STIS and optical spectra) to constrain the stellar atmosphere model performed using the CMFGEN code. The photoionization model is done with Cloudy_3D, and is based on CTIO, Lick, SPM, IUE and ISO spectra as well as HST images. More than 140 nebular emission lines are compared to the observed intensities. We reproduce all the observations for the star and the nebula. The 3D morphology of the gas distribution is determined. The effective temperature of the star is 36.7kK. Its luminosity is 7700 solar luminosity. We describe an original method to determine the distance of the nebula using evolutionary tracks. No clumping factor is need to reproduce the age-luminosity relation. The distance of 1.25 kpc is found in very good agreement with recent determination using parallax method. The chemical composition of both the star and the nebula are determined. Both are Carbon-rich. The nebula presents evidence of depletion of elements Mg, Si, S, Cl (0.5 dex lower than solar) and Fe (2.9 dex lower than solar). This is the first self-consistent stellar and nebular model for a Planetary Nebula that reproduces all the available observations ranging from IR to UV, showing that the combined approach for the modeling process leads to more restrictive constraints and, in principle, more trustworthy results.

Talk Shape 2010: 3D Strahlungstransport für die Visualisierung astrophysikalischer Phänomene

25.02.2010 14:00
Informatikzentrum, Hörsaal 160

Speaker(s): Wolfgang Steffen

Das Programm Shape wurde ursprünglich zur 3D-Modellierung der Struktur und Kinematic astrophysikalischer Nebel geschrieben. Shape ist das erste astrophysikalische Simulationsprogramm ist, das interaktive 3D-Graphiktechniken zur Modelerzeugung verwendet. Jetzt wurde aber zusätzlich 3D-Strahlungstransport eingebaut, was realistischere Darstellungen erlaubt. Das neue Animationsmodul und "Texturing" und andere Neuheiten erweitern deutlich die Anwendungsmöglichkeiten in der Visualisierung und astrophysikalischen Forschung.

Talk C for CUDA for and from Dummies

08.02.2010 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Martin Eisemann

C for CUDA is an extension to the C language to exploit the processing power of NVidia GPUs for general purpose computation. While for a long time now it seemed that Computer Graphics does not benefit all too much from this, due to GLSL, it turned out, that especially in Vision tasks or specialized applications C for CUDA can give your application a real boost in speed. Plus, it can be simple, if you know the right tools and have the right framework (which you will have after this talk! Hooray!). In this talk I will report on my first hand on experience with CUDA. I will give you an introduction into the basic memory management, kernel execution on the GPU and some other useful stuff. After this talk you will be able to directly write your own CUDA programms, right from the start.

Talk Visualisierung von Multispektralbildern anhand spektraler Komponenten

11.01.2010 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): David Ben Yacov

Spektraldaten, die mit ortsauflösenden Bildsensoren aufgenommen wurden, liegen zunächst in einer Form vor, bei der zwei Dimensionen eines Datensatzes den Bildkoordinaten einer Flächenkamera und die dritte dem Intensitätsverlauf über der Wellenlänge entsprechen. Auch nach geeigneter Aufbereitung der Spektren (Normierung und Differenzierung) sind ihre Komponenten, die z.B. den Anteil chemischer Substanzen in bestimmten Teilen einer Szene charakterisieren, nicht ohne weitere Auswertung am spektralen Verlauf erkennbar. In dieser Arbeit wurden die Pixel von Multispektralbildern durch geeignete Verfahren so klassifiziert, dass in den Bildern Regionen mit bestimmten spektralen Eigenschaften segmentiert und visualisiert werden können. Dadurch soll es möglich gemacht werden z.B. den Klebstoffanteil in Spänevliesen (mit Klebstoff vermischte Flachspäne für die Spanplattenproduktion) nachzuweisen. Das für diese Aufgabe entwickelte System wird in diesem Vortrag vorgestellt.

Talk Data Clustering using Affinity Propagation

07.12.2009 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Christian Lipski

Clustering data is an everyday task in computer graphics with an already wide selection of available algorithms. We will take a look at affinity propagation, a new technique that is based on message passing among data points. The vital benefit is that the amount of clusters is not strictly predefined, but emerges from the data. In addition, the very generic approach lends itself to a wide variety of application. Together with speed-up strategies developed in the graphics community, it can be used for large data sets (i.e., images).

Talk Local Model of Eye Adaption for High Dynamic Range Images

05.11.2009 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Benjamin Meyer

In the real world, the human eye is confronted with a wide range of luminances from bright sunshine to low night light. Our eyes cope with this vast range of intensities by adaptation; changing their sensitivity to be responsive at different illumination levels. This adaptation is highly localized, allowing us to see both dark and bright regions of a high dynamic range environment. In this paper we present a new model of eye adaptation based on physiological data. The model, which can be easily integrated into existing renderers, can function either as a static local tone mapping operator for single high dynamic range image, or as a temporal adaptation model taking into account time elapsed and intensity of preadaptation for a dynamic sequence. We finally validate our technique with a high dynamic range display and a psychophysical study.

Talk Integrating NonPhotorealistic Visual Effects into the Virtual Video Camera System

26.10.2009 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Alexander Schäfer

Visuelle Effekte lassen einen Film zu einem Erlebnis werden. Aus diesem Grund wird für aktuelle Kinofilme ein gewaltiger Zeit- und Kostenaufwand in Kauf genommen. Im Rahmen dieser Bachelorarbeit werden solche Nicht-Photorealistischen Effekte deshalb besonders kostengünstig realisiert. Als Grundlage dient dazu das virtuelle Videokamera-System, welches bereits am Computergrafik-Institut der TU-Braunschweig entwickelt wurde. Die zentralen Probleme beim Erzeugen eines Videoeffektes sind die Maskierung des gewünschten Zielobjektes in der Szene und das zeitlich kohärente Zeichnen dieses Effekts im Verlauf der Videosequenz. Eine Besonderheit stellt dabei die Möglichkeit zur zeitlichen Manipulation des Videos durch das virtuelle Videokamera-System dar. Vor diesem Hintergrund wurden die vier Bewegungseffekte "Time Lapse", "Temporal-Flare", "Particle-Effect" und "Speedlines" umgesetzt.

Talk Making Shape from Shading Work for Real-World Images

13.10.2009 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Anita Sellent

Although shape from shading has been studied for almost four decades, the performance of most methods applied to real-world images is still unsatisfactory: This is often caused by oversimplified reflectance and projection models as well as by ignoring light attenuation and nonconstant albedo behavior. Vogel et al. address this problem by poposing a novel approach that combines three powerful concepts.

Talk Combining automated analysis and visualization techniques for effective exploration of high-dimensio

28.09.2009 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Georgia Albuquerque

Visual exploration of multivariate data typically requires projection onto lower-dimensional representations. The number of possible representations grows rapidly with the number of dimensions, and manual exploration quickly becomes ineffective or even unfeasible. This paper proposes automatic analysis methods to extract potentially relevant visual structures from a set of candidate visualizations. Based on features, the visualizations are ranked in accordance with a specified user task. The user is provided with a manageable number of potentially useful candidate visualizations, which can be used as a starting point for interactive data analysis. This can effectively ease the task of finding truly useful visualizations and potentially speed up the data exploration task. In this paper, we present ranking measures for class-based as well as non class-based Scatterplots and Parallel Coordinates visualizations. The proposed analysis methods are evaluated on different datasets.

Talk Finding the fraud: Matching and comparing photographies of art

21.09.2009 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Dirk Fortmeier

Seitdem Menschen für Kunst Geld bezahlen gibt es Fälschungen und somit das Bedürfnis den Fälschern auf die Schliche zu kommen. Einige Fälschungen sind leicht zu erkennen, andere nur durch sehr genaues hinschauen. Im Rahmen dieses Projekts wurden Methoden erdacht und evaluiert um Photographien von Gemälden und Kunstwerken mit Photographien ihrer Originale zu vergleichen. Die zentralen Probleme die dabei auftraten sind einerseits das Matching (Eliminierung der Unterschiedlichen Blickwinkel und Aufnahmebedingungen) sowie anderseits der anschließende Vergleich.

Talk The future of driver assistance

07.09.2009 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Tobi Vaudrey

Imagine a futuristic world where cars drive themselves. In New Zealand alone, there have been about driving 5000 fatalities over the past 10 years. Think of the reduction in accidents as cars are always looking at the road and making decisions based on its perception of the environment. The car will never get drunk, never fall asleep at the wheel, be always attentive and never suffer from road rage! This seems like a far-distant possibility that is only in the minds of science fi ction writers, such as those of Star Trek. But this reality is perhaps not so far away. We are still a while of the future depicted above, but there are smart cars that do take control of vehicles already, even if the driver is not aware. My research is on vision based driver assistance systems, in other words, I try and create eyes for cars. In this talk I will cover the basics of vision based environment perception: removing harmful illumination effects, stereo disparity estimation (distance), optical flow (2D motion), and scene flow (3D motion). Hopefully this brief introduction will spark some passion in driver assistance, and help save lives in the future.