Archiv


Seminar abstracts prior to 2011 are partially available in German only 

Winter Term 2010 / 2011

Jonas Knoll, University of Paderborn

March 30, 2011, 2:00 p.m., F1.110

Local Gathering Strategy with bounded Step Size

There has been extensive research done on swarms of autonomous robots. One goal is to find out what capabilities are crucial to fulfill certain tasks. A very basic problem is the Gathering problem. It deals with a group of autonomous robots which are scattered across a plane and shall gather in a non predefined point. Many strategies exist that solve this problem for various robot and time models, but only a few runtime bounds are known. In this presentation a local strategy for robots with limited visibility and step size will be presented, which is based on a paper of the "Smart Teams" project. The robots from the paper already have a limited visual range (circle of radius 2) and are oblivious, hence they cannot store information. As time model the asynchronous round model is used. It divides time into discrete time steps and each time step exactly one robot will turn active and execute the strategy. For this strategy an expected maximum runtime of O(n²) was shown. In the new model, the step size of the robot is limited to 0<d<=1 per time step. To be able to give an upper bound for the runtime the robots can no longer be oblivious, thus the constraint will be relaxed. The expected runtime of the new strategy is limited by O(n²/d³), while simulations suggest that the influence of d is even smaller.

(Presentation Bachelor Thesis, Talk in German)

Lokale Gathering-Strategie mit begrenzter Schrittweite

Ein Schwerpunkt bei der Forschung über Schwärme autonomer Roboter ist es herauszufinden welche Fähigkeiten benötigt werden um bestimmte Aufgaben zu erfüllen. Ein sehr grundlegendes Problem ist das Gathering Problem. Dieses befasst sich mit einer Gruppe von autonomen Robotern, welche auf einer Ebene verteilt sind und sich auf einem nicht vordefinierten Punkt versammeln sollen. Es gibt bereits viele Strategien, die dieses Problem für verschiedene Modelle (Roboter und Zeit) lösen, es sind aber nur wenige Laufzeitschranken bekannt. In diesem Vortrag wir eine lokale Strategie für Roboter mit begrenzter Sicht- und Schrittweite präsentiert, welche auf einem Paper aus dem Projekt Smart Teams basiert. Die Roboter aus dem Paper haben bereits eine beschränkte Sichtweite (Kreis von Radius 2) und sind oblivious, können also keine Informationen speichern. Als Zeitmodell wird das weit verbreitete asynchrone Runden Modell verwendet, bei dem Zeit in diskrete Schritte unterteilt wird und in jedem Schritt nur ein Roboter aktiv ist. Für die Strategie wurde eine erwartete maximale Laufzeit von O(n²) gezeigt. Im neuen Modell ist die Schrittweite der Roboter auf 0<d<=1 pro Zeitschritt beschränkt. Um weiterhin eine Laufzeitschranke zeigen zu können, muss allerdings die oblivious-Beschränkung gelockert werden. Die erwartete Laufzeit von der neuen Strategie ist durch O(n²/d³) beschränkt, wobei Tests einen geringeren Einfluss von d erwarten lassen.

(Abschlussvortrag Bachelorarbeit)

Martin Dietzfelbinger, TU Ilmenau

March 14, 2011, 2:00 p.m., F1.110

Local Computation of Spanners with Slack

Im Vortrag werden zwei Szenarien betrachtet:

1) Eine sehr einfache randomisierte, "evolutionäre" Suchstrategie zum Suchen des Minimums einer Funktion auf {1,...,n}. Man beginnt an einem zufälligen Punkt und würfelt (gemäß einer Verteilung mu) eine Distanz zu einem neuen Punkt aus, an dem die Funktion ausgewertet wird. Falls sich eine Verbesserung ergibt, geht man zu dem besseren neuen Punkt. Dies wird iteriert. Wenn die Funktion unimodal ist (erst fallend, dann steigend), sind O((log n)2) Funktionsauswertungen hinreichend (günstige Verteilung mu) und Omega((log n)2) viele notwendig.

2) Ein 2000 von Jon M. Kleinberg vorgeschlagenes Modell zur Untersuchung des "Small-World-Phänomens": Zu einem einfachen Basisnetzwerk mit n Knoten (etwa einem ein- oder zweidimensionalen Gitter) werden für jeden Knoten zufällig gewählte "Fernkanten" hinzugefügt, uniform, d.h. von der Position des Knotens unbeeinflusst. Die erwartete Anzahl von Kanten pro Knoten ist 1. Was ist nun die maximale Anzahl von Schritten zwischen zwei Knoten in dem resultierenden Netzwerk bei einer extrem einfachen ("greedy") Reisestrategie: man wählt in jedem Schritt den erreichbaren Knoten, der am nächsten am Zielknoten liegt? Man weiß seit längerem, dass dies bei günstiger Verteilung der Länge der Fernkanten O((log n)2) ist. Im Vortrag wird ein relativ neues Ergebnis vorgestellt, das zeigt, dass bei beliebiger Verteilung für die Fernkanten Omega((log n)2) eine untere Schranke ist.

Die numerische Ähnlichkeit der Ergebnisse springt ins Auge. Gibt es einen Zusammenhang zwischen evolutionären Algorithmen und "Small-World"-Netzwerken?

Chrsitian Sohler, Technische Universität Dortmund

February 22, 2011, 1:30 p.m., F1.110

Approximate Real Function Maximization and Query Complexity

Property testing is a relaxation of a standard decision task. Given access to an object (for example, a graph, a function or a point set) we would like to decide with probability at least 2/3, whether the object has a certain property (for example, bipartiteness, monotonicity or convex position) or is far away from the property. The goal is to solve this relaxed decision task by looking at a small (sublinear) part of the object.

In this talk I will summarize recent work on property testing in the bounded-degree graph model for sparse graphs.

Carsten Rösnick, University of Paderborn

February 21, 2011, 2:00 p.m., F1.110

Approximate Real Function Maximization and Query Complexity

Using a discrete approach to real computation, even seemingly easy problems like function maximization MAX(f) = max_{0 \leq t \leq X} f(t) might eventually become hard. We are interested in the root (for say, the analytic properties of the input function) causing the complexity of MAX. For that, we determine parameterized bounds on the complexity of approximate func- tion maximization. To date, this question appears to be unexamined. However, answering it helps exploiting the problem’s inner structure with respect to notions of classical analysis like Lipschitz continuity. Moreover, an answer also is of practical interest concerning implemen- tations on existing frameworks for exact real arithmetic. We conduct a two step approach. First, we devise different ways of accessing an unknown continuous real function via protocol (i.e., oracle) queries. These protocols are compared to each other regarding their simula- tion complexity, along with an analysis of their computability and computational complexity. Second, we determine the query complexity of approximating the MAX-functional relative to selected protocols. It is found that the simulation complexity often depends on the function’s Lipschitz constant (besides other notions of sufficiently steep or flat functions), whereas for the query complexity it is necessary to reveal this constant to any simulation algorithm as long as non-adaptive information is concerned. On the contrary, no such limitation holds when considered adaptive information and access to a range approximating protocol.

(Final Presentation Master Thesis, Talk language is German)

Robert Gmyr, University of Paderborn

February 16, 2011, 2:00 p.m., F1.110

Das Three Distance Theorem und dessen Anwendung im Kontext von Hash Tables

Sei s eine beliebige irrationale Zahl. Das Three Distance Theorem besagt, dass durch die Platzierung der Punkte {s}, {2s},..., {ns}, wobei {x} der Nachkommateil von x ist, also {x} = x - \floor{x}, auf dem Liniensegment [0..1], n+1 Liniensegmente von höchstens drei unterschiedlichen Längen entstehen. Dieses Theorem begründet eine besondere Eigenschaft von Hash Tables, welche die Multiplikationsmethode zur Erzeugung von Hash Funktionen nutzen: Mit gleichbleibendem Abstand aufeinander folgende Schlüssel, wie sie in der Praxis häufig auftreten, werden in der Hash Table gleichmäßig verteilten Speicherstellen zugeordnet. Dadurch wird die Anzahl der Kollisionen, die solche Schlüssel erzeugen, minimiert. Diese Eigenschaft sowie das Three Distance Theorem bilden zusammen eine „Perle der theoretischen Informatik“ und werden in dieser Arbeit erläutert und bewiesen.

(Vortrag im Rahmen des Seminars »Perlen der Theoretischen Informatik«)

Florentin Neumann, University of Paderborn

February 16, 2011, 3:00 p.m., F1.110

Local Computation of Spanners with Slack

A graph spanner is sparse representation of a graph such that distances between pairs of nodes are maintained within a small multiplicative stretch. The efficient construction of sparse, low-stretch spanners is essential for many theoretical and practical applications. Recently, the concept of 'Slack Spanners' has been introduced, which allows the sequential computation of spanners that have size linear in the number of nodes, while achieving constant stretch for a large fraction of the pairwise distances. The objective of my master thesis is to devise and to analyze local algorithms that compute spanners with slack in the distributed 'Congest Model'.

(Introductory Presentation Master Thesis ,Talk language is German)

Ralf Petring, University of Paderborn

February 9, 2011, 2:00 p.m., F1.110

Multi Algorithm Rendering

There are many rendering algorithmsknown in computer graphics. Each of them performs well for a specific type of scene but they may perform poorly on other types of scenes. The problem we consider in this talk are scenes which consist of different scene types combined in a single scene. For such scenes there is no single optimal algorithm. We present an idea how to use many algorithms in a single frame to display different parts of the scene. At this we consider sampled observer positions to find the best out of a given set of algorithms for the different scene parts. We consider culling algorithms as well as approximation algorithms. In this talk we focus on approximation algorithms and how to deside which to use for the different scene parts to get the best image quality.

Tim Süß, University of Paderborn

February 9, 2011, 2:30 p.m., F1.110

Parallel Out-of-Core Occlusion Culling

We present a parallel rendering system for PC-Clusters to visualize large 3D scenes. One single visualization node, equipped with a high-end graphics adapter, is supported by a group of back-end nodes with weak graphics performance. The objects of the scene are distributed among these back-end nodes, they serve two purposes: First, they provide an out-of-core memory system for the visualization node. Second, they assist the visualization node's rendering by performing visibility calculations and only sending visible objects to the visualization node. In order to obtain fast rendering with our system, we have to distribute the objects among the back-end nodes in a way that does not only guarantee an even distribution of the objects, but also an even distribution of the visibility calculations and the amount of data send to the visualization node. We identify necessary properties of the distribution and argue that a random distribution is a good candidate. Further, in order to reduce the number of objects sent to the visualization node per frame, we employ an approximate hierarchical occlusion culling in each back-end node. For this, they are equipped, in addition to the objects assigned to them, with simplified versions of the other objects of the 3D scene. The visualization node is equipped with 512 MiB video memory and supported by 15 back-end nodes. This system is able to render a 350 million polygons (about 8.5 GiB) large aircraft model between 20 - 30 fps and thus allows a walkthrough in real-time.

Peter Kling, University of Paderborn

January 19, 2011, 2:00 p.m., F1.110

Collisionless Gathering of Robots with an Extent

In the first part, I give a talk to be held on January 27, 2011 at the 37th International Conference on Current Trends in Theory and Practice of Computer Science (SOFSEM). We consider the well-studied gathering problem, but with the additional twist of non-zero sized robots. Problems such as collisions and deadlocks arise, making it rather hard to model and to analyze this problem. Thus, our theoretical work uses a relatively simple, discretized model and features experimental results to both motivate our ongoing research and to establish a relation to a more realistic setting.

In the second part, I give a short overview about and discuss ongoing joint work with Martina Hüllmann and Andreas Koutsopoulos about Self-adjusting Nanostructures. Although this work uses a very similar model and similar ideas, the motivation originates from a completely different area.

Hendrik Renken, University of Paderborn

January 12, 2011, 4:00 p.m., F1.544

Event-based asymptotic time complexity of simulations of discrete event systems

In this talk we propose an upper bound for the event-based time complexity of the simulation of generic DES models. To determine the upper bound we constructed a special simulation algorithm for which we can (over-)estimate the number of events processed during a simulation run and the overall runtime costs one event generates.

Sascha Brandt, University of Paderborn

December 15, 2010, 2:00 p.m., F1.110

Visibility Distance: Analysis and Applications

Visibility in computer graphics is a wide spread topic and there are many algorithms out there, which are calculating the visibility of an object in realtime or in a preprocessing step. More rarely is the examination of objects that are about to be visible, i.e. that becomes visible in the near future while moving through a virtual scene. For this purpose the visibility distance is introduced in this dissertation. An informal definition of the visibility distance could be: "The shortest distance, a viewer has to cover, until a given object becomes visible." If the visibility distance is computed, it can be used to improve out-of-core pre-fetching algorithms.

(Final Presentation Bachelor Thesis, Talk language is German)

Torsten Bruns, University of Paderborn

December 15, 2010, 2:45 p.m., F1.110

Planung optimaler Trajektorien mittels diskreter Mathematik (am Beispiel des autonomen Kreuzungsmanagements für Kraftfahrzeuge)

In dem Vortrag wird ein Verfahren vorgestellt, mit dem für niedrigdimensionale Systeme optimale und kollisionsfreie Trajektorien berechnet werden können. Im Rahmen der Optimierung können unterschiedliche Zielgrößen berücksichtigt werden, die ihren Ausdruck allerdings in Form einer Wunsch- bzw. Soll-Trajektorie finden müssen. Sowohl bei der Modellierung als auch bei der Lösung des zuvor skizzierten Problems werden Methoden aus dem Bereich der diskreten Mathematik angewendet. Dies ermöglicht eine Abschätzung und Skalierung des Berechnungsaufwands, was wiederum eine gute Eignung für die Anwendungen unter Echtzeitbedingungen bedeutet.

Das Verfahren wird am Beispiel des autonomen Kreuzungsmanagements eingeführt und bewertet: Für autonome Fahrzeuge, die als lineare dynamische Systeme 2. Ordnung modelliert werden, werden kollisionsfreie Trajektorien für die Überquerung einer Kreuzung bzw. eines beliebigen Verkehrsknotenpunktes berechnet. Bei der Berechnung werden Optimierungszielgrößen wie Dauer, Komfort und Kraftstoffverbrauch berücksichtigt.

Prinzipiell kann das Verfahren auf beliebige gleichartige Anwendungen übertragen werden, wie zum Beispiel auf die Trajektorienplanung von Robotern mit gemeinsamem Arbeitsraum.

Peter Pietrzy, University of Paderborn

December 8, 2010, 2:00 p.m., F1.110

Local Approximation Algorithms for Facility Location Problems

We provide an overview of sequential approximation algorithms for various kinds of the Facility Location Problem and present ideas how to execute these algorithms in a distributed setting. The main focus lies on the aspect of locality and the algorithms' ability to deal with changes in the given problem instance.

Carsten Rösnick, University of Paderborn

December 1, 2010, 2:00 p.m., F1.110

Approximate Real Function Maximization and Query Complexity

Frameworks like iRRAM [1] or RealLib [2] allow to compute approximations of continuous functions within prescribed error bounds. The study of the computational complexity of continuous problems when only given partial information about the input is called information-based complexity [3]. Taking the approximation of continuous problems one step further, i.e., looking at real functionals L : (IR -> IR) -> IR, especially raises the question about its computational complexity in such frameworks. It is one goal of this Master's Thesis to determine the complexity of approximating the maximization functional MAX(f) := max_{x \in [0,1]} f(x) by varying the information given about f, which is not complete, but partial and contaminated [3]. In combination with a complexity analysis of computing the information itself, this should yield more explicit quantitative and parameterized both upper and lower bounds (compared to [4]) on the complexity of MAX.

  • [1] Norbert Th. Müller. The iRRAM: Exact arithmetic in C++. Computability and Complexity in Analysis, pages 222–252, 2001.
  • [2] B. Lambov. RealLib: An efficient implementation of exact real arithmetic, Mathematical Structures in Computer Science, 17(01):81-98, 2007.
  • [3] J.F. Traub, G.W. Wasilkowski, and H. Wozniakowski. Information-Based Complexity, 1988.
  • [4] Ker-I. Ko and Harvey Friedman. Computational complexity of real functions. Theoretical Computer Science, 20(3):323–352, 1982.

(Inaugural Presentation Master Thesis)
(Talk language is German)

Benjamin Eikel, University of Paderborn

November 17, 2010, 2:00 p.m., F1.110

Preprocessed Global Visibility for Real-Time Rendering on Low-End Hardware

In the first part I will talk about the paper mentioned below, which I am going to present at November 30, 2010 at the 6th International Symposium on Visual Computing (ISVC 10). In the second part I give an outlook for my future work on rendering algorithms and data structures for mobile devices. I will give a short insight into our implementation for the Android mobile operating system. Furthermore I will mention some level-of-detail and out-of-core techniques that are planned to improve the existing system.

Abstract. We present an approach for real-time rendering of complex 3D scenes consisting of millions of polygons on limited graphics hardware. In a preprocessing step, powerful hardware is used to gain ?ne granular global visibility information of a scene using an adaptive sampling algorithm. Additively the visual influence of each object on the eventual rendered image is estimated. This influence is used to select the most important objects to display in our approximative culling algorithm. After the visibility data is compressed to meet the storage capabilities of small devices, we achieve an interactive walkthrough of the Power Plant scene on a standard netbook with an integrated graphics chipset.

joint work with: Claudius Jähn, Matthias Fischer

Barbara Kempkes, University of Paderborn

November 10, 2010, 2:00 p.m., F1.110

Gathering mobile robots locally in time O(n^4)

Gathering mobile robots in one not predetermined point in the Euclidean plane is a classical problem from the area of robot formation problems. In the last fifteen years, a lot of effort has been put into pinpointing the set of crucial capabilities which the robots must have in order to achieve gathering in finite time. So far, only a few runtime bounds are known. Some bounds exist for algorithms in a global setting, and there is also one algorithm with known runtime bounds for robots with a local viewing range which uses rather strong robots. We show that gathering is also possible in time O(n^4) with very weak robots which only have a local viewing range.

Christiane Lammersen, TU Dortmund

November 10, 2010, 2:45 p.m., F1.110

Approximation Techniques for Facility Location and its Application in Metric Embeddings

Andreas Cord-Landwehr, University of Paderborn

November 3, 2010, 2:00 p.m., F1.110

The Dynamic Facility Location Problem in Geometric Settings

Clustering can play a critical role in increasing life-time and performance of wireless networks. Equipped with the movement of network nodes, limited visibility, and mixed sending and receiving costs, there are several issues to be handled at the same time and which make a difference to the common facility location problem. This Master's thesis presents a generalization of a recent work by Degener, Kempkes, and Pietrzyk to solve the facility location problem in the power-of-metrics case, as well as for several scenarios with inaccurate distance measurements and node movements. The result is a state-of-the-art constant factor approximation with stabilization time logarithmic in the number of nodes.

(Final Presentation Master Thesis)
(Talk language is German)

Sebastian Abshoff, University of Paderborn

October 11, 2010, 4:15 p.m., F0.231

Evaluation of Distributed, Local Approximation Algorithms for the Facility Location Problem

Recently a distributed and local algorithm that achieves a 17-approximation for the uncapacitated metric facility location problem was published by Degener, Kempkes and Pietrzyk. The necessary improvement steps to obtain a (3+epsilon)-approximation as well as results of the performance analysis are explained in this presentation.

(Final Presentation Bachelor Thesis)

Summer Term 2010

Project Group PeerGame, University of Paderborn

September 29, 2010, 2:00 p.m., F1.110

Entwicklung eines Peer-to-Peer-basierten Multiplayer-Echtzeit-Strategiespiels

Ziel der Projektgruppe war die Entwicklung eines Multiplayer-Echtzeit-Strategiespiels, das durch ein auf einem Peer-to-Peer-System basierenden Netzwerk prinzipiell unbegrenzt viele Nutzer zur selben Zeit verwalten kann. Am Ende der Projektgruppe ist ein frei skalierbares Multiplayer-Echtzeit-Strategiespiel entstanden, welches eine ausgefeilte  Spielmechanik und eine dem Umfang entsprechende 3D-Grafik hat. Die 3D-Grafik stellt die virtuelle Welt dar, in der sich die Spieler bewegen und spielen. Die virtuelle Welt ist vollständig verteilt gespeichert, sodass ihre Verwaltung mit der Anzahl der aktiven Spieler skaliert.

(Final Report)

Alexander Klaas, University of Paderborn

September 15, 2010, 2:00 p.m., F1.110

Konzeption und Entwicklung eines wissensbasierten Verfahrens zur simulationsgestützten Steuerung von fahrerlosen Transportfahrzeugen in Distributionszentren

Für die moderne dynamische Distributionslogistik sind reaktionsfähige Routingverfahren für mehrere fahrerlose Transportfahrzeuge innerhalb eines Distributionslagers erforderlich. Ein solches Verfahren wird in dieser Masterarbeit unter Berücksichtigung zahlreicher anderer Anforderungen für den realitätsnahen Einsatz konzipiert und entwickelt.

Um größtmögliche Flexibilität zu bewahren, plant das Verfahren nur inkrementelle Teilpfade. Dazu wird in jedem Schritt eine Steuerungsregel zur weiteren Pfadberechnung ausgewählt. In die Ermittlung der Regel fließt Wissen über die aktuelle Gesamtsituation ein, indem aus offline gesammelten Erfahrungen mit wissensbasierten Methoden gelernt wird. Dies ermöglicht das Verfolgen von globalen Zielen bei echtzeitfähigen Laufzeiten.

Für ein konkretes Simulationsmodell eines Distributionszentrums wird das Verfahren experimentell ausgewertet. Die Leistungsbewertung erfordert eine differenzierte Betrachtungsweise.

(Final Presentation Master Thesis)

Artur Czumaj, University of Warwick

August 25, 2010, 2:00 p.m., F1.110

How hard is to find a good k-tour?

In this talk we will discuss the complexity of the geometric k-tour problem.  The k-tour problem, also frequently known as the capacitated vehicle routing problem, is for a given set of n points in the Euclidean plane and O being the origin point in the plane, to find the shortest set of tours that cover all points in P, such that each tour starts and ends in O and covers at most k points from P. This is one of the classical optimization problems and it can be seen as a natural extension of the Travelling Salesman Problem.  As an extension of the TSP problem, the k-tour cover problem is known to be NP-hard. We will survey approximation algorithms for this problem.
The talk is based on a joint work with A. Adamaszek and A. Lingas.

Ralf Petring, University of Paderborn

July 28, 2010, 2:00 p.m., F1.110

Multi Algorithm Rendering

There are many rendering algorithms known in computer graphics. Each of them performs well for a specific type of scene but they may perform poorly on other types of scenes. The problem we consider in this talk are scenes which consist of different scene types combined in a single scene. For such scenes there is no single optimal algorithm. We present an idea how to use many algorithms in a single frame to display different parts of the scene. At this we consider parameters like observer position and viewing direction to find the best out of a given set of algorithms for the different scene parts. We consider culling algorithms as well as approximation algorithms.

Claudius Jähn, University of Paderborn

July 28, 2010, 2:30 p.m., F1.110

Exploiting 3D scene parametrization for efficient rendering

When visualizing complex virtual 3D scenes, the achieved frame rate is not only determined by the used hardware and the overall size of the input (the virtual scene). The efficiency of a rendering algorithm is also heavily influenced by the current observer's position in the scene and several properties at that position -- like the amount of occluded geometry as seen from the observer. In this talk I will give a brief overview of techniques for evaluating such scene properties. In particular I am going to present first results on a sampling method which is based on the observer's movement through the scene.

Tim Süß, University of Paderborn

June 23, 2010, 2:00 p.m., F1.110

Heterogeneous PC-clusters for parallel out-of-core rendering

Using parallel out-of-core rendering systems allow to handle large three-dimensional scenes that do not fit to the primary memory of a single PC. Furthermore, using multiple PCs can reduce data accesses in other ways than common out-of-core rendering systems do. This way the workload can be reduced, too. On the other hand the parallel data management brings new problems and questions that must be solved. In the past, we pointed out a number challanges and we developed methods and techniques to address serveral of these problems, while others are still unsolved.

In this presentation the concepts and the problems of a parallel out-of-core rendering system will be shown that combines these developed techniques.

Hendrik Renken, University of Paderborn

June 23, 2010, 2:30 p.m., F1.110

A modular simulation framework for the development and visualisation of complex simulation models

When creating a general purpose simulation framework several considerations have to be taken into account: First of all the flexibility to further extend and adapt the software to the user's needs, second the overall performance in runtime and memory usage. The simulation framework is developed by the AG Dangelmaier, the visualisation system by the AG Meyer auf der Heide. Complex simulation models often spawn over several domains generating the need for an integrative, enhanceable simulation framework. Based on this, the visualisation client also must be flexible to adapt to very different simulation models and their domain specific visualisation requested by the user. In this talk we present our approach to a modular and flexible simulation- and visualisation-framework which can be easily adapted.

Peter Kling, University of Paderborn

June 17, 2010, 11:00 a.m., F2.211

Unifying the Analysis of Communication Chain Strategies

Consider the problem of forming (nearly) optimal length communication chains in the planar space. Such chains consist of a number of simple, mobile devices with a limited communication range. These devices (relays) are to forward messages between two distant base stations. They should move such that the length of the chain becomes minimal.

In my master's thesis, I study a well-known strategy to shorten such communication chains: Go-to-the-Middle. I give a complete analysis of this strategy, including correctness as well as worst case lower and upper runtime bounds. While such an analysis is already known, my approach embeds the complete strategy into the theory of Markov chains, yielding a more consistent and slightly improved analysis. Moreover, based on this first result, I develop a framework for a rather general class of strategies similar to Go-to-the-Middle. This framework connects strategies to matrices and allows to deduce strategy properties (e.g., correctness or runtime bounds) directly from the corresponding matrices. Eventually, my master's thesis closes the logartihmic gap left between the so far known upper and lower runtime bounds of Go-to-the-Middle.

(Final Presentation Master Thesis)

Andreas Cord-Landwehr, University of Paderborn

June 17, 2010, 11:30 a.m., F2.211

The Dynamic Facility Location Problem in Geometric Settings

Clustering can play a critical role in increasing life-time and performance of wireless networks. Equipped with the movement of network nodes, limited visibility and mixed sending and receiving costs, there are several issues to be handled at the same time and which make a difference to the common "Facility Location Problem" when clustering those networks. Similar formulations of the here discussed Dynamic Facility Location Problem problem are called the "distributed" or "kinetic" Facility Location Problem.

This Master Thesis aims to discuss and research generalizations of recent results on approximation algorithms solving this problem. Mettu and Plaxton defined a local invariant, called the radius, which allows the formulation of a greedy solving strategy. This invariant, its dynamics, and recent algorithms using this invariant are in the center of my analysis. The pending questions range from the adaptation of results on metric graphs to power-of-metric graphs, the relaxation of the network node's update frequency, and the formulation of robustness results on measurement faults of nodes in large distances.

(Introductory Presentation Master Thesis)

Gürkan Özcan, University of Paderborn

June 9, 2010, 2:00 p.m., F1.110

Kategorisierung, Optimierung und Evaluierung von Occlusion-Culling Verfahren der Computer Grafik

Durch die dreidimensionale Darstellung von Objekten wird eine Szene realistisch abgebildet. Die virtuelle Anzeige bietet einen hohen Wiedererkennungswert mit der Realität. Aufgrund dieser Eigenschaft wird die 3D-Computer Grafik in vielen verschiedenen Industriezweigen eingesetzt. Die Darstellung von realistischen 3D-Szenen erfolgt häufig durch eine große Menge von 3D-Objekten. Je nach Perspektive, können sich unterschiedliche Objekte ganz oder teilweise verdecken. Die Bestimmung der Verdeckungsbeziehungen zwischen einzelnen Objekten wird allgemein als Sichtbarkeitsproblem bezeichnet. Occlusion Culling-Verfahren sind Algorithmen zur Lösung des Sichtbarkeitsproblems. Mit ihnen werden sichtbare Bereiche von Objekten für eine durch ein View Frustum (Sichtbereich des Betrachters) beschränkte Perspektive berechnet. Diese Arbeit kategorisiert Occlusion Culling-Verfahren nach unterschiedlichen Charaktermerkmalen. Eine bestimmte Auswahl an Verfahren – CHC, AVC - wird näher untersucht. Für die einzelnen Algorithmen werden Parameter identifiziert, die die Laufzeit der Verfahren beeinflussen. Die Parameterwerte der Algorithmen werden so bestimmt, dass sich die Laufzeit für eine gegebene Szene bestmöglich gestaltet. Im Anschluss werden die näher betrachteten Occlusion Culling-Algorithmen mit den ermittelten Parameteranpassungen untereinander verglichen. Es wird untersucht, ob sich auf diese Weise ein bester Algorithmus für eine gegebene Szene ermitteln lässt.

(Final Presentation Diploma Thesis)

Clemens Koch, University of Paderborn

June 2, 2010, 2:00 p.m., F1.110

Paralleles Occlusion Culling durch approximierte Szenen-Objekte

Cluster bestehen oft aus vielen Knoten mit schwacher Grafikleistung und wenigen oder auch nur einem Knoten mit starker Grafikleistung. Das stellt parallele Rendersysteme, die mit aktuellen Grafiktechniken arbeiten wollen, vor das Problem, dass die zu bearbeitende Geometrie oft zu komplex für einen einzelnen, starken Knoten ist, aber die anderen Knoten nicht die gewünschten Techniken unterstützen.

Im Rahmen dieser Diplomarbeit ist ein paralleles Rendersystem entwickelt worden, bei dem die Knoten mit schwacher Grafikleistung nur das Occlusion Culling für einen Knoten mit starker Grafikleistung berechnen. Um die Qualität der Occlusiontests zu verbessern, ist eine Approximation für 3D-Objekte entwickelt worden, welche eine Über- und Unterschätzung der Originalgeometrie berechnet. Ferner lässt sich die Komplexität der Approximationen steuern, so dass die gesamte Szene in den Speicher der Grafikkarten der schwachen Knoten geladen werden kann. Untersucht wurde einerseits die Skalierbarkeit des Rendersystems, als auch wie sich die Verwendung der entwickelten Approximationen im Vergleich zu üblichen Bounding Box Tests verhält.

(Final Presentation Diploma Thesis)

Christoph Raupach, University of Paderborn

May 19, 2010, 2:00 p.m., F1.110

The Car Sharing Problem: Finding Policies for Markov Decision Processes with a State Space of Exponential Size

Markov Decision Processes are a general framework for modeling decision making in situations with partly random outcomes. Even though it is possible to compute optimal policies for MDPs through dynamic programming or solving linear programs this becomes infeasible if the state space is huge.

In my master thesis I studied a specific application of MDPs, the so called car sharing problem, which has a state space of exponential size. Using structurally simple (oblivious) policies, I derived approximations in the continuous-time case and for certain classes of instances in the discrete-time case.

(Final Presentation Master Thesis)

Benjamin Eikel, University of Paderborn

May 12, 2010, 2:00 p.m., F1.110

Preprocessed Global Visibility for Real-Time Rendering on Low-End Hardware

Our approach combines preprocessed visibility with approximative culling in order to be able to perform real-time 3D rendering on limited graphics hardware. In a preprocessing step, powerful hardware can be used to gain global visibility information for objects in a scene using an adaptive sampling algorithm. Our preprocessing is able to cope with complex scenes consisting of millions of triangles, as for example the Power Plant scene. We developed methods to reduce the space that is required to store the visibility information in a second step. By reducing the storage space, mobile devices like netbooks are able to hold the information in their main memory and use them for the rendering of complex scenes. Our approximative culling algorithm is used to overcome the low triangle throughput of such devices. We prove the feasibility of our approach with a walkthrough of the Power Plant scene using our proof of concept implementation on a standard netbook. This talk presents our work and points out possible future improvements.

Tim Süß, University of Paderborn

May 12, 2010, 2:30 p.m., F1.110

Asynchronous Parallel Reliefboard Computation for Scene Object Approximation

Reliefboards are approximations of objects for the rendering of complex three-dimensional scenes. The presented algorithm runs across heterogeneous architectures of PC-clusters consisting of a visualization-node, equipped with a powerful graphics adapter, and cluster nodes requiring weaker graphics capabilities only. The visualization-node renders a mixture of scene objects and Reliefboards. The cluster nodes assist the visualization-node by asynchronous computation of the Reliefboards, which are used to replace and render distant parts of the scene. The algorithm is capable of gaining significant speedups if the cluster's nodes provide weak graphic adapters only. The algorithm trades the number of cluster nodes off the scene objects' image quality.

Barbara Kempkes, University of Paderborn

May 5, 2010, 2:00 p.m, F1.110

A local O(n^2) gathering algorithm

The gathering problem, where n autonomous robots with restricted capabilities are required to meet in a single point of the plane, is widely studied. We consider the case that robots are limited to see only robots within a bounded vicinity and present an algorithm achieving gathering in O(n^2) rounds in expectation. A round consists of a movement of all robots, in random order. All previous algorithms with a proven time bound assume global view on the configuration of all robots.

Claudius Jähn, University of Paderborn

April 14, 2010, 2:00 p.m., F1.110

Evaluating and tuning data structures for 3d scenes

When visualizing complex virtual 3d scenes with sophisticated rendering algorithms, the frame rate is very sensitive to the type and parameters of the data structure chosen for storing the scene. Finding and tuning an appropriate data structure is normally a time-consuming process which requires extensive experience. For example, when using an occlusion culling algorithm, many different parameters (like the splitting value or the maximal depth of an octree) influence the efficiency, that can be achieved at every viewing position in the scene. In this talk I am going to present an operating principle, which can be used to considerably improve the evaluation process for different performance values in a given setting. In addition to the conventional method of performing measurements along manually chosen camera paths, the relevant characteristics are thereby approximated globally via adaptive sampling.

Winter Term 2009 / 2010

Matthias Giese, Universität Paderborn

24. März 2010, 14:00 Uhr, F1.110

Verbesserung der Klassifikationsentscheidung in der wissensbasierten Ablaufsteuerung

In der industriellen Fertigung kommt dem Scheduling, also dem zeitlichen Zuordnen von Aufträgen zu Maschinen, eine zentrale Bedeutung zu. Eine Klasse von Scheduling Problemen sind die Job Shop Probleme. Bei diesen werden alle Aufträge auf allen Maschinen in einer für jeden Auftrag individuell festgelegten Reihenfolge bearbeitet. Dieses Problem ist NP schwer und deshalb werden in der Praxis heuristische Ansätze verwendet, um eine bestmögliche Lösung in akzeptabler Zeit zu erhalten. In einem früheren Projekt wurde zu diesem Zweck eine wissensbasierte Ablaufsteuerung entworfen. Bei diesem Verfahren wird in einer ersten Phase eine Wissensbasis aus im Voraus optimal gelösten Job Shop Problemen aufgebaut. In der zweiten (zeitkritischen) Rescheduling Phase während der Fertigung entscheidet nun ein Klassifzierer, wie die Aufträge den Maschinen zugeordnet werden. Dabei vergleicht der Klassifzierer die aktuelle Fertigungssituation mit jenen aus der Wissensbasis anhand von Situationsmerkmalen. Diese Situationsmerkmale sind je nach dem zu lösenden Problem von unterschiedlicher Relevanz.

Diese Abschlussarbeit zeigt einen Weg auf, wie mit einer automatisierten Auswahl der Situationsmerkmale eine Verbesserung der Lösungsgüte erreicht wird. Zusätzlich werden Lösungsansätze vorgestellt, schlechte Entscheidungen des Klassifizierers, in Situationen die nicht eindeutig klassifiziert werden können, zu vermeiden. Abschließend wird eine Testreihe zur Evaluierung der eingeführten Konzepte vorgestellt.

(Abschlussvortrag Diplomarbeit)

Timo Wiesemann, Universität Paderborn

10. März 2010, 14:00 Uhr, F1.110

Effektivitätsanalyse des c-Collision Protokolls als gewichteter Datenbalancierer in einem parallelen Out-of-Core Renderer

Die Leistung moderner Grafikkarten steigt stetig an. So wird es möglich, immer komplexere 3D-Szenen darzustellen. Gerade im Bereich des Computer Aided Designs (CAD) entstehen komplexe 3D-Modelle, welche moderne Grafikkarten vor große Herausforderungen stellen. Die Datenmengen vieler CAD-Modelle passen nicht in den Speicher der Grafikkarten. Um Szenen mit großem Speicherbedarf und geometrischer Komplexität interaktiv darzustellen, können Out-Of-Core-Renderer eingesetzt werden, welche zudem parallel in einem Netzwerk rendern.

Im Rahmen dieser Diplomarbeit wurde untersucht, wie gut sich eine modifizierte Variante des c-Load Collision Protokolls als Datenlast-Balancierer in einen parallelen Out-Of-Core Renderer einsetzen lässt. Dazu wurde ein Rendering-System entwickelt und auf dem Arminius-Cluster des Paderborn Centers for Parallel Computing getestet. Als Benchmark-Szene diente dabei das Modell einer Boeing 777(ca. 330.000.000 Dreiecke). Mehrere Runden des c-Collision Protokolls wurden überlagern und anhand des Rendering-Systems evaluiert.

(Abschlussvortrag Diplomarbeit)

Peter Kling, Universität Paderborn

10. Februar 2010, 14:00 Uhr, F2.211

Unifying the Analysis of Communication Chain Strategies

Consider the problem of forming (nearly) optimal length communication chains in the planar space. Such chains consist of a number of simple, mobile devices with a limited communication range. These devices, called relays, are to forward messages between two far apart robots, called base stations. The relays should move such that the length of the chain becomes minimal. Several strategies to shorten such communication chains have been studied. Two of the most important are the Go-to-the-Middle and the Hopper strategies. Their analyses are quite different: Hopper allows a rather direct and tight analysis, while Go-to-the-Middle is analysed using techniques from Markov Chain Theory, leaving a logarithmic gap.

In my master's thesis I study adaptations of Go-to-the-Middle with techniques and ideas from the Hopper strategy. Furthermore, I consider Go-to-the-Middle as a special case of a more general algorithm family for the communication chain problem and try to give a classification for this family.

(Antrittsvortrag Masterarbeit)

Patrick Briest, Universität Paderborn

Der Vortrag wird verschoben und in der vorlesungsfreien Zeit nachgeholt.

On Stackelberg Pricing with Computationally Bounded Consumers

In a general Stackelberg pricing game a leader aims to set prices on a subset of a given collection of items, such as to maximize her revenue from a follower purchasing a feasible subset of the items. We focus on the case of computationally bounded followers who cannot optimize exactly over the range of all feasible subsets, but apply some publicly known algorithm to determine the set of items to purchase. This corresponds to general multi-dimensional pricing assuming that consumers cannot optimize over the full domain of their valuation functions but still aim to act rationally to the best of their ability.

Assuming that items are weighted objects and the follower seeks to purchase a min-cost selection of objects of some minimum weight (the MIN-KNAPSACK problem) and uses a simple greedy 2-approximate algorithm, we show how an extension of the known single-price algorithm can be used to derive a polynomial-time (2 + eps)-approximation algorithm for the leader’s revenue maximization problem based on so-called near-uniform price assignments. We also prove the problem to be strongly NP-hard.

Considering the case that items are subsets of some ground set which the follower seeks to cover (the SET-COVER problem) via a standard primal-dual approach, we prove that near-uniform price assignments fail to yield a good approximation guarantee. However, in the special case of elements with frequency 2 (the VERTEX-COVER problem) it turns out that exact revenue maximization can be done in polynomial-time. This stands in sharp contrast to the fact that revenue maximization becomes APX-hard already for elements with frequency 3.

This is joint work with Luciano Guala, Martin Hoefer, and Carmine Ventre.

Ralf Petring, Universität Paderborn

27. Januar 2010, 14:00 Uhr, F1.110

Multi Algorithm Rendering

There are many rendering algorithms known in computer graphics. Each of them performs well for a specific type of scene but they may perform poorly on other types of scenes. The problem we consider in this talk are scenes which consist of different scene types combined in a single scene. For such scenes there is no single optimal algorithm. We present an idea how to use many algorithms in a single frame to display different parts of the scene. At this we consider parameters like observer position and viewing direction to find the best out of a given set of algorithms for the different scene parts. We consider culling algorithms as well as approximation algorithms.

Tamás Lukovszki, Eotvos Lorand University

20. Januar 2010, 14:00 Uhr, Raum F1.110

Phonebook Centric Social Networks

Social networks are becoming more and more popular nowadays. The increasing capabilities of mobile phones enable them to participate in such networks. The phonebooks in the mobile devices represent social relationships, that can be integrated in the social networks. Following we refer to this solution as phonebook-centric social networks. Such networks provide a synchronization mechanism between phonebooks of the users and the social network which allows detecting network members listed in the phonebooks (semi-) automatically. The detection of those members is based on the similarity of the personal data, e.g., similar name, same phone number, address, etc… Users can mark similarities between their phonebook contacts and members in the network. After this, if one of their contacts changes her or his personal detail, it will be propagated automatically into the phonebooks, after considering privacy settings. Synchronization time and energy consumption for synchronization on the mobiles and the scalability of the system strongly depend on the number of users and similarities. We have implemented a phonebook-centric social network, called Phonebookmark and investigated the structure of the network. We experienced that the distribution of similarities follows a power law, as well as the distribution of the in- and out-degrees in the social network. In this paper we propose a model for estimating the total number of similarities and we show that this estimation applies very well to the historical data of Phonebookmark.

Robert Gmyr, Universität Paderborn

20. Januar 2010, 16:30 Uhr, Raum F2.211

Approximation sichtrichtungsabhängiger Szeneneigenschaftsfunktionen

Anwendungen der Echtzeit-Computergrafik stellen aufgrund der zunehmend komplexen Szenen seit jeher höchste Anforderungen an die derzeitigen Rechnersysteme. Um diese Anforderungen zu senken, wurden verschiedenste Techniken wie zum Beispiel Occlusion Culling entwickelt. Wie effizient solche Techniken angewendet werden können, variiert jedoch stark; nicht nur zwischen Szenen, sondern bereits zwischen verschiedenen Positionen und Sichtrichtungen in einer Szene. Es ist daher sinnvoll, die Wahl der verwendeten Techniken in Abhängigkeit von der Eingabe eines Rendering-Algorithmus zu treffen, damit die situativ bestmögliche Leistung erzielt werden kann.

Um diese Wahl zu ermöglichen, können Szeneneigenschaftsfunktionen betrachtet werden. Diese bilden eine Eingabe eines Rendering-Algorithmus, welche unter anderem aus Szene, Position und Sichtrichtung besteht, auf eine Szeneneigenschaft wie die Anzahl der sichtbaren Objekte im durch die Eingabe implizierten Bild ab. Ist der Wert einer Szeneneigenschaftsfunktion bereits vor dem Rendern eines Bilds bekannt, so kann die Wahl der verwendeten Techniken sinnvoll getroffen werden. Eine Szeneneigenschaftsfunktion vor jedem zu zeichnenden Bild auszuwerten, kann jedoch erheblichen Rechenaufwand erfordern. Außerdem ist oft bereits ein grober Wert ausreichend, um die Wahl zu treffen. Daher bietet sich eine Approximation von Szeneneigenschaftsfunktionen mit Hilfe von Preprocessing an.

In dieser Bachelorarbeit wurden, ausgehend von einem vorgegebenen Ansatz, verschiedene Algorithmen zu dieser Approximation entwickelt, implementiert und evaluiert. Dabei wurde die Sichtrichtung als einziger variabler Teil der Eingabe betrachtet.

(Bachelorarbeit)

Stefan Mengel, Universität Paderborn

13. Januar 2010, 14:00 Uhr, F1.110

Lokaler Zusammenhang in Graphen

c-Zusammenhang ist eine klassische Grapheigenschaft, die die Zuverlässigkeit von Netzwerken unter Knotenausfällen misst. Leider handelt es sich dabei um ein höchst nichtlokales Maß, das deswegen für verteilte Szenarios nicht geeignet ist. Wir stellen einen neuen Zusammenhangsbegriff für Graphen vor, der klassischen c-Zusammenhang impliziert und lokal überprüfbar ist und damit in verteilten Netzwerkprotokollen benutzt werden kann, um hohen Zusammenhang zu garantieren. Wir stellen verteilte Protokolle vor, die c-zusammenhängende Graphen konstruieren und unter Knotenausfall aufrecht erhalten. Außerdem zeigen wir, dass es bezüglich unseres Zusammenhangsbegriffs eine strikte Hierarchie von Graphen mit unterschiedlichen Zusammenhangseigenschaften gibt.

Jan Mehler, Universität Paderborn

16. Dezember 2009, 14:00 Uhr, F1.110

Simulation of Power-Aware Online File Allocation in Mobile Ad Hoc Networks

In this talk we present some intermediate results of a simulation of the following scenario: An indivisible file consisting of multiple data units is stored on a stationary server connected to a mobile ad hoc network. While the mobile nodes can only read data from the file, the server can only modify the file. Our goal is to minimize the amount of energy consumed by the mobile nodes while fulfilling a sequence of data accesses. To achieve this goal, a file allocation algorithm may create/delete copies of the complete file on arbitrary mobile nodes. Our main focus lies on the online version of the problem. An online algorithm neither knows the dynamics of the mobile ad hoc network nor the requests of the nodes in advance.

Tim Süß, Universität Paderborn

9. Dezember 2009, 14:00 Uhr, F1.110

Applying Reliefboards

Reliefboarding is a technique to approximate complex three-dimensional scenes and to render them in parallel on heterogeneous clusters that consist of a few strong and many weak nodes. The weak cluster-nodes generate asynchronous level-of-details of complex scene-parts on the fly. Instead of rendering theses complex scene-parts, the strong cluster-nodes use these approximations.

To gain a sufficient speedup the load must be distributed evenly over the different cluster-nodes. To deal with this issue, we analyzed and modified the c-Collision-Protocol to fit our needs.

Manuel Hüster, Universität Paderborn

2. Dezember 2009, 14:00 Uhr, F1.110

Triangulierung von Polygonzügen zur Vertexcache-Optimierung

Eine Triangulierung wird in vielen Anwendungen, die dreidimensionale Objekte anzeigen oder bearbeiten, benutzt. Die Unterteilung in Dreiecke ermöglicht zum einen einer Anwendung komplexe Objekte zu verändern, zum anderen der Graphikkarte effizient diese in der gewünschten Perspektive anzuzeigen.

In dieser Bachelorarbeit werden Polygonzüge betrachtet, die beliebig im dreidimensionalen Raum liegen können. Daraus ergibt sich das Problem, dass nicht eindeutig bestimmt werden kann, welche Flächen durch den Polygonzug beschrieben werden. Bei verschiedenen Techniken zur Oberflächenrekonstruktion haben sich Voronoi Diagramme als hilfreich erwiesen. In der Arbeit wurde ein auf Voronoi Diagrammen basierendes Verfahren entwickelt, um die intendierten Flächen eines Polygonzugs zu erhalten. Im Anschluß an diese Prozedur wird die Reihenfolge der Dreiecke, und der Eckpunkte, so modifiziert, dass zur Renderphase der Vertexcache möglichst gut genutzt werden kann.

(Abschlussvortrag Bachelorarbeit)

Christoph Raupach, Universität Paderborn

25. November 2009, 14:00 Uhr, F1.110

The Car Sharing Problem: Finding Policies for Markov Decision Processes with a State Space of Exponential Size

Markov Decision Processes are a general framework for modeling decision making in situations with partly random outcomes. Even though it is possible to compute optimal policies for MDPs through dynamic programming or solving linear programs this becomes infeasible if the state space is huge.

In my master thesis I aim to study a specific application of MDPs, the so called car sharing problem, which has a state space of exponential size. The main question is whether it is still possible to compute good approximations of the optimal policy by restricting the search to a structurally simpler subclass of (e.g., oblivious) policies.

(Antrittsvortrag Masterarbeit)

Gürkan Özcan, Universität Paderborn

25. November 2009, 14:30 Uhr, F1.110

Kategorisierung, Optimierung und Evaluierung von Occlusion-Culling Verfahren der Computer Grafik

Aus der Praxis ist bekannt, dass verschiedene Occlusion-Culling Verfahren unterschiedlich effizient für verschiedene Graphikszenarien arbeiten.

Im Rahmen dieser Diplomarbeit sollen anhand von gezielter Literaturrecherche unterschiedliche Charakteristiken der verschiedenen Occlusion-Culling Verfahren ausgearbeitet werden. Im Anschluss sollen diese Verfahren dann nach den ausgearbeiteten Charakteristiken mit Bezug auf Ähnlichkeiten und Unterschiede klassifiziert werden.

In der darauf folgenden Phase soll anhand von Vergleichen zwischen einiger dieser kategorisierten Verfahren festgestellt werden, ob sich bestimmte Parameter für die Algorithmen herausfiltern lassen, die durch Anpassungen zur Optimierung dieser Verfahren beitragen. Hierbei wird die Effizienz der Algorithmen unter Betrachtung des „Betrachterstandpunktes“, von dem aus auf das Szenario geschaut wird, gemessen.

(Antrittsvortrag Diplomarbeit)

Kathleen Kunze

19. November 2009, 10:15-11:45 Uhr, F0.231

Game Design

Game Design - ein Vortrag über strukturierte Ideenfindung, handwerkliches Arbeitszeug in der Konzeption und Möglichkeiten der schriftlichen Ausarbeitung und Aufbereitung für die Umsetzung.

Matthias Giese, Universität Paderborn

18. November 2009, 14:00 Uhr, F1.110

Verbesserung der Klassifikationsentscheidung in der wissensbasierten Ablaufsteuerung

In der industriellen Fertigung kommt dem Scheduling, also dem zeitlichen Zuordnen von Aufträgen zu Maschinen, eine zentrale Bedeutung zu. Eine Klasse von Scheduling Problemen sind die Jobshopprobleme. Bei diesen werden alle Aufträge auf allen Maschinen in einer für jeden Auftrag individuell festglegten Reihenfolge bearbeitet. Dieses Problem ist NP schwer und deshalb werden in der Praxis nicht optimale Ansätze verwendet, um eine bestmögliche Lösung in akzeptabler Zeit zu erhalten.

In einem früheren Projekt wurde zu diesem Zweck eine wissensbasierte Ablaufsteuerung entworfen. Bei diesem Verfahren wird in einer ersten Phase eine Wissensbasis aus im Voraus optimal gelösten Jobshopproblemen aufgebaut. In der zweiten (zeitkritischen) Rescheduling-Phase während der Fertigung entscheidet nun ein Klassifzierer, wie die Aufträge den Maschinen zugeordnet werden. Dabei vergleicht der Klassifzierer die aktuelle Fertigungssituation mit jenen aus der Wissensbasis anhand von Situationsmerkmalen. Diese Situationsmerkmale sind je nach dem zu lösenden Problem von unterschiedlicher Relevanz.

Diese Abschlussarbeit soll einen Weg aufzeigen, wie durch eine automatisierte Auswahl der Situationsmerkmale, ein besserer Ablaufplan gefunden werden kann. Zusätzlich wird ein Lösungsansatz vorgestellt, um bei einer unsicheren Entscheidung des Klassifizierers, schlechte Entscheidungen zu vermeiden.

(Antrittsvortrag Diplomarbeit)

Benjamin Eikel, Universität Paderborn

11. November 2009, 14:00 Uhr, F1.110

Sichtbarkeitsunterteilungen für riesige 3D-Modelle

Um ein 3D-Modell auf der Grafikhardware eines Rechners effizient darzustellen, sucht man die Teile des 3D-Modells, die vom aktuellen Kamerastandpunkt aus sichtbar sind. Die Informationen über die Sichtbarkeit der Geometrie können entweder während der Darstellung des 3D-Modells immer wieder erneut bestimmt oder in einer Vorverarbeitungsphase gesammelt und gespeichert werden. Diese Informationen benötigen aufgrund der enormen Komplexität der Sichtbarkeit sehr viel Speicherplatz und übersteigen schnell die Leistung von Rechnersystemen.

Im Rahmen dieser Masterarbeit wurde untersucht, wie dennoch Sichtbarkeitsinformationen für riesige 3D-Modelle gewonnen und verarbeitet werden können. Es wurde ein Verfahren entworfen, das ein 3D-Modell aufbereitet, die Leistungsfähigkeit moderner Grafikhardware zur Bestimmung der Sichtbarkeitsinformationen ausnutzt und diese in einer Sichtbarkeitsunterteilung genannten Datenstruktur speichert. Die Sichtbarkeitsunterteilung enthält Zellen, die einem dreidimensionalen Volumen entsprechen, mit einer Liste der von dort aus sichtbaren Geometrie. Das Verfahren kann zuerst auf einem leistungsfähigen Rechner ausgeführt werden, um die Sichtbarkeitsunterteilung zu erstellen und sie anschließend auf ein vorgegebenes Speicherplatzbudget zu reduzieren. Mit dieser verkleinerten Sichtbarkeitsunterteilung ist die Echtzeitdarstellung von 3D-Modellen auch auf wenig leistungsfähiger Hardware möglich.

Der Vortrag gibt einen Überblick über die entwickelten Verfahren und präsentiert die erzielten Ergebnisse.

(Abschlussvortrag Masterarbeit)

Peter Pietrzyk, Universität Paderborn

4. November 2009, 14:00 Uhr, F1.110

A local, distributed constant-factor approximation algorithm for the dynamic facility location problem

We present a distributed, local solution to the facility location problem in general metrics under dynamics, where each node is able to act as a facility or a client. To decide which role it should take, each node keeps up a simple invariant in its local neighborhood. This guarantees a global O(1)-approximation when the invariant is kept at all nodes. Due to the dynamics, invariants can be violated. We show that recovering the invariants is bounded to a O(1)-neighborhood, takes O(log n) asynchronous rounds and affects each node at most twice per violation.

Clemens Koch, Universität Paderborn

28. Oktober 2009, 14:00 Uhr, F1.110

Paralleles Occlusion Culling durch approximierte Szenen-Objekte

Cluster bestehen oft aus vielen Knoten mit schwacher Grafikleistung und wenigen oder auch nur einem Knoten mit starker Grafikleistung. Das stellt parallele Rendersysteme, die mit aktuellen Grafiktechniken arbeiten wollen, vor das Problem, dass die zu bearbeitende Geometrie oft zu komplex für einen einzelnen, starken Knoten ist, aber die anderen Knoten nicht die gewünschten Techniken unterstützen. Im Rahmen dieser Diplomarbeit soll ein paralleles Rendersystem entwickelt werden, bei dem die Knoten mit schwacher Grafikleistung nur Occlusiontests für die Knoten mit starker Grafikleistung berechnen. Desweiteren wird ein Approximationsverfahren für 3D-Meshes entwickelt, welches eine Über- und Unterschätzung der Originalgeometrie berechnet. Diese Approximationen werden dann anstelle der üblichen Bounding Boxen bzw. der Originalgeometrie von den schwachen Knoten für die Occlusiontests verwendet. Hierbei soll die Güte der Approximation im Bezug auf Verwendung für Occlusion Culling evaluiert, und die Skalierbarkeit des paralellen Rendersystems analysiert werden.

(Antrittsvortrag Diplomarbeit)

Timo Wiesemann, Universität Paderborn

28. Oktober 2009, 14:30 Uhr, F1.110

Effektivitätsanalyse des c-Collision Protokolls als gewichteter Datenbalancierer in einem parallelen Out-of-Core Renderer

Durch die ständig wachsende Leistung von Grafikhardware ist es möglich immer größere 3D-Modelle darzustellen. Allerdin gs steigt mit der Kapazität der Grafikkarten auch der Anspruch den man an sie stellt: die Modelle werden ebenfalls größer. Es ist nicht möglich ein Modell, bestehend aus mehreren hundert Millionen Dreiecken, vollständig in einer Grafikk arte zu halten. Zur interaktiven Darstellung werden deshalb Out-Of-Core-Renderer eingesetzt, welche einen Teil der Szene durch Einsatz von Culling-Mechanismen verkleinern und Darstellen. Um interaktive Bildraten zu erreichen, wird das System in einem Cluster eingesetzt. Im Rahmen der Diplomarbeit soll ein solcher paralleler Out-Of-Core Renderer entwickelt werden, der das Modell einer Boeing 777(ca. 330.000.000 Dreiecke) darstellt. Dabei soll untersucht werden, wie gut sich ein Protokoll mit einfachen Regeln zur Vermeidung von Verklemmungen im Netzwerk eignet.

(Antrittsvortrag Diplomarbeit)

Jukka Suomela, University of Helsinki

22. Oktober 2009, 14:00 Uhr, F2.211

Dieser Vortrag findet im Rahmen des Oberseminar Codes und Kryptographie der Fachgruppe Blömer statt.

Stable matchings from the perspective of distributed algorithms

We study the stable marriage problem in a distributed setting. The communication network is a bipartite graph, with men on one side and women on the other side. Each pair of acceptable partners is connected by an edge, and each participant has chosen a linear order on the adjacent nodes, indicating the matching preferences.

The classical Gale-Shapley algorithm could be simulated in such a network to find a stable matching, i.e., a matching with no unstable edges (an unmatched edge is "unstable" if both endpoints prefer each other to their current partners, if any). However, it turns out that a stable matching can be highly unrobust: choices in one part of the network may depend on the preferences in distant parts of the network. This has two implications: (1) Any distributed algorithm that finds a stable matching must have the worst-case time complexity at least equal to the diameter of the network. (2) Recovering from minor changes in the input may require that all nodes in the network re-compute their outputs.

Our work shows that if we tolerate a tiny fraction of unstable edges (i.e., look for an "almost stable matching"), then a feasible solution can be found efficiently by a distributed algorithm, at least in the case of bounded-degree graphs. Indeed, it turns out that simply truncating a distributed simulation of the Gale-Shapley algorithm is sufficient. Among others, this shows that an almost stable matching can be maintained efficiently in a very large network that undergoes frequent changes.

This is joint work with Patrik Floréen, Petteri Kaski, and Valentin Polishchuk. Based on dx.doi.org/10.1007/s00453-009-9353-9

Projektgruppe Schlaue Schwärme, Universität Paderborn

21. Oktober 2009, 14:00 Uhr, F1.110

Abschlussvortrag Projektgruppe 'Schlaue Schwärme'

Die Projektgruppe "Schlaue Schwärme" untersuchte und entwickelte ein Jahr lang intensiv Algorithmen zur Schwarmbildung von Robotern und deren Bewegungen in mehrdimensionalen Räumen.

Ein Schwarm ist eine Aggregation gleichartiger Roboter im Raum, die ihre Bewegungen und Aktionen geschlossen wie eine Einheit ausführen. Dabei verfügen die Roboter typischerweise über keine globale Sicht auf die Welt, sondern müssen allein anhand lokal verfügbarer Informationen ihre Entscheidungen treffen.

In der ersten Hälfte der Projektgruppe wurde zum Zweck der experimentellen Untersuchung ein Simulator für Roboterschwärme entwickelt. Eine Vorstellung erfolgte im Halbzeit-Vortrag vor einem halben Jahr. Der nun stattfindende Abschlussvortrag widmet sich der zweiten Hälfte der Projektgruppe. In der zweiten Hälfte stand die Theorie der Roboterschwärme im Vordergrund. In dieser Zeit entstand eine Vielzahl an Ergebnissen aus höchst unterschiedlichen Bereichen der Schwarmtheorie. In diesem Vortrag werden nun drei Perlen aus den Bereichen der Konvergenzuntersuchungen, Kugelbildungen und Gitterkonstruktion vorgestellt.

Jukka Suomela, University of Helsinki

20. Oktober 2009, 14:15 Uhr, F2.211

Dieser Vortrag findet im Rahmen des Oberseminar Theoretische Informatik der Fachgruppe Scheideler statt.

Local approximation algorithms for vertex cover

I will present two distributed 2-approximation algorithms for the vertex cover problem. The algorithms are strictly local in the sense that the running time (number of synchronous communication rounds) does not depend on the size of the network, but only on the maximum node degree. The algorithms are deterministic; hence they can also be converted into efficient self-stabilising algorithms.

I will focus on some key ideas in the design of these distributed algorithms. In the derivation of a mathematical proof, a classical yet seemingly counter-intuitive proof technique is making the claim more general. At first sight, a stronger claim should be harder to prove, but it often happens that, e.g., strengthening the inductive hypothesis may simplify a proof by induction. The two distributed algorithms that I present illustrate a similar principle in the design of algorithms. The first algorithm was designed for a simpler problem, vertex cover in unweighted graphs, and hence we ruled out approaches that seemed to lead to weighted subproblems. The second algorithm was designed for a seemingly more difficult problem, vertex cover in weighted graphs; however, as a by-product we obtained a faster algorithm for the unweighted case.

This is joint work with Matti Åstrand, Patrik Floréen, Valentin Polishchuk, Joel Rybicki, and Jara Uitto. In part based on dx.doi.org/10.1007/978-3-642-04355-0_21

Summer Term 2009

Philipp Brandes, Universität Paderborn

30. September 2009, 14:00 Uhr, F1.110

Go-To-The-Middle-Strategie mit begrenzter Schrittweite zur Optimierung einer Kommunikationskette

Um eine aus vielen beweglichen Relays bestehende Kommunikationskette zwischen zwei Basisstationen zu optimieren, kann die Go-To-The-Middle-Strategie verwendet werden. Dabei handelt es sich um eine lokale Strategie, bei der die Roboter stets zum Mittelpunkt der Strecke zwischen ihren beiden Nachbarn laufen. Betrachten wir nun Relays mit einer Schrittweite d, die kleiner als ihr Sichtradius ist. D.h. sie können in einem Zeitschritt ggf. nicht mehr ihren Zielort erreichen. Die Veränderung in der Anzahl der Schritte soll für ausgewählte Konfigurationsklassen in Abhängigkeit von der Anzahl der Roboter und deren Schrittweite untersucht werden.

(Abschlussvortrag Bachelorarbeit)

Lucas Jillek, Universität Paderborn

30. September 2009, 14:30 Uhr, F1.110

Interaktive Exploration gravitativer Orbits

Anhand von verschiedenen Steuerungsmodellen werden Unterschiede am Flugverhalten von einem Raumschiff in einer Umgebung mit gravitativen Punkten gezeigt. Dabei werden sowohl zweidimensionale als auch dreidimensionale Umsetzungen betrachtet. Einige dieser Steuerungsmodelle sind bekannten Computerspielen nachempfunden. Dabei wurden die einzelnen Flugmodelle aber noch um die physikalischen Prinzipien der Trägheit und Gravitation ergänzt worden.

Die einzelnen Steuerungsmodelle werden daraufhin auf ihren Realismus und ihre Schwierigkeit untersucht. Des Weiteren wird das Lernverhalten verschiedener Testkandidaten bewertet.

(Abschlussvortrag Bachelorarbeit)

Kathrin Bujna, Universität Paderborn

30. September 2009, 15:00 Uhr, F1.110

Theoretische und experimentelle Analyse der Laufdistanz von Robotern bei der Bildung einer optimalen Kommunikationskette

Zwischen zwei festen Stationen wird mittels beweglicher Relays eine Kommunikationskette gebildet. Um diese Kette zu optimieren, existieren bereits einfache lokale Strategien, die von den Relays angewandt werden: die Go-to-the-Middle-Strategie und die Hopper-Strategie. Die Go-to-the-Middle-Strategie benötigt dazu eine Anzahl Zeitschritte, die quadratisch in der Anzahl der Relays ist, die Hopper-Strategie lediglich eine lineare Anzahl Schritte. Ziel ist es nun, zu untersuchen, wie es sich mit der Laufdistanz verhält. Insbesondere sollen Worst-Case-Szenarien gefunden werden, also Konfigurationsklassen, für die die Laufdistanz für die jeweilige Strategie möglichst groß wird.

(Abschlussvortrag Bachelorarbeit)

Martin Wistuba, Universität Paderborn

30. September 2009, 15:30 Uhr, F1.110

Kontinuierliche lokale Strategien zur Minimierung vorhandener Kommunikationsnetzwerke zwischen mobilen Robotern

Gegeben seien Mengen von stationären Robotern (Explorer) und mobilen Robotern (Relays) in der Ebene. Die Relays ermöglichen zu Anfang eine Kommunikation zwischen den Explorern, sollen ihre Anzahl jedoch unter Einhaltung dieser Eigenschaft verringern. Sie berechnen ihre Bewegungen lediglich aus den Positionen der Roboter in beschränkter Sichtweite.

Es werden zwei lokale Strategien vorgestellt, für die gezeigt wird, dass die Relays gegen die konvexe Hülle der Explorer konvergieren. Schranken für die Laufdistanz der Roboter in speziellen Szenarien werden gezeigt, weitere Szenarien werden experimentell untersucht.

(Abschlussvortrag Bachelorarbeit)

Patrick van Lück, Universität Paderborn

22. Juli 2009, 9:00 Uhr, F1.110

Adaption eines wissensbasierten Job Shop Schedulingverfahrens an eine Probleminstanz

Das Job Shop Schedulingproblem ist eine praxisrelevante, in unterschiedlichen Ausprägungen in verschiedenen Wirtschafts- und Forschungsbereichen auftretende Problemstellung. Es wird eine wissensbasierte Heuristik zur Lösung von Job Shop Problemen vorgestellt. Das Verfahren nutzt den Schedulingalgorithmus von Giffler und Thompson und kombiniert diesen Ansatz mit einem wissensbasierten Verfahren zur Jobauswahl. Der Schwerpunkt des Vortrags liegt auf einer Adaptionsfunktion, die es dem Verfahren ermöglicht sich an eine gegebene Probleminstanz anzupassen. Durch das Ausnutzen der speziellen Charakteristik der Probleminstanz kann die Lösungsgüte der vom Verfahren erzeugten Schedules verbessert werden.

(Abschlussvortrag Diplomarbeit)

Peter Isaak, Universität Paderborn

22. Juli 2009, 14:00 Uhr, F1.110

Kollektive Online Grapherzeugung aus geometrischen Szenen

In einem Gelände mit Hindernissen befinden sich k Roboter. Das Ziel ist der kollektive Aufbau eines Graphen, bei dem die Knoten Wegpunkten entsprechen, die im späteren Verlauf als Zwischenstationen dienen können, um durch das Gelände von einem Punkt A zu einem Punkt B zu navigieren. Dabei entspricht jeder Knoten des Graphen einer Zelle im Gelände. Die Zellen sollen disjunkt voneinander sein. Kanten verlaufen genau dann zwischen 2 Knoten, wenn die beiden entsprechenden Zellen benachbart sind, das heißt dass sie eine gemeinsame Grenze (keinen Punkt) haben. Das Ergebnis ist also ein planarer Graph. Es ist klar, daß das Gelände exploriert werden muss. Dies soll kollektiv geschehen, die Roboter müssen also untereinander das Explorationsproblem aufteilen, und das lediglich auf Basis von lokalem Wissen und der Möglichkeit der Kommunikation untereinander.

(Abschlussvortrag Diplomarbeit)

Thomas Janson, Universität Paderborn

22. Juli 2009, 14:30 Uhr, F1.110

Implementierung und Evaluation eines semantischen Peer-to-Peer Netzwerks

Peer-to-Peer Netzwerke werden benutzt um große Datenmengen und Ressourcen zwischen tausenden von Nutzern auszutauschen. Die meisten Netzwerke basieren auf verteilten Hashtabellen (DHT), wo sich die Suchmöglichkeit auf Punktanfragen beschränkt. Komplexere Suchen wie Bereichsanfragen stellen hier ein grundlegendes Problem dar. Mit 3nuts wird ein semantisches Peer-to-Peer Netzwerk vorgestellt, dass einen verteilten Suchbaum realisiert und dabei 3 Arten von Lokalität ermöglicht: Datenlokalität für Bereichsanfragen, Netzwerklokalität für schnelle Antwortzeiten sowie Interessenlokalität um gezielt bestimmte Anteile der Daten zu unterstützen. Zufallsnetzwerke bilden dabei mit ihrer robusten Struktur das Grundgerüst des Netzwerks. Darin wird die Pointer-Push&Pull-Operation zur Wartung und Aufrechterhaltung der zufälligen Struktur genutzt. Gewichtete verteilte Hashtabellen (Distributed Heterogeneous Hash Tables, DHHT) sorgen für die Lastbalancierung von Daten und Netzwerkverkehr auf die Peers. Das Netzwerk wurde prototypisch in der Programmiersprache Java implementiert und im Rahmen der Masterarbeit erweitert und verbessert. Anhand von Messungen im laufenden Betrieb des Netzwerks wird die Praxistauglichkeit untersucht.

(Abschlussvortrag Masterarbeit)

Christoforos Raptopoulos, Universität Paderborn

15. Juli 2009, 14:00 Uhr, F1.110

Colouring Non-Sparse Random Intersection Graph

An intersection graph of $n$ vertices assumes that each vertex is equipped with a subset of a global label set. Two vertices share an edge when their label sets intersect. Random Intersection Graphs (RIGs) consider label sets formed by the following experiment: each vertex, independently and uniformly, examines all the labels ($m$ in total) one by one. Each examination is independent and the vertex succeeds to put the label in her set with probability $p$. Such graphs nicely capture interactions in networks due to sharing of resources among nodes. We study here the problem of efficiently coloring (and of finding upper bounds to the chromatic number) of RIGs. We concentrate in a range of parameters not examined in the literature, namely: (a) $m = n^{\alpha}$ for $\alpha$ less than 1 (in this range, RIGs differ substantially from the Erd\"os-Renyi random graphs) and (b) the selection probability $p$ is quite high (e.g. at least $\frac{\ln2{n}}{m}$ in our algorithm) and disallows direct greedy colouring methods.

Bastian Degener, Universität Paderborn

8. Juli 2009, 14:00 Uhr, F1.110

Approximation of a geometric local robot assignment problem

We introduce a geometric multi-robot assignment problem. Robots positioned in a Euclidean space have to be assigned to treasures in such a way that their joint strength is sufficient to unearth a treasure with a given weight. The robots have a limited range and thus can only be assigned to treasures in their proximity. The objective is to unearth as many treasures as possible. We provide a distributed and local constant-factor approximation algorithm using constant-factor resource augmentation for the two-dimensional setting with O(log* n) communication rounds.

Barbara Kempkes, Universität Paderborn

1. Juli 2009, 14:00 Uhr, F1.110

Continuous local stategies for connecting an explorer with a base station

We envision a scenario with robots moving on a terrain represented by a plane. A mobile robot called explorer is connected by a communication chain to a stationary base camp. The chain is expected to pass communication messages between the explorer and the base camp. It is composed of simple, mobile robots called relays. We investigate strategies for organizing and maintaining the chain, so that the length of the chain is minimized and nevertheless the distance between neighboring relays in the chain remains less than the communication range. We analyze local and distributed strategies employed by restricted relays that have to base their decision (“Where should I go?”) solely on the relative positions of their neighbors in the chain. Existing strategies for this scenario have been proved to perform asymptotically optimal in a discrete time model counting the number of rounds. We propose a continuous model, and instead of the number of rounds we use the distance travelled to measure the quality of the algorithms. Since relays sometimes move very little in one round, this cost measure better represents the energy used and the time needed by the relays to rearrange. An already known strategy is the Go-To-The-Middle strategy, which performs badly in the discrete time model. We now present ongoing work on this strategy in the continuous setting.

Tobias Benninger, Universität Paderborn

24. Juni 2009, 14:00 Uhr, F1.110

Approximation geschlossener polygonaler Modelle auf Basis von achsenorientierten Quadern

In der Computergrafik wird in verschiedenen Gebieten immer häufiger mit hochdetailierten polygonalen 3D-Modellen gearbeitet, welche eine sehr hohe Anzahl von Polygonen aufweisen.

Da in vielen Situationen das Arbeiten mit diesen Modellen sehr rechenzeitaufwendig ist und oft nicht in einem akzeptablen Verhältnis zu den optischen Resultaten steht, kann es sinnvoll sein, je nach Situation und Anwendungszweck, auf eine im Detail reduzierte Version des ursprünglichen Modells - eine Approximation - zurückzugreifen.

Es wird ein heuristischer Algorithmus vorgestellt, welcher ein geschlossenes polygonales Modell, durch eine beliebig begrenzbare Anzahl an Quadern approximiert. Diese Quader sind stehts achsenparallel zum Koordinatensystem des Modells und können sich uneingeschränkt gegenseitig schneiden. Die Silhouette des Modells wird von der der Approximation aus jedem Betrachtungswinkel vollständig überdeckt.

(Abschlussvortrag Bachelorarbeit)

Benjamin Eikel, Universität Paderborn

10. Juni 2009, 14:00 Uhr, F1.110

Sichtbarkeitsunterteilungen für riesige 3D-Modelle

Eine Sichtbarkeitsunterteilung ist eine Datenstruktur, die den Raum der möglichen Betrachterpositionen in Sichtbarkeitszellen aufteilt und für diese die von dort aus sichtbaren Objekte speichert. Sie ist eine Approximation des Aspektgraphen, der aufgrund seiner enormen Laufzeit- und Speicherplatzkomplexität für den Praxiseinsatz untauglich ist. Ist eine solche Sichtbarkeitsunterteilung für ein 3D-Modell verfügbar, kann man damit die Darstellungsberechnung beschleunigen.

Diese Masterarbeit soll die Frage klären, ob sich Sichtbarkeitsunterteilungen auch für riesige 3D-Modelle eignen. Riesig sind hier Modelle, die aus mehreren zehn Millionen Dreiecken bestehen. Es wird ein Verfahren entwickelt, das eine Sichtbarkeitsunterteilung zu einem 3D-Modell mit Hilfe der Grafikhardware erstellt. Bei einer begrenzten Anzahl von zu erzeugenden Zellen (Speicherplatzbudget) soll die Darstellungszeit pro Zelle möglichst gering sein (Laufzeitbudget). Die Darstellung des 3D-Modells unter Verwendung der vorhandenen Sichtbarkeitsinformationen wird eine Echtzeitgarantie bei möglichen Qualitätsverlusten bieten. Die Möglichkeit zur Erweiterung zu einem Out-Of-Core-Verfahren, bei dem die verarbeiteten Modelle größer als der Hauptspeicher sind, soll bei der Entwicklung beachtet werden.

(Antrittsvortrag Masterarbeit)

Sascha Effert, Universität Paderborn

3. Juni 2009, 14:00 Uhr, F1.110

Redundant Share

Distributing data over different devices in a dynamic system is a well known problem designing storage virtualizations. The distribution strategy has to give each disk a fair part of the load according its size. Adding and removing disks has to be done without moving to much data in the system. Last but not not least the strategy have to be time and memory efficient while distributing the data. All this can be done by hash functions like Consistent Hashing and Share.

Redundant Share has been the first strategy which is also able to keep up all this demands distributing multi copies of each block over the disks. Especially for small sized environments with only some heterogeneous disks this is has been a big problem. In this talk the Redundant Share algorithm will be explained with a closer look at the computation of the probability values of disks used to distribute the data in a completely fair way.

Joachim Gehweiler, Universität Paderborn

27. Mai 2009, 14:00 Uhr, F1.110

The PUB-Web Library - A Development Snapshot

We present a web computing library (PUB-Web) in Java that allows to execute coupled, massively parallel algorithms in the bulk-synchronous (BSP) style on PCs distributed over the internet whose owners are willing to donate their unused computation power.

PUB-Web is realized as a peer-to-peer system and features migration and restoration of BSP processes executed on it. Using distributed heterogeneous hash tables (DHHT), our load balancer is able to fairly schedule the parallel processes and redistribute them with a minimal number of migrations when unpredictable changes in the continually fluctuating, donated computation power occur.

Finally, improved load balancing approaches, which are still under development, will be discussed.

Max Drees, Universität Paderborn

20. Mai 2009, 14:00 Uhr, F1.110

Kombinatorische Aspekte der Quantenlogik

Als zu Beginn des 20. Jahrhunderts unter dem Begriff der Quantenmechanik ein neuer Zweig in der Physik geschaffen wurde, bot die klassische bool´sche Logik nicht länger eine auszureichende mathematische Grundlage zum Beschreiben der neuen Theorien. Als Alternative stellten 1936 Birkhoff und Neumann ihre Vorstellung einer Quantenlogik vor, welche auf den abgeschlossenen Unterräumen eines Hilbertraums basiert. Diese Ideen werden kurz vorgestellt um dann zur eigentlichen Fragestellung zu kommen. Dabei geht es um die Anzahl von Formeln.

Für die bool´sche Logik ist bekannt, wieviele Formeln es über n Variablen gibt. Wie sieht es in der Quantenlogik aus? Wie wirkt sich die Dimension des Hilbertraums auf diese Frage aus? Ziel ist es, obere und untere Schranken für ein beliebiges n aufzustellen. Dazu wird geklärt, wie effizient bestimmt werden kann, ob zwei Formeln verschieden sind. Für n = 2 sind die beiden Schranken gleich, die exakte Anzahl kann also bestimmt werden. Die Erkenntnisse, welche dies ermöglichen, dienen gleichzeitig dazu, diese Schranken für beliebige n zu verbessern.

(Bachelorarbeit)

Christiane Schmidt, Technische Universität Braunschweig

13. Mai 2009, 14:00 Uhr, F1.110

Low-Cost Tours for Nearsighted Watchmen with Discrete Vision

Computing an optimal watchman tour, a minimum guard cover, or a minimum length milling tour (i.e., a closed path for a tool such that every point in the polygon is touched by the tool) are natural and classical geometric optimization problems. We consider a generalization of all three problems, motivated by applications from robotics: Given a (simple) polygon and a visibility range, find a closed path $P$ and a set of scan points {\cal S} $\subset P$, such that (i) every point of the polygon is within visibility range of a scan point; and (ii) path length plus weighted sum of scan number along the tour is minimized.

We demonstrate that this problem is NP-hard, even for the special cases of rectilinear polygons and $L_\infty$ scan range 1, and negligible small travel cost or negligible travel cost. Our main result is a 2.5-approximation for any linear combination of travel cost and scan cost.

Thomas Janson, Universität Paderborn

6. Mai 2009, 14:00 Uhr, F1.110

Implementierung und Evaluation eines semantischen Peer-to-Peer Netzwerks

Peer-to-Peer Netzwerke werden verwendet um große Datenmengen und Ressourcen zwi- schen tausenden von Nutzern auszutauschen. Da die meisten Netzwerke auf verteilten Hashtabellen (DHT) basieren und sich deshalb die Suchmöglichkeit auf Punktanfra- gen beschränkt, stellen komplexere Suchen wie Bereichsanfragen ein grundlegendes Problem dar. Mit 3nuts wurde ein semantisches Peer-to-Peer Netzwerk vorgestellt, dass einen verteilten Suchbaum realisiert und dabei 3 Arten von Lokalität ermöglicht: Da- tenlokalität für Bereichsanfragen, Netzwerklokalität für schnelle Antwortzeiten sowie Interessenlokalität um gezielt bestimmte Daten zu unterstützen. Zufalls- netzwerke bilden dabei mit ihrer robusten Struktur das Grundgerüst des Netzwerks. Darin wird die Pointer-Push&Pull-Operation zur Wartung und Aufrechterhaltung der zufälligen Struktur genutzt. Gewichtete verteilte Hashtabellen (Distributed Heteroge- neous Hash Tables, DHHT) sorgen für die Lastbalancierung von Daten und Netzwerk- verkehr auf die Peers. Das Netzwerk wurde prototypisch in der Programmiersprache Java implementiert und soll im Rahmen der Masterarbeit erweitert und verbessert werden.

(Antrittsvortrag Masterarbeit)

Claudius Jähn, Universität Paderborn

29. April 2009, 14:00 Uhr, F1.110

Data structure for runtime prediction of rendering algorithms

The running time of rendering algorithms in computer graphics depends heavily on the used hardware, but also on the given scene and the movement of the user inside this scene. Although the complexity of most algorithms is at most linear in the size of the scene, in practice it is essential to select an appropriate algorithm to achieve an acceptable frame rate. The choice of such an algorithm can be based on a parameterized model of the scene. In this talk I am going to present a data structure, which provides a valuated spatial partition of a scene, based on view-point dependent parameters. This data structure can be used for view-point dependent running time prediction of rendering algorithms.

Studierende der Projektgruppe Schlaue Schwärme, Universität Paderborn

15. April 2009, 14:00 Uhr, F1.110

Projektgruppe Schlaue Schwärme - 1. Halbzeit

Die Projektgruppe Schlaue Schwärme untersucht und entwickelt Algorithmen zur Schwarmbildung von Robotern und deren Bewegungen im 3-dimensionalen Raum.

Ein Schwarm ist eine Aggregation gleichartiger Roboter im Raum, die ihre Bewegungen und Aktionen geschlossen wie eine Einheit ausführen. Dabei verfügen sie typischerweise über keine globale Sicht auf die Welt, sondern müssen allein anhand lokal verfügbarer Informationen ihre Entscheidungen treffen.

In der ersten Hälfte der Projektgruppe wurde zum Zweck der experimentellen Untersuchung ein Simulator für Roboterschwärme entwickelt. Dieser soll anhand konkreter Beispiele vorgestellt werden. Ebenso geben wir einen Ausblick auf angegangene Fragestellungen und die nächsten Schritte in der zweiten Hälfte der Projektgruppe.

Florentin Neumann, Universität Paderborn

8. April 2009, 14:00 Uhr, F1.110

Der Hofstadter-Turing-Test als anwendungsorientiertes philosophisches Problem am Beispiel von Second Life

Alan Turing schlug 1950 das Imitation Game als Experiment zum Nachweis künstlicher Intelligenz bei Maschinen vor, welches die mehrdeutige Frage ersetzen sollte, ob Maschinen denken können. Die Standardinterpretation des Imitation Game ist heutzutage als Turing-Test bekannt. Kritiker des Tests bemängeln die anthropozentrische Sichtweise Turings, nach der sich Intelligenz durch die Fähigkeit zum menschlichen Dialog definieren lasse. Als Alternative zum Turing-Test wird der Hofstadter-Test eingeführt, welchem eine andere Auffassung von Intelligenz zugrunde liegt. Der Test wird einerseits theoretisch diskutiert und andererseits auf seine praktische Realisierbarkeit überprüft. Als Plattform zur Realisierung dient die virtuelle Realität von "Second Life", deren Konzepte zunächst kurz erläutert werden. Es folgt die Vorstellung der Implementierung einer primitiven, virtuellen Realität zweiter Ordnung in Second Life, welche als erste Phase der Implementierung des Hofstadter-Tests zu verstehen ist.

(Abschlussvortrag Bachelorarbeit)

Winter Term 2008 / 2009

Guido Schaumann, Universität Paderborn

31. März 2009, 14:00 Uhr, F1.110

Dynamische 3D-Wegeplanung für industrielle Fertigungsanlagen

Die Beförderung von Materialien zwischen Fertigungselementen ist von großer Bedeutung in der Simulation einer Industrieumgebung. Werden in einer Fabrikanlage etwa Portalkräne, Gabelstapler oder menschliche Mitarbeiter für den Materialfluss benötigt.Für die Simulation sind somit Transportzeit, Transportweg sowie eventuelle Kollisionen der Transporteure von Interesse. Der eigentlichen Logistik der Elemente liegt ein Motion Planning zugrunde. Bisherige Verfahren bestimmen Wege typischerweise mittels Algorithmen, welche auf vordefinierte, meist manuell erstellte Graphen zurückgreifen.

Im Gegensatz dazu ermöglicht das hier vorgestellte Verfahren Graphen für Roboter, wie Gabelstapler und Portalkräne, automatisch aus der Szenegeometrie zu generieren. Dazu wird die Szene zuerst in eine Voxelrepräsentation überführt auf der anschließend eine Fahrbahn ermittelt wird. Dabei werden Roboterausmaße und Steigungen, wie beispielsweise Rampen oder Bodenunebenheiten, mitberücksichtigt. Die einzelnen Fahrbahnknoten werden anschließend zu einer Datenstruktur namens Framed-Rectangles zusammengefasst. Diese ermöglicht einem angepassten, mit Dijkstra verwandten Verfahren eine zügige Wegberechnung.

(Abschlussvortrag Diplomarbeit)

Sabine Naewe, Universität Paderborn

18. Februar 2009, 14:00 Uhr, F1.110

Classifcation and Unifcation of Uniform Data Allocation Strategies

In meiner Diplomarbeit habe ich das allgemeine Szenario der Verteilung von Daten und Bearbeitung von Anfragen hierzu untersuchen. Hierfür wurden schon sehr viele Methoden und Strategien entwickelt, die unterschiedliche Voraussetzungen und Ansätze benutzen. Diese wurden nun aufgearbeitet und miteinander verglichen. Dabei wurden die verschiedenen Vorgehensweisen erläutert und die wichtigsten explizit vorgestellt. Danach wurden die vorgestellten Verfahren vereinheitlicht und daraus ein Protokoll zur schnellen Datenverwaltung und Anfragenbeantwortung entwickelt. Anschließend wurden möglichen Anwendungen und Erweiterungen dieser Verfahren dargestellt.

(Abschlussvortrag Diplomarbeit)

Tobias Gärtner, Universität des Saarlandes

11. Februar 2009, 14:00 Uhr, F1.110

Analytische Maschinen und Berechenbarkeit analytischer Funktionen

Thema des Vortrages sind Maschinenmodelle über den reellen und komplexen Zahlen und die Verwendung der Modelle zur Charakterisierung der Berechenbarkeit analytischer Funktionen.

Dazu werden analytische Maschinen betrachtet, ein von Hotz eingeführtes Maschinenmodell, das die von Blum, Shub und Smale definierten Maschinen um unendliche konvergente Berechnungen (analytische Berechnungen) erweitert. Es werden Resultate über die Eigenschaften analytisch berechenbarer Funktionen präsentiert und Verallgemeinerungen des Darstellungssatzes von Blum, Shub und Smale für reelle bzw. komplexe berechenbare Funktionen gegeben.

Das Maschinenmodell wird dann dazu benutzt, Berechenbarkeit holomorpher (komplex-analytischer) Funktionen zu charakterisieren. Für eine so definierte Klasse berechenbarer analytischer Funktionen wird gezeigt, daß sie unter grundlegenden Operationen wie Komposition und lokaler Umkehr abgeschlossen ist. Es wird ferner gezeigt, daß die analytische Fortsetzung einer auf einem Gebiet analytischen und berechenbaren Funktion ebenfalls wieder berechenbar ist.

Nicolas Heine, Universität Paderborn

14. Januar 2009, 14:00 Uhr, F1.110

Analyse von Graphtransformationen zur Aufrechterhaltung dynamischer Zufallsnetzwerke

In dieser Diplomarbeit haben wir uns mit Graphtransformationen für reguläre sowie irreguläre Graphen beschäftigt, die als Wartungsoperationen für Peer-to-Peer-Netzwerke eingesetzt werden können. Insbesondere haben wir dabei die 1-Flipper-Operation betrachtet, die bei häufigem Anwenden Zufallsgraphen erzeugt. Von diesen wissen wir, dass sie mit hoher Wahrscheinlichkeit Expandergraphen sind.

Im Mittelpunkt der Arbeit stand das Verhalten im dynamischen Fall, also beim Einfügen und Entfernen von Knoten. Wir haben verschiedene Einfüge- und Lösch-Operationen vorgestellt und ihre Eigenschaften miteinander verglichen. So konnten wir beweisen, dass die uniforme Einfüge-Operation Expandergraphen erzeugt.

Außerdem haben wir eine Simulationsumgebung entwickelt, mit der man die verschiedenen Graphtransformationen auf dynamischen Graphen simulieren kann. Die Expansion der Graphen schätzen wir dabei über die spektrale Lücke ab. Mit Hilfe des Jacobi-Davidson-Verfahrens und einigen weiteren Optimierungen haben wir eine Methode entwickelt, die spektrale Lücke großer Graphen effizient zu berechnen. Als wichtigstes Ergebnis konnten wir so eine Schranke für die Häufigkeit der 1-Flipper-Operation herleiten, die benötigt wird, um die Expansionseigenschaft in dynamischen Graphen aufrecht zu erhalten.

(Abschlussvortrag Diplomarbeit)

Peter Isaak, Universität Paderborn

14. Januar 2009, 14:30 Uhr, F1.110

Kollektive Online-Grapherzeugung aus geometrischen Szenen

Gegeben seien $n$ Roboter, die sich in einem unbekannten Gelände (Szene) mit Hindernissen befinden. Das Ziel ist die kollektive Erzeugung eines Graphen, dessen Knoten Wegpunkten im Gelände entsprechen, und zur Navigation durch das Gelände benutzt werden können. Benachbarte Knoten sind dabei durch Kanten verbunden.

Das Ziel ist die Entwicklung und Implementierung von Algorithmen, die den oben genannten Graphen kollektiv erzeugen, wobei kollektiv hier heißt, daß aufgebaute Graphen anderer Roboter bei der eigenen Lösung berücksichtigt werden. Es wird zwischen zeiteffizienten und energieeffizienten Algorithmen unterschieden. Als Grundlage werden Algorithmen verwendet, die zur Graphexploration dienen.

Zuerst werden als Eingabe Szenen mit City-Block-Form betrachtet, die initial nicht bekannt sind (online), um danach auf allgemeinere Gelände überzugehen. Bei der Verallgemeinerung wird zuerst die Offline-Variante betrachtet, angefangen mit $1$ und danach mit $n$ Robotern. Darauf aufbauend wird die Online-Variante betrachtet.

Die Implementierung erfolgt in Java. Als Basis wird der SmartTeams-Simulator benutzt.

(Antrittsvortrag Diplomarbeit)

Jan Mehler, Universität Paderborn

10. Dezember 2008, 14:00 Uhr, F1.110

Shawn: A Customizable Sensor Network Simulator

Algorithms for wireless sensor networks must be thoroughly tested prior to real-world deployments since sensor nodes do not offer convenient debugging interfaces and are typically inaccessible after deployment. Furthermore, successfully designing distributed algorithms requires a deep understanding of the complex dynamics of the wireless sensor network. Computer simulations are therefore an important tool for developing and debugging algorithms for wireless sensor networks.

In this talk I will briefly introduce the fundamentals of the sensor network simulator Shawn which is developed by Fischer et al. (University of Lübeck) and Fekete et al. (University of Braunschweig). Shawn is the main platform for simulations in the EU-project FRONTS - Foundations of Adaptive Networked Societies of Tiny Artefacts.

Michael Wand, Max-Planck-Institut für Informatik

26. November 2008, 14:00 Uhr, F1.110

Statistical Geometry Processing

In this talk, I will describe recent research efforts in my junior research group at MPI Informatik. We are currently examining the application of statistical data analysis and machine learning techniques to computer graphics applications, in particular to geometry processing problems. The talk will give a brief introduction to and motivation of the research area and then address a number of recent subprojects: 3D reconstruction, reconstruction of correspondences in animation scanner data, global deformable shape matching and partial symmetry detection in point clouds. I will show that these problems share a common problem structure and how different algorithmic approaches can be applied to tackle the specific variants.

Stephan Arens, University of Paderborn

12. November 2008, 14:00 Uhr, F1.110

Culling unter Verwendung hierarchischer Cluster

In 3D Anwendungen müssen häufig Szenen mit sehr vielen Dreiecken dargestellt werden, so dass Grafikhardware ihre Leistungsgrenzen erreicht. Es sind jedoch nur selten alle Dreiecke sichtbar, weshalb Culling Verfahren versuchen, möglichst effizient nur die sichtbaren Dreiecke für das Rendern auszuwählen. Um nicht jedes Dreieck einzeln auf seine Sichtbarkeit zu testen, werden Dreiecke in hierarchischen Datenstrukturen zusammengefasst.

In der Diplomarbeit wurde agglomeratives Clustering verwendet, um eine hierarchische Datenstruktur über die Dreiecke der Szene aufzubauen. Dadurch können in vielen Szenen die Ausmaße der Knoten des Hierarchiebaums sehr klein gehalten werden, so dass sie mit einer höheren Wahrscheinlichkeit vor dem Rendern durch das Culling aussortiert werden. Durch einen neuen Algorithmus wurde der quadratische Speicherplatzbedarf des agglomerativen Clusterings reduziert, so dass auch große Szenen verarbeitet werden können. Die Datenstruktur wurde hinsichtlich ihrer Güte mit dem Loose Octree verglichen.

(Abschlussvortrag Diplomarbeit)

Ralf Petring, University of Paderborn

12. November 2008, 14:30 Uhr, F1.110

Runtime prediction of Potentially Visible Sets

One goal of the project "algorithm engineering for problems in computergraphis" is to chose the best algorithm for displaying a 3D scene, depending on position and viewing direction of the observer, at runtime. Therefor it is necessary to make a running time prediction for different algorithms.

In Computergraphics there are many Algorithms which work well in practice. But most of these Algorithms come off badly in a theoretical analysis because of their worstcase running times. This talk is about Potentially Visible Sets, and how an analysis can be improved by making realistic asumptions on the 3D scene and allowing "small" display errors. With such modofications one can make runing time predictions for a given scene without doing the whole preprocessing

Martin Ziegler, University of Paderborn

5. November 2008, 14:00 Uhr, F1.110

Planar Visibility Counting

For a fixed virtual scene (=collection of simplices) S and given observer position p, how many elements of S are weakly visible (i.e. not fully occluded by others) from p? We explore the trade-off between query time and preprocessing space for these quantities in 2D: exactly, in the approximate deterministic, and in the probabilistic sense.

We deduce the EXISTENCE of an O(m2/n2) space data structure for S that, given p and time O(log n), allows to approximate the ratio of occluded segments up to arbitrary constant absolute error; here m denotes the size of the Visibility Graph---which may be quadratic, but typically is just linear in the size n of the scene S.

On the other hand, we present a data structure CONSTRUCTIBLE in O(n*log(n)+m2*polylog(n)/l) preprocessing time and space with similar approximation properties and query time O(l*log n), where l<n is an arbitrary parameter.

Miroslaw Korzeniowski, Wroclaw University of Technology

29. October 2008, 14:00 Uhr, F1.110

Degree 3 Suffices: A Large-Scale Overlay for P2P Networks

Most Peer-to-peer networks proposed up till now have either logarithmic degree and logarithmic dilation or constant degree and logarithmic dilation. In the latter case (which is optimal up to constant factors), the constant degree is achieved either in expectation or with high probability. We propose the first overlay network, skew CCC, in which the degree of any node is always 3 (minimum possible) and the dilation is logarithmic. Our approach can be viewed as a decentralized and distorted version of a Cube Connected Cycles network. Additionally, basic network operations such as join and leave take logarithmic time and are very simple to implement, which makes our construction viable in fields other than P2P networks. A very good example is Scatternet construction for Bluetooth devices, in which case it is crucial to keep the degree at most 7.

OPODIS'08, joint work with Marcin Bienkowski and André Brinkmann.

Oberseminar Blömer/Meyer auf der Heide & PC² Kolloquium

Tim Süß, University of Paderborn

22. Oktober 2008, 14:00 Uhr, F1.110

Reliefboards for Parallel Approximation

Reliefboarding is a parallel rendering method that allows to render complex composed three-dimensional scenes in hybrid PC-clusters. Only one single visualization-node is required to have a modern 3D-graphics adapter. In the presented approach it is not necessary that the other nodes in the PC-cluster provide fast 3D-acceleration. Instead of rendering whole frame-parts which have to be sent over the network, the weaker PC-cluster nodes only assist the visualization-node where the final picture will be displayed. The proposed method uses displacement mapping and a special kind of billboarding to reduce the complexity of the visible scene. These simplified representations are called Reliefboards. Weaker nodes in the pc-cluster are used to compute several maps asynchronically. These maps are used to reduce the load of rendering pipelines of the visualization-node. This way, the visualization node renders a kind of level-of-detail, which has been prepared by weaker pc-cluster nodes totally automatically without any additional information about the mesh and without any manipulation by a designer.

Guido Schaumann, University of Paderborn

15. Oktober 2008, 14:00 Uhr, F1.110

Dynamische 3D-Wegeplanung für industrielle Fertigungsanlagen

Die Beförderung von Material zwischen Fertigungselementen ist von großer Bedeutung in der Simulation einer Industrieumgebung. Werden in einer Fabrikanlage etwa Portalkräne, Gabelstapler oder menschliche Mitarbeiter für den Materialfluss benötigt, so sind für die Simulation Transportzeit, Transportweg sowie eventuelle Kollisionen der Transporteure von Interesse. Der eigentlichen Logistik der Elemente liegt ein Motion Planning zugrunde. Bisherige Verfahren bestimmen Wege mittels Algorithmen, welche auf vordefinierte, meist manuell erstellte Graphen zurückgreifen.

Im Gegensatz dazu ermöglicht es unser Verfahren Graphen für Roboter, wie Gabelstapler und Portalkräne, automatisch aus der Szenegeometrie zu generieren. Anschließend werden diese Graphen genutzt, um mittels geeigneten Algorithmen Wege zu berechnen. Spezielle Eigenschaften des Roboters (z.B. Ausmaße) werden dabei ebenso berücksichtigt, wie die dynamische Aufnahme von Gegenständen durch Roboter zur Laufzeit. Zusätzlich soll das dynamische Hinzufügen und Löschen von Hindernissen gestattet sein.

(Antrittsvortrag Diplomarbeit)

Patrick van Lück, University of Paderborn

15. Oktober 2008, 14:30 Uhr, F1.110

Simulationsbasierte Adaptionsfunktion für ein wissensbasiertes Verfahren zur Ablaufsteuerung in Job-Shop Umgebungen

Die Erzeugung von optimalen Schedules ist ein wichtiges, auch im Gebiet der industriellen Fertigung auftretendes Problem. Für zunehmend flexible und programmierbare Maschinen muss ein optimaler Materialfluss eines immer variantenreicheren Produktsortiments durch die Fertigungsstätte gefunden werden. Die Zeit zur Erzeugung eines guten Schedules ist dabei ein kritischer Faktor.

Eine Job-Shop Umgebung ist eine flexible Arbeitsumgebung, auf die viele reale Probleme abgebildet werden können. Für eine solche Job-Shop Umgebung wurde in einem früheren Projekt ein wissensbasiertes Schedulingverfahren entwickelt. In der Präsentation wird ein Ansatz vorgestellt, der auf dieser Grundlage ein Verfahren entwickelt, das Lösungen für dynamische Job- Shop Probleme berechnen kann und sich dabei zur Laufzeit auf die gegebene Problemstellung optimiert. Bei dynamischen Job-Shop Problemen sind einzuplanende Jobs und Bearbeitungszeiten nicht von Beginn an bekannt, sondern müssen während der Abarbeitung des Schedules behandelt werden. Durch Einsatz einer Simulation für den entstehenden Job-Shop Schedule können Daten gewonnen werden, mit denen schon zur Laufzeit Elemente des wissensbasierten Schedulers modifiziert werden. So kann sich das Verfahren an das konkrete zu bearbeitende Problem adaptieren und die Entscheidungen können für dieses Problem optimiert werden.

(Antrittsvortrag Diplomarbeit)

Summer Term 2008

Robin Delius, University of Paderborn

25. September 2008, 15:30 Uhr, F1.110

Simulationbegleitende Bausteinmodellierung im Materialflussimulator d³Fact

Aufgabe der Diplomarbeit war die Betrachtung von simulationsbegleitenden Modellierungsaufgaben und den daraus resultierenden Problemfeldern „Zustand einer Simulation“ & „Validität eines Modells“. In der Arbeit wurden Methoden erarbeitet, die den Anwender während der Modellierung bei seiner Aufgabe unterstützen, den Simulationszustand möglichst lange aufrecht zu erhalten. Weil in Abhängigkeit des Modellierungsprozesses diese Zustandstreue nicht automatisch überprüft werden kann, wurden insbesondere Unterstützungsfunktionen am Beispiel der Simulationsumgebung d3FACT entwickelt, die zur Laufzeit die dynamische Anpassung der Modellbausteine und damit des kompletten Simulationsmodells erlauben

(Abschlussvortrag Diplomarbeit)

Adrian Ogierman, University of Paderborn

23. September 2008, 13:00 Uhr, F1.110

Bewegungsdynamische 3D-Szenen und ihre Schwierigkeiten

Die 3D-Computergrafik ist in der heutigen Zeit allgegenwärtig. Seien es nun wissenschaftliche Simulationen, die Verwendung in der Industrie zur Planung und theoretischen Überprüfung von technischem Gerät (wie z.B. Automobilen oder Schiffen), medizinische Diagnostik, oder die Unterhaltung durch Spiele. Mit zunehmender Entwicklung steigen die Erwartungen an die Darstellung und Interaktion mit der virtuellen Umgebung. Letztere soll hochgradig komplex sein und möglichst realistisch dargestellt werden. Dies setzt jedoch ein fein granulares Model mit vielen Einzelobjekten und der Bewegung derer voraus.

An diesem Punkt setzt meine Diplomarbeit an. Untersucht wurde eine Tiefseeszene mit vielen tausend Objekten (Fische), bei der sich jedes davon über die gesamte Szene bewegen konnte. Zwei Hauptgebiete wurden genauer beleuchtet, das konservative/approximative Culling und die Verwaltung der Bewegung selbst. Untersucht wurden folgende Fragestellungen:

  1. Was passiert beim Einsatz von Cullingalgorithmen auf einem solchen Szenentyp?
  2. Kann man statische Cullingalgorithmen auf diesen Szenentyp adaptieren?
  3. Spielt der Szenenaufbau, wie z.B. die Objektbewegung und -position, eine Rolle beim Culling in diesem Szenentyp?
  4. Ist eine Verwaltung vieler tausend Objekte in Echtzeit möglich?
  5. Welche Wechselbeziehungen existieren zwischen Culling und einer möglichen Bewegungsverwaltung?
  6. Kann Culling als Unterstützung oder Vorarbeit für eine Bewegungsverwaltung dienen?
  7. Ist eine Reduktion des Berechnungsaufwands bei Simulation von flüssiger Objektbewegung möglich?

(Abschlussvortrag Diplomarbeit)

Peter Pietrzyk, University of Paderborn

23. September 2008, 13:30 Uhr, F1.110

Lokale Strategien zur Optimierung von Kommunikationsketten

Mit einem stationären BaseCamp und einem mobilen Explorer sind zwei Roboter mit einer beschränkten Kommunikationsreichweite gegeben. Bei dem Kommunikationskettenproblem geht es darum, die Kommunikation zwischen diesen beiden Robotern auch über große Entfernungen aufrechtzuerhalten. Dies wird mit weiteren mobilen Robotern, den so genannten Relays, ermöglicht. Sie müssen sich zwischen dem BaseCamp und dem Explorer so anordnen, dass sie das Kommunikationssignal trotz ihrer beschränkten Kommunikationsreichweite weiterleiten können. Die Relays werden nicht von einer globalen Instanz gesteuert, sondern müssen ihre Bewegung selbst anhand von lokalen Informationen festlegen. Dabei ist ihre Anzahl möglichst gering zu halten.

Im Zuge der Diplomarbeit wurden, auf bereits bekannten Strategien aufbauend, zwei weitere Strategien für die Steuerung der Relays entwickelt und ihre Eigenschaften in verschiedenen Szenarien untersucht.

(Abschlussvortrag Diplomarbeit)

Bastian Degener, University of Paderborn

23. September 2008, 14:00 Uhr, F1.110

Assignment problems in Smart Teams

We consider a set of robots that has to organize itself without outer control. The robots have a limited range and have to solve global task assignment problemsunder these hard localöity constraints. We discuss lower bounds and complexity aspects and present a constant factor approximation with constant factor resource augementation.

Projektgruppe ReMoSim, University of Paderborn

15. September 2008, 9:00 Uhr, F1.110

3D-Rendering und Modellierung von simulationsgesteuerten Fertigungssystemen

Die Projektgruppe „3D-Rendering und Modellierung von simulationsgesteuerten Fertigungssystemen“ hat in den vergangenen zwei Semestern einen 3D-Editor zur Bearbeitung von Fabrikszenen entwickelt. Dieser Editor ist mit einem Simulationskernel verbunden, der auf dem Fabrikmodell Materialflusssimulationen durchführt. Die 3D-Szene im Editor wird durch ein von der Projektgruppe entwickeltes Renderingverfahren berechnet. Das Rendering erfolgt parallel auf einem Rechnercluster und verwendet Detailstufen von Objekten (level of detail), welche durch den zuvor in der Fachgruppe entwickelten Randomized-Sample-Tree erstellt werden. Die Projektgruppe wird den Aufbau des Systems und der verwendeten Techniken sowie Ergebnisse präsentieren.

Swetlana Agne, University of Paderborn

10. September 2008, 14:00 Uhr, F1.110

Verteilte Graph-Exploration unter unvollständiger Information

Ziel dieser Arbeit ist der Entwurf und die Analyse von Online-Algorithmen zur Exploration von Bäumen mit einer Gruppe von autonomen mobilen Agenten unter Zuhilfenahme partieller Informationen über den Baum.

Ein Baum mit n Knoten soll von k Agenten (Robotern) durchsucht werden. Diese starten im Wurzelknoten und können sich entlang der Kanten von Knoten zu Knoten bewegen. Der Baum ist durchsucht, wenn jeder Knoten von mindestens einem Roboter besucht wurde. Jeder Roboter braucht eine Zeiteinheit und eine Energieeinheit um eine Kante abzuschreiten.

Bei den Kostenmaßen wird zwischen Zeit- und Energiemodel unterschieden. Im Zeitmodel sind die Kosten definiert als Maximum der Zeiten, die die einzelnen Roboter benötigen. Beim Energiemodell sind die Kosten das Maximum der Kanten, die die einzelnen Roboter durchlaufen.

Bei den partiellen Informationen über den Graphen handelt es sich unter anderem um den Grad des Baums, die Anzahl der Knoten sowie die Tiefe und Dichte des Baums. Derartige Information kann auch auf jeder Kante vorhanden sein; sie beschreibt dann die Eigenschaften des zugehörigen Teilbaums. Es soll untersucht werden, inwiefern diese Informationen die existierenden und in der Literatur beschriebenen Online-Algorithmen verbessern können. Außerdem sollen neue Algorithmen entwickelt und analysiert werden, die diese Informationen effizient nutzen.

(Abschlussvortrag Diplomarbeit)

Barbara Schneider, University of Paderborn

3. September 2008, 14:00 Uhr, F1.110

Local Strategies for connecting stations by small robotic networks

Consider a group of m stations with fixed positions in the plane and a group of n mobile robots, called relays, aiming at building a communication network between the stations consisting of as few relays as possible. We present two strategies for dimensionless, identical (anonymous), oblivious and disoriented relays with limited viewing radius for constructing such a network. These strategies resemble natural strategies of swarms for maintaining formations. A relay does not communicate with others, its decision - whether to remove itself from the system, or where to move - consists only of the relative positions of its neighbors within its viewing radius. We provide a theoretical analysis of worst-case scenarios and upper and lower bounds for the number of relays used by the strategies. In addition, we show some preliminary experimental results.

Daniel Warner, University of Paderborn

13. August 2008, 14:00 Uhr, F1.110

Modelle und Algorithmen für Online File Allocation

Die Arbeit "Modelle und Algorithmen für Online File Allocation" führt in Online-Probleme, Online-Algorithmen und kompetitive Analyse ein, stellt Modelle und Online-Algorithmen für das File Allocation Problem (FAP) vor und analysiert Online-Algorithmen für ein neues Modell d-FAP für das FAP.

Beim FAP werden Online-Algorithmen zur Verwaltung von Kopien einer Datei in einem Netzwerk betrachtet. Dabei werden Kopien einer Datei auf einer Teilmenge der Knoten abgelegt. Wir werden dann mit einer online eintreffenden Anfragesequenz von Lese- und Schreibanfragen auf Knoten des Netzwerks konfrontiert. Ein Online-Algorithmus für das FAP muss die Anfragen bedienen und darf nach jeder Anfrage neue Kopien auf Knoten anlegen oder vorhandene Kopien löschen, solange stets mindestens eine Kopie vorhanden ist. Das Bedienen einer Anfrage, Replikationen und Löschoperationen sind mit Kosten verbunden. Ziel ist es, die Kosten möglichst gering zu halten.

Im Vortrag präsentiere ich einen Teil meiner Ergebnisse bei der Untersuchung eines neuen modifizierten Modells d-FAP: Der Algorithmus "Count" für das FAP auf uniformen Netzwerken ist (3+1/d+1/(D*d))-kompetitiv auf uniformen Netzwerken im neuen Modell d-FAP, und die Kompetitivitätsanalyse ist optimal.

(Abschlussvortrag Studienarbeit)

Nicolas Heine, University of Paderborn

13. August 2008, 14:30 Uhr, F1.110

Analyse von Graphtransformationen zur Aufrechterhaltung dynamischer Zufallsnetzwerke

Mit der Flipper Operation wurde eine Graphtransformation zum Aufbau und zur Aufrechterhaltung d-regulärer Zufalls-Netzwerke vorgestellt. Wird diese Operation wiederholt auf ein Netzwerk angewendet, werden mit hoher Wahrscheinlichkeit Expander-Graphen erzeugt. Im Rahmen dieser Diplomarbeit soll die Flipper Operation (sowie Varianten dieser) auf dynamischen Netzwerken untersucht werden. Dabei sollen die Untersuchungen sowohl für reguläre also auch nicht reguläre Netzwerke durchgeführt werden.

Im Mittelpunkt der Analysen steht das Verhalten im dynamischen Fall, also beim Einfügen und Entfernen von Knoten. Hierbei werden insbesondere verschiedene Einfüge- und Löschstrategien untersucht und verglichen. Von besonderem Intresse ist hierbei die Frage, wie häufig die Wartungsoperation (Flipper Operation) angewendet werden muss, um die Expansionseigenschaft aufrecht zu halten.

(Antrittsvortrag Diplomarbeit)

Katharina Lürwer-Brüggemeier, University of Paderborn

13. August 2008, 15:00 Uhr, F1.110

On Faster Integer Calculations using Non-Arithmetic Primitives

The unit cost model is both convenient and largely realistic for describing integer decision algorithms over +,x . Additional operations like division with remainder or bitwise conjunction, although equally supported by computing hardware, may lead to a considerable drop in complexity. We show a variety of concrete problems to benefit from such non-arithmetic primitives by presenting and analyzing corresponding fast algorithms.

Sabine Naewe, University of Paderborn

6. August 2008, 14:00 Uhr, F1.110

Classification and Unification of Uniform Data Allocation Strategies

In meiner Diplomarbeit will ich das allgemeine Szenario der Verteilung von Daten und Bearbeitung von Anfragen hierzu untersuchen. Hierfür wurden schon sehr viele Methoden und Strategien entwickelt, die unterschiedliche Voraussetzungen und Ansätze benutzen. Diese sollen nun aufgearbeitet und miteinander verglichen werden. Es werden dabei die verschiedenen Vorgehensweisen erläutert und die wichtigsten explizit vorgestellt. Kriterien hierfür sind die Laufzeit der Datenverteilung bzw. der Anfragenbeantwortung sowie die Contention, welche die maximale Belastung eines Speichermoduls angibt. Anschließend sollen die möglichen Anwendungen dieser Verfahren dargestellt werden.

(Antrittsvortrag Diplomarbeit)

Peter Pietrzyk, University of Paderborn

6. August 2008, 14:30 Uhr, F1.110

Lokale Strategien zur Optimierung von Kommunikationsketten

Mit einem stationären BaseCamp und einem mobilen Explorer sind zwei Roboter mit einer beschränkten Kommunikationsreichweite gegeben. Bei dem Kommunikationskettenproblem geht es darum, die Kommunikation zwischen diesen beiden Robotern auch über große Entfernungen aufrechtzuerhalten. Dies wird mit weiteren mobilen Robotern, den so genannten Relays, ermöglicht. Sie müssen sich zwischen dem BaseCamp und dem Explorer so anordnen, dass sie das Kommunikationssignal trotz ihrer beschränkten Kommunikationsreichweite weiterleiten können. Die Relays werden nicht von einer globalen Instanz gesteuert, sondern müssen ihre Bewegung selbst anhand von lokalen Informationen festlegen. Dabei ist ihre Anzahl möglichst gering zu halten.

Für die Steuerung der Relays sind bereits einige Strategien entwickelt und ihre Eigenschaften untersucht worden. Ziel dieser Diplomarbeit ist es, diese Strategien miteinander zu vergleichen und Gründe für ihre unterschiedliche Güte zu finden.

(Antrittsvortrag Diplomarbeit)

Alexander Klaas, University of Paderborn

16. July 2008, 14:00 Uhr, F1.110

Dezentrale echtzeitfähige Steuerungsalgorithmen für ein fahrerloses Transportsystem

In einem fahrerlosen Transportsystem werden automatisch betriebene Fahrzeuge dazu verwendet, Güter oder Personen zu befördern. Die Navigation ist dabei eine wesentliche Aufgabe. Damit die Fahrzeuge autonom einen bestimmten Ort erreichen können, sind echtzeitfähige Steuerungsalgorithmen erforderlich. Aus Gründen wie Skalierbarkeit und Flexibilität ist die Motivation gegeben, dass die Fahrzeuge die dazu notwendigen Berechnungen dezentral ausführen. Für ein konkretes fahrerloses Transportsystem, dem Schienenverkehrsprojekt "`Neue Bahntechnik Paderborn"' der Universität Paderborn, werden in dieser Arbeit solche Algorithmen entwickelt und in Form eines Multiagentensystemes in dem Materialflusssimulator d3Fact implementiert. Simulationen demonstrieren ihre Leistungsfähigkeit.

(Abschlussvortrag Bachelorarbeit, zusammen mit der FG Dangelmaier)

Sabine Helwig, University of Erlangen

2. July 2008, 14:00 Uhr, F1.110

Theoretical Analysis of Initial Particle Swarm Behavior

Particle Swarm Optimization (PSO) is a population-based algorithm for solving (mainly continuous) optimization problems. In this talk, we will analyze particle trajectories in the first iteration. We will prove that in PSO algorithms particles are initialized very close to the boundary with overwhelming probability with respect to the search space dimensionality, and that many particles leave the search space at the beginning of the optimization process. These are first theoretical steps indicating the importance of bound handling for PSO. Experimental investigations confirm the theoretical results and demonstrate that bound handling has significant impact on particle swarm performance.

Peter Sanders, Universität Karlsruhe

27. Juni 2008, 14:15 Uhr, F0.530

Algorithm Libraries for Multi-core Processors

With the advent of ubiquitous multi-core processrs, every performance critical application needs to be parallelized. This enormous burden can be lightened if we have reuseable parallel versions of the most frequently used algorithms. We have started work in this direction by looking at one of the most heavily used algorithm libraries: the C++ STL. By now we have parallel versions of most STL functions and the library is part of the newest GCC distribution. The talk will focus on algorithmic issues and performance evaluation.

Dieser Oberseminarvortrag ist eine gemeinsame Veranstaltung mit dem Oberseminar der Arbeitsgruppe Monien

Vahan Mkrtchyan, Yerevan State University

25. Juni 2008, 14:00 Uhr, F1.110

Disjoint matchings in regular graphs

We will survey the authors' previous and current results that are related to the problem of constructing special maximum matchings in graphs. We will also discuss the naturally arising problem of disjoint matchings in graphs.

A considerable attention will be paid to the relationship between the theory of disjoint matchings developed by the author and his students, and prominent conjectures of Berge,Fulkerson, Fan-Raspaud and their generalization given by Paul Seymour. A number of approaches will be presented which might lead to the proof of these conjectures.

Michael Kortenjan, University of Paderborn

18. Juni 2008, 14:00 Uhr, F1.110

Clustering triangle centers as a step within SEC-Tree constructions

Size Equivalent Cluster Trees (SEC-Trees) have been developed in order to organize large 3 dimensional scenes as a preprocessing, allowing to render such scenes at a constant frame rate.

One step with the preprocessing is clustering centers of triangles using a variation of density based clustering algorithms. This algorithm starts by assigning an initial neighborhood to each triangle. Then, a flooding approach is applied, searching for other triangle centers contained within the smallest neighborhood at first and continuing by searching for their neighbor. This is reapeted until no more center points are found. If the number of points encountered is above some threshold, this set of points is considered to be a cluster, otherwise the neighborhood is increased.

The costs of this algorithm depend on the definition of initial neighborhoods and how neighborhoods are increased. Two examples will be given and analyzed in this talk.

Frank Hellweg, University of Paderborn

6. Juni2008, 14:00 Uhr, F2.211

Algorithmen für Clustering unter Bewegung für k-Means- und k-Median-Zielfunktionen

Diese Arbeit beschäftigt sich mit dem k-Means- und euklidischen k-Median-Clustering sich bewegender Objekte. Probleme, für die Bewegungsclustering relevant ist, treten zum Beispiel in Ad-hoc-Netzen auf.

Die Formalisierung des Problems ist analog zu der von Har-Peled für Radius-Clustering verwendeten [1] gewählt: Die zu clusternden Objekte sind n Punkte im R^d, deren Bewegung sich durch Polynome mit durch eine Konstante g beschränktem Grad darstellen lässt. Das Ziel ist, ein Clustering zu berechnen, das zu jedem Zeitpunkt einen Approximationsfaktor zum optimalen Clustering garantiert.

Das von Har-Peled vorgestellte Verfahren wird auf k-Means- und euklidisches k-Median-Clustering übertragen, und es werden O(1)-Approximationsalgorithmen angegeben, um Bewegungsclusterings zu berechnen. Diese Algorithmen sind polynomiell in n. Ein weiterer Algorithmus für das k-Median-Problem, der von linearer Bewegung der Punkte ausgeht, ist linear in n und polynomiell in k.

Zudem wird gezeigt, dass sich für k-Means- und euklidisches k-Median-Bewegungsclustering Kernmengen konstruieren lassen.

[1] Sariel Har-Peled: Clustering Motion, Discrete & Computational Geometry Volume 31, Issue 4 (03/2004), S. 545ff., 2004

(Abschlussvortrag Masterarbeit)

Swetlana Belikow, University of Paderborn

4. Juni 2008, 14:00 Uhr, F1.110

Verteilte Graph-Exploration unter unvollständiger Information

Ziel dieser Arbeit ist der Entwurf und die Analyse von Online-Algorithmen zur Exploration von Bäumen mit einer Gruppe von autonomen mobilen Agenten unter Zuhilfenahme partieller Informationen über den Baum. Ein Baum mit n Knoten soll von k Agenten (Robotern) durchsucht werden. Diese starten im Wurzelknoten und können sich entlang der Kanten von Knoten zu Knoten bewegen. Der Baum ist durchsucht, wenn jeder Knoten von mindestens einem Roboter besucht wurde. Jeder Roboter braucht eine Zeiteinheit und eine Energieeinheit um eine Kante abzuschreiten. Bei den Kostenmaßen wird zwischen Zeit- und Energiemodel unterschieden. Im Zeitmodel sind die Kosten definiert als Maximum der Zeiten, die die einzelnen Roboter benötigen. Beim Energiemodell sind die Kosten das Maximum der Kanten, die die einzelnen Roboter durchlaufen. Bei den partiellen Informationen über den Graphen handelt es sich unter anderem um den Grad des Baums, die Anzahl der Knoten sowie die Tiefe und Dichte des Baums. Derartige Information kann auch auf jeder Kante vorhanden sein; sie beschreibt dann die Eigenschaften des zugehörigen Teilbaums. Es soll untersucht werden, inwiefern diese Informationen die existierenden und in der Literatur beschriebenen Online-Algorithmen verbessern können. Außerdem sollen neue Algorithmen entwickelt und analysiert werden, die diese Informationen effizient nutzen.

(Antrittsvortrag Diplomarbeit)

Martin Ziegler, University of Paderborn

28. Mai 2008, 14:00 Uhr, F1.110

A Vision of Oblivious Culling

Die Computergrafik 'kennt' eine unueberschaubare Bandbreite von Cullingalgorithmen, die also, bei gegebener Szene und Standpunkt, verdeckte Objekte vor dem Rendering ausfiltern. Je nach Szene lohnt sich dies, oder eben auch nicht; bzw. man moechte den algorithmischen Aufwand fuer das Ausfiltern (von "sorgfaeltig" ueber "grosszuegig" bis "gar nicht") steuern: angepasst an die jeweilige Szene oder sogar den Standpunkt darin. Wir stellen als vielversprechendes Kriterium hierfuer das SICHTBARKEITSVERHAELTNIS vor: den Bruchteil der Objekte, die (zumindest teilweise) sichtbar sind; und diskutieren Ansatze, dies effizient zu berechnen.

Mario Mense, University of Paderborn

14. Mai 2008, 14:00 Uhr, F1.110

On Redundant and Fair Storage in Dynamic Heterogeneous Storage Systems

We sketch the problem of designing an adaptive hash table for redundant data storage in a system of storage devices with arbitrary capacities. Ideally, such a hash table should make sure that (a) a storage device with x% of the available capacity should get x% of the data, (b) the copies of each data item are distributed among the storage devices so that no two copies are stored at the same device, and (c) only a near-minimum amount of data replacements is necessary to preserve (a) and (b) under any change in the system.

As hash tables satisfying (a) and (c) are already known, we present the first hash table called SPREAD that can satisfy all three properties as long as this is in principle possible and which solves this problem for the first time. As long as (a) and (b) can in principle be satisfied, SPREAD preserves (a) for every storage device within a (1 ± epsilon) factor, with high probability, where epsilon>0 can be made arbitrarily small, guarantees (b) for every data item, and only needs a constant factor more data replacements than minimum possible in order to preserve (a) and (b).

Adrian Ogierman, University of Paderborn

7. Mai 2008, 14:00 Uhr, F1.110

Sichtbarkeitsprobleme bei massiver Bewegungsdynamik von Objekten in komplexen 3D-Szenen

Seit Beginn der 3D-Grafik existiert das Problem zu hoher Komplexität. Seitdem wird an Verfahren zur Komplexitätsreduktion gearbeitet. Eines dieser Verfahren ist Culling. Cullingverfahren versuchen möglichst nur sichtbare Objekte zur Grafikpipeline zu leiten.

Die gängigen Standardverfahren wurden für statische Szenen entwickelt, Abwandlungen für dynamische Szenen sind zumeist auf einen der beiden Punkte beschränkt:

  1. geringfügige Bewegungsdynamik der Objekte (zumeist durch Benutzer hervorgerufen)
  2. geringe Anzahl der Objekte

Existieren diese Beschränkungen nicht, so ist eine explizite Datenstruktur zur Bewegungsverwaltung von Nöten. In dieser Diplomarbeit sollen Verfahren abgewandelt und entwickelt werden um auch bei massiver Bewegungsdynamik einer extrem hohen Anzahl von Objekten effektives Culling sowie eine effiziente Objektverwaltung zu ermöglichen. Dabei soll möglichst weder das Rendering noch die Datenstrukturverwaltung soweit überwiegen, dass eine Echtzeitnavigation nicht mehr möglich ist

(Antrittsvortrag Diplomarbeit)

Stephan Arens, University of Paderborn

7. Mai 2008, 14:30 Uhr, F1.110

Culling unter Verwendung hierarchischer Cluster

In 3D Anwendungen müssen häufig Szenen mit sehr vielen Dreiecken dargestellt werden, so dass Grafikhardware ihre Leistungsgrenzen erreicht. Es sind jedoch nur selten alle Dreiecke sichtbar, weshalb Culling Verfahren versuchen, möglichst effizient nur die sichtbaren Dreiecke für das Rendern auszuwählen. Um nicht jedes Dreieck einzeln auf seine Sichtbarkeit zu testen, werden Dreiecke in hierarchischen Datenstrukturen zusammengefasst, z.B. in einem Octree.

Es soll nun durch agglomeratives Clustering eine hierarchische Datenstruktur über die Dreiecke der Szene aufgebaut werden. Durch ein passendes Distanzmaß wird erreicht, dass die Knoten des Hierarchiebaums möglichst kleine Ausmaße besitzen und floglich mit einer höheren Wahrscheinlichkeit vor dem Rendern durch das Culling aussortiert werden, als es bei einem Quadtree der Fall ist. Besondere Schwierigkeiten entstehen durch die sehr große Menge an Dreiecken, die ein neues Vorgehen für das Clustern erfordern.

(Antrittsvortrag Diplomarbeit)

Christoph Weddemann, University of Paderborn

2. Mai 2008, 14:00 Uhr, F1.310

k-Center-Clustering für geometrische Datenströme

Wer kennt das nicht: „Es ist Samstagabend, die Partylust hat nahezu ihren Höchstwert erreicht, doch unglücklicherweise herrscht in der Universitätsstadt Paderborn die Vorherrschaft der schlechten Feiern. Leider liegt die nächste, akzeptable Alternative zur Abendgestaltung mindestens zwei Stunden Autofahrt entfernt“. Hier stellt sich doch die Frage, warum alle guten Discotheken immer so unendlich weit auswärtig liegen müssen.

Veranschaulicht man eine geometrische Punktmenge als Städte eines Landes, wobei die Distanz zwischen Städten die Zeit für den Weg repräsentiert. Nun möchte man k Partylocations errichten, so dass die maximale Anreisezeit minimal ist. Dieses Optimierungsproblem wird formaler als k-Center Clustering bezeichnet.

Im Rahmen dieser Studienarbeit wird die Funktionsweise eines Datenstrom-Algorithmus vorgestellt, der für eine unspeicherbar große Menge von Eingabepunkten eine approximierte Lösung für das NP-harte k-Center-Clustering-Problem bestimmt. Durch das Arbeiten auf einer approximierten Punktemenge, der ursprünglichen Eingabesequenz, wird eine Laufzeit erzielt, die, unter bestimmten Kriterien, nur noch linear von der Anzahl der Eingabepunkte abhängt. Der Schwerpunkt dieses Vortrages zielt vielmehr auf das Verständnis der Arbeitsweise, des vorgestellten Algorithmus, und weniger auf eine detaillierte Analyse.

(Studienarbeit)

Sven Kurras, University of Paderborn

23. April 2008, 14:00 Uhr, F1.110

Die Grafikkarte als Parallelcomputer

Grakkarten nutzen bereits seit geraumer Zeit Parallelverarbeitung zur Durchsatzsteigerung. Zunehmend wurde deren Rechenpower auch für nicht-grasche Probleme genutzt, als Manko blieben aber allzu spezialisierte und kreative Implementierungen. Aktuelle Modelle von Nvidia ermöglichen hingegen mittels CUDA nahezu uneingeschränktes Programmieren in C. Zudem entspricht die Architektur der GPU weitgehend dem Modell einer CRCW-LPRAM. Dementsprechend intensiv wird derzeit über Anwendungsbereiche dieses Parallelcomputers nachgedacht - erstmalig auch seitens der Hersteller, welche mit einem Verbund dieser GPUs den HPC-Markt betreten. Wie also steht es um die praktische Relevanz in nicht-graschen Anwendungen? Durch Implementierung ausgewählter Algorithmen werden Stärken und Schwächen dieses Systems untersucht.

(Abschlussvortrag Studienarbeit)

Tobias Koch, University of Paderborn

23. April 2008, 14:30 Uhr, F1.110

Visibility Culling und mehrstufiges Caching von virtuellen Szenen auf mobilen Geräten

Die Darstellung großer virtueller Szenen verursacht aufgrund des erforderlichen Datenvolumens eine Reihe von Problemen. Einerseits überfordert die Vielzahl von Polygonen schnell die Rechenleistung einer Grafikkarte, andererseits reicht auch der lokale Speicher vieler Rechner nicht aus, um die gesamte Umgebung vorrätig zu halten. In wesentlich deutlicherem Maße trifft dies auch auf mobile Geräte zu.

Im Falle geschlossener Szenen mit eingeschränkter Sichtweite, wie etwa bei Gebäuden, kann beiden Problemen durch die Verwendung von Visibility-Culling-Verfahren begegnet werden. Im Rahmen dieser Diplomarbeit werden hierzu die potenziell sichtbaren Polygonmengen (engl.: Potentially Visible Sets, kurz: PVS) berechnet. Durch die Unterteilung der virtuellen Umgebung in Zellen, deren Grenzen Teile der restlichen Szene verdecken und somit als Occluder fungieren, ist es möglich, sichtbare und unsichtbare Bereiche zu identifizieren. Hiermit kann eine Auswahl der erforderlichen Daten erfolgen und sowohl die darzustellende Polygonanzahl als auch das zu speichernde Datenvolumen mitunter drastisch reduziert werden.

Vorgestellt wird ein Verfahren, um das erforderliche Transfervolumen bei einer Bewegung durch eine im Netzwerk gespeicherte Szene zu verringern. Untersucht und bewertet werden verschiedene Prefetching- und Caching-Strategien, welche die Daten im eingeschränkten lokalen Speicher verwalten. Die Ergebnisse geben Aufschluss über die erforderlichen Bandbreiten, Prefetching-Zeitpunkte sowie Verdrängungsalgorithmen, um eine möglichst fehlerfreie Darstellung der virtuellen Umgebung zu erlauben.

(Abschlussvortrag Diplomarbeit)

Alexander Spot, University of Paderborn

16. April 2008, 14:00 Uhr, F1.110

Analyse von Algorithmen zur ganzzahligen Polynomauswertung

Mittels Bshoutys Algorithmus ist die Auswertung von ganzzahligen Polynomen so möglich, dass die dafür aufgewandten arithmetischen Operationen sich in konstanter Zeit durchführen lassen. Dabei spielt es keine Rolle wie gross die in den einzelnen Zwischenschritten erzeugten Ergebnisse werden. Das ist aber mit den heutigen Rechner nicht umsetzbar. Denn dort steht nur eine beschränkte Rechengenauigkeit zur Verfügung. Das führt zur der Fragestellung, die in dieser Studienarbeit beantwortet wird: Ist Bshoutys Algorithmus mittlerweile praktikabel einsetzbar? Die Beantwortung dieser Frage erfolgt durch Vergleich mit anderen Verfahren zur Auswertung von ganzzahligen Polynomen, konkret: Bshoutys Algorithmus, Horner Schemata, Look-Up Tabellen.

(Abschlussvortrag Studienarbeit)

Winter Term 2007 / 2008

Henning Haeske, University of Paderborn

26. März 2008, 14:00 Uhr, F1.310

Clustering von Langzeit-Kernelevent-Messungung anhand von Festplattenzugriffen zur Hebung von Energieeinparungpotentialen

Im Rahmen einer Foschungsgruppe der Rutgers University of New Jersey für Energiesparmaßnahmen im Bereich der Compiler-Technologie wurde u.a. einem Bibliothek geschrieben, die Festplattenzugriffe mehrer gleichzeitig laufender Anwendungen synchronisiert.

Um diese Bibliothek dem Alltagsbetrieb auszusetzen, wurde diese in die Anwendungen eingebaut, die gemeinsam den Löwenanteil der Festplattenzugriffe ausmachen.

Zur Identifizierung dieser Anwendungen wurden alle festplattenbezogenen Kernelereignisse über lange Zeiträume mitgeschnitten und die enormen Datenmengen wurden dann in Fingerabdrücke bzw. SimPoints abgebildet, die dann über einen angepassten kMeans-Algorithmus gruppiert («geclustert») wurden.

Jeder dieser Cluster repräsentiert einen bestimmten Zustand von laufenden Anwendungen, so dass er als endlicher Automat die Zustände des Systems über die Messzeit hinweg beschreibt. Der Schwerpunkt des am häufigsten auftretenden Clusters enthält die Anwendungen, die am häufigsten gemeinsam Festplattenzugriffe auslösen.

Katharina Lürwer-Brüggemeier, University of Paderborn

26. März 2008, 14:30 Uhr, F1.310

Berechnungen mit der ganzzahligen Division

In diesem Vortrag werden zunächst einige Algorithmen, bei denen als Operationen nicht nur algebraische Operationen {+,-,*,*_c}, sondern auch die ganzzahlige Division oder auch noch weitere nicht-arithmetische Operationen z.B. das binäre Und oder der ggT vorkommen und die über diese Operationen nur wenige Schritte benötigen, vorgestellt. Im Anschluss werden für verschiedene Teilmengen S der Operationsmenge {+,-,*,*_c,div,div_c}die Sprachfamilien , die durch S-Berechnungsbäume erkannt werden, charakterisiert und daraus resultierende Separationsresultate vorgestellt.

Aus den Charakterisierungen für die verschiedenen Teilmengen werden untere Schranken abgeleitet.

Silke Harperscheidt, University of Paderborn

5. März 2008, 14:00 Uhr, FU.116 DISCO

Adaptive Partitionierungen von 3D-Szenen für paralleles Rendern

Die Visualisierung von grafischen Objekten, Architekturen und Landschaften sowie die grafische Simulation physikalischer und technischer Prozesse haben in den letzten Jahren immer mehr an Bedeutung gewonnen. Heutige CAD-Systeme sind in der Lage, realistisch wirkende grafische Objekte mit hohem Detailgrad zu modellieren. Aufgrund dieser detaillierten Modellierung der Objekte können grafische Szenen aus Millionen von Polygonen bestehen und dadurch sehr groß werden. Eine einzelne GPU kann oft nicht ohne hohen Rechenaufwand und niedrigen Frameraten diese Szenen darstellen. Damit dennoch eine realistische und interaktive Darstellung dieser 3D-Szenen erreicht wird, werden parallele Rendering Verfahren genutzt, die aus mehreren GPUs bestehen und diese Szenen in Echtzeit parallel rendern und visualisieren. Für die Beschleunigung der Darstellung dieser Szenen gibt es geometrische Datenstrukturen wie den Octree und den KD-Tree, die die Gesamtkomplexität dieser Szenen reduzieren und verwalten. Bei beiden Datenstrukturen besteht allerdings die Gefahr der redundanten Speicherung von Polygondaten der Szene, verursacht durch das Splitten der Szene an Polygondichten. Die Konsequenz ist ein zusätzlicher Rechenaufwand aufgrund der erhöhten Polygonanzahl, die von der Grafikkarte verarbeitet werden muß. In dieser Diplomarbeit wird eine geometrische Datenstruktur vorgestellt, die rekursiv anhand der größten Polygondichte Indikatoren für die Partitionierung von großen, detailreichen 3D-Szenen ermittelt. Anhand dieser Indikatoren werden Zellen nach der Partitionierung zu einem Cluster hinzugefügt, in dem redundant auftretende Polygone aufgehoben werden. Diese Datenstruktur kann nach Erstellung für weitere Verfahren zur Verfügung gestellt werden, wie zum Beispiel Culling , Ermittlung von Polygonverdeckungen oder die Zuordnung zu einem parallelen Renderingsystem.

Peter Paluch, University of Paderborn

5. März 2008, 14:30 Uhr, FU.116 DISCO

Caching auf Grafikhardware

Viele Rendering-Verfahren verwalten ihre Geometriedaten im Hauptspeicher. Um diese Daten zu rendern, müssen sie aus dem Hauptspeicher gelesen und zur Grafikkarte übertragen werden. Die Übertragung kostet viel Zeit. Um diesen Zeitaufwand zu minimieren, sollen die Geometriedaten auf dem Grafikspeicher gecached werden. Ziel dieser Diplomarbeit, war die Entwicklung eines Rendering-Systems, daß einen Caching Mechanismus benutzt, der auf dem Grafikspeicher opperiert. Das Caching sollte entweder über ein Prefetching oder über eine statistische Auswertung erfolgen. Dabei sollte folgende Frage beantwortet werden : "Was für ein Geschwindigkeitsvorteil lässt sich gegenüber herkömmlichen Verfahren erzielen, die den oben beschriebenen Mechanismus nicht verwenden". Die Beantwortung dieser Frage erfolgte durch Messungen. Die Ergebnisse werden im Vortrag präsentiert.

Mohammad Abam, University of Aahrus

28. Februar 2008, 13:00 Uhr, F2.211
Mittagsseminar: Codes und Kryptographie

Region-fault tolerant geometric spanners

We introduce the concept of region-fault tolerant spanners for planar point sets, and prove the existence of region-fault tolerant spanners of small size. For a geometric graph *G* on a point set *P* and a region *F*, we define *G* ⊖ *F* to be what remains of *G* after the vertices and edges of * G* intersecting *F* have been removed. A *C-fault tolerant t-spanner* is a geometric graph *G* on *P* such that for any convex region *F*, the graph *G * ⊖ *F* is a *t*-spanner for *Gc*(*P*)⊖*F*, where *Gc*(*P*) is the complete geometric graph on *P*. We prove that any set *P* of *n* points admits a *C*-fault tolerant (1 + ε)-spanner of size *O*(*n* log *n*), for any constant ε > 0; if adding Steiner points is allowed then the size of the spanner reduces to *O*(*n*), and for several special cases we show how to obtain region-fault tolerant spanners of *O*(*n*) size without using Steiner points. We also consider *fault-tolerant geodesic t-spanners:* this is a variant where, for any disk *D*, the distance in *G* ⊖ *D* between any two points *u*, *v* ε *P \ D* is at most *t* times the geodesic distance between *u* and *v* in R2 \ *D*. We prove that for any *P* we can add *O*(*n*) Steiner points to obtain a fault-tolerant geodesic (1 + ε)-spanner of size *O*(*n*).

Mohammad Abam, University of Aahrus

27. Februar 2008, 14:00 Uhr, F0.530

Kinetic kd-Trees and Longest-Side kd-Trees

We propose a simple variant of kd-trees, called rank-based kd-trees, for sets of points in Rd. We show that a rank-based kd-tree, like an ordinary kd-tree, supports range search queries in O(n1−1/d + k) time, where k is the output size. The main advantage of rank-based kd-trees is that they can be efficiently kinetized: the KDS processes O(n2) events in the worst case, assuming that the points follow constant-degree algebraic trajectories, each event can be handled in O(log n) time, and each point is involved in O(1) certificates. We also propose a variant of longest-side kd-trees, called rank-based longest-side kd-trees (RBLS kd-trees, for short), for sets of points in R2. RBLS kd-trees can be kinetized efficiently as well and like longest-side kd-trees, RBLS kdtrees support nearest-neighbor, farthest-neighbor, and approximate range search queries in O((1/ε) log2 n) time. The KDS processes O(n3 log n) events in the worst case, assuming that the points follow constant-degree algebraic trajectories; each event can be handled in O(log2 n) time, and each point is involved in O(log n) certificates.

Claudius Jähn, University of Paderborn

20. Februar 2008, 14:00 Uhr, F1.110

Parameterization of Graphic Hardware

The properties of graphic hardware have a major impact on the behavior of computer graphic algorithms. To handle these (sometimes very complex) effects, we are developing a benchmark system to identify and quantify important parameters of the hardware, which can be used in the analysis and development of algorithms. In this talk I will present the recent progress in the development of this system and draw conclusions related to recent test results. I will elaborate on the possibility to give a lower bound for the reasonable number of polygons assigned to an octree node based on hardware dependent parameters. Such a lower bound allows for predictable usage of the parallelism of CPU and GPU.

Christoforos Raptopoulos, University of Patras

13. Februar 2008, 14:00 Uhr, F1.110

Expander Properties and the Cover Time of Random Intersection Graphs

Let M be a universe of m elements called labels and let V be a set of n vertices. Suppose that to each vertex of V we assign independently a random subset of M by selecting independently each label with probability p. By drawing an edge between two vertices if and only if their assigned sets of labels intersect, we get an instance of the random intersection graphs model Gn,m,p.

This new random graphs model, introduced by Karo´nski, Scheinerman and Singer-Cohen [2] and Singer-Cohen [6] in the 90’s, has attracted a great amount of interest for the last 15 years. Apart from the combinatorial beaty of the model, this interest is also due to the fact that the edge appearance rule makes random intesection graphs a suitable model to describe many practical situations such as distributed resource allocation. For example suppose that each communication agent (e.g. a wireless node) gets access only to some ports (statistically) out of a possible set of communication ports. When another agent also selects a communication port, then a communication link is implicitly established and this gives rise to conflict graphs that look like random intersection graphs. Furthermore, the Gn,m,p model is very general. Indeed, for some ranges of the parameters $m, p$ ($m = n^{\alpha}, \alpha > 6$) the spaces Gn,m,p and Gn,ˆp of Bernoulli random graphs are equivalent (as proved by Fill, Sheinerman and Singer-Cohen [1], showing that in this range, the total variation distance between the graph random variables has limit 0).

This talk is based on the results of Nikoletseas, Raptopoulos and Spirakis in [3]. We present important combinatorial and algorithmic properties of Gn,m,p random intersection graphs. In particular, we prove that with high probability (a) random intersection graphs are expanders, (b) random walks on such graphs are “rapidly mixing” (in particular they mix in logarithmic time) and (c) the cover time of random walks on such graphs is optimal (i.e. it is £(n log n)). All results are proved for p very close to the connectivity threshold and for the interesting, non-trivial range where random intersection graphs differ from classical Bernoulli random graphs (i.e. $m = n^{\alpha}, \alpha < 1$). Other important properties (independence, hamiltonicity) have been investigated in [4, 5].

(joint work with S. Nikoletseas and P.G. Spirakis)

[1] J.A. Fill, E.R. Sheinerman and K.B. Singer-Cohen, “Random Intersection Graphs when m = !(n): An Equivalence Theorem Relating the Evolution of the G(n,m, p) and G(n, p) models”, citeseer.nj.nec.com/fill98random.html
[2] M. Karo´nski, E.R. Scheinerman and K.B. Singer-Cohen, “On Random Intersection Graphs: The Subgraph Problem”, Combinatorics, Probability and Computing journal 8, pp. 131-159, (1999).
[3] S. Nikoletseas, C. Raptopoulos and P.G. Spirakis, “Expander Properties and the Cover Time of Symmetric Random Intersection Graphs”, in the Proceedings of the 32nd International Symposium on Mathematical Foun- dations of Computer Science (MFCS), (2007).
[4] S. Nikoletseas, C. Raptopoulos and P.G. Spirakis, “The Existence and Efficient Construction of Large Independent Sets in General Random Intersection Graphs”, in the Proceedings of the 31st International Colloquium on Automata, Languages and Programming (ICALP), pp. 1029-1040, (2004).
[5] C. Raptopoulos and P.G. Spirakis, “Simple and Efficient Greedy Algorithms for Hamilton Cycles in Random Intersection Graphs”, in the Proceedings of the 16th International Symposium on Algorithms and Computation (ISAAC), pp. 493-504, (2005).
[6] K.B. Singer-Cohen, “Random Intersection Graphs”, PhD thesis, John Hop- kins University, (1995).

Bastian Degener, University of Paderborn

6. Februar 2008, 14:00 Uhr, F1.110

The kinetic facility location problem

The facility problem is classical combinatorial problem in computer science. We consider a variant, where the facilities have to be chosen from a set of points in Euclidean space. Furthermore the points move along continuous trajectories. We present a so called kinetic data structure, which maintains efficiently a constant factor approximation.

Sascha Effert, University of Paderborn

23. Januar 2008, 14:00 Uhr, F1.110

"Redundant Share" - Dynamic and Redundant Data Placement

Dynamic Hash Tables (DHTs) are a common method to distribute data in p2p networks. There are a number of algorithms to solve this task for homogeneous and heterogeneous peers, which are able to efficiently use the available capacity. It will be shown that these protocols are not able to do so if more than a single copy of each data block has to be stored. Redundant Share has been the first algorithm efficiently solving this task for an arbitrary number of disks without wasting capacity. Redundant Share has a runtime of O(1) for each data block and has a competitive ratio of O(ln n) for the insertion or removal of peers.

In this talk we will introduce the algorithm, its analysis, and we will give an overview about new enhancements on Redundant Share, which are able to use it in p2p environments with incomplete views and which have a competitive ratio of O(1) concerning their adaptivity.

Projektgruppe "3D-Rendering und Modellierung von simulationsgesteuerten Fertigungssystemen", Universität Paderborn

16. Januar 2008, 14:00 Uhr, F1.110

Die Projektgruppe „3D-Rendering und Modellierung von simulationsgesteuerten Fertigungssystemen“ entwickelt einen mehrbenutzerfähigen Editor zur Modellierung von Fertigungssystemen. Die Darstellungsberechnung erfolgt parallel auf dem Arminuscluster des PC². Es fand ein Kickoff-Workshop statt, der Ziele und erste Konzepte erarbeitete. Im Vortrag soll über die im Workshop festgelegten Ziele berichtet und diskutiert werden.

André Schmitz, Universität Paderborn

9. Januar 2008, 14:00 Uhr, F1.110

Experimentelle Analyse von Renderingtechniken und Datenstrukturen für 3D-Szenen

Komplexe 3D-Szenen benötigen häufig spezielle Algorithmen und Datenstrukturen um sie effizient darstellen zu können. Dabei entstehen zusätzliche Kosten, welche möglichst gering gehalten werden sollten.

Innerhalb dieser Studienarbeit wurde experimentell untersucht, ob es möglich ist, die Zeit während die Graphikhardware beschäftigt ist, für andere Aufgaben auf dem Prozessor zu nutzen. Dabei wurden verschiedene Renderingtechniken betrachtet.

(Studienarbeit)

Prof. Dr. Bernd Eylert, Abteilungspräsident (Bund/DT) und TFH Wildau

19. Dezember 2007, 14:00 Uhr, F1.110

Security in Mobile Systems (e. g. GSM, UMTS)

The presentation deals with the security aspects, threats and solutions for GSM, its limitations and the consequences taken for UMTS. Information given in this presentation is based on the specifications and reports produced by the members of 3GPP SA3 and ETSI SAGE.

Larissa Nepp, Universität Paderborn

5. Dezember 2007, 14:00 Uhr, F1.110

Agglomeratives Clustering für Gauß-verteilte Eingaben

Viele wichtige kombinatorische Probleme sind exakt nur durch langsame Algorithmen lösbar. Die Approximationsalgorithmen berechnen für solche Probleme in effizienter Zeit Lösungen, die zwar nicht optimal sind, dennoch beweisbare Qualität aufweisen. Es gibt jedoch Algorithmen, für die bisher keine Aussagen über die Qualität der von ihnen berechneten Lösung getroffen wurden. Als Beispiel dient der agglomerative hierarchische Complete-Linkage-Algorithmus.

In dieser Arbeit wird eine detaillierte Untersuchung des approximativen Verhaltens des Complete-Linkage-Algorithmus für ein spezielles Datenmodell (Gauß-verteilte Eingaben) durchgeführt. Anhand der erzielten Ergebnisse wird eine beweisbare Qualitätsaussage über eine Ausgabe des Algorithmus getroffen. Diese erfolgt in zwei Richtungen. Zum einen wird die untere Schranke einer optimalen Lösung des gegebenen Problems gesucht. Zum anderen wird es um die obere Schranke für die vom Algorithmus erzielten Lösung bemüht. Die gesamte Qualitätsaussage erfolgt dadurch, dass zwischen den beiden, unteren und oberen, Schranken ein mathematischer Zusammenhang hergestellt wird.

(Abschlussvortrag Bachelorarbeit)

Christian Wolf , Universität Paderborn

28. November 2007, 14:00 Uhr, F1.110

Lokale Berechnung minimaler Spannbäume in geometrischen Graphen

In Sensornetzwerken können minimale Spannbäume nicht durch die Algorithmen von Prim oder Kruskal berechnet werden, da keine zentrale Instanz die Sensoren verwaltet. Dies muss von den einzelnen Sensorknoten lokal und verteilt gelöst werden. In dieser Bachelorarbeit wird eine einfache lokale Operation untersucht, die bestehende Spannbäume in geometrischen Graphen verbessern kann. Zur Analyse werden einfache geometrische Knotenanordnungen wie Linie, Gitter und Kreis untersucht. Zur experimentellen Analyse wurde eine Simulationsumgebung implementiert, welche es erlaubt die lokale Operation zur minimalen Spannbaumberechnung auf geometrischen Graphen zu simulieren.

(Abschlussvortrag Bachelorarbeit)

Barbara Schneider, Universität Paderborn

28. November 2007, 14:30 Uhr, F1.110

Lokale Strategien zur Aufrechterhaltung von Kommunikation zwischen mobilen Robotern

Auf einer Ebene ohne Hindernisse gibt es eine Basisstation und mehrere Roboter (Explorer), die das Terrain erkunden. Zwischen den Explorern und der Basisstation soll eine Kommunikationsverbindung aufrecht erhalten werden. Dazu werden mobile Relays genutzt, die alle Nachrichten weiterleiten. Unterschieden wird zwischen einer statischen Variante mit festen Positionen der Explorer und einer dynamischen Variante, bei der sich die Explorer bewegen.

Ziel dieser Arbeit ist es, Strategien für die Relays zu entwickeln, so dass die Relays so nah wie möglich an einer optimalen Verbindung (euklidischer Steinerbaum) bleiben. Dabei sollen die Strategien lokal sein, die Relays also nicht das System als Ganzes, sondern nur ihre Nachbarschaft kennen.

(Antrittsvortrag Diplomarbeit)

Joachim Gehweiler, Universität Paderborn

21. November 2007, 14:00 Uhr, F1.110

PUBWCL + AEOLUS -- a status report

In this talk, a brief overview of the development progress of the Paderborn University BSP-based Web COmputing Library (PUBWCL) as well as the status of integration into the AEOLUS Overlay Computing Platform is given.

Jan Mehler, Universität Paderborn

14. November 2007, 14:00 Uhr, F1.110

Online File Allocation in a Dynamic Star Network

An important subproblem in the context of distributed computation is the allocation of globally shared data. One way to formalize this problem is the file allocation problem: We consider a network of processors which are accessing a single shared file. This file is an indivisible collection of D data units which can be accessed individually. There can be one or more copies of the file in the network. A node of the network can access the file by either reading or modifying a single unit of the file. The costs of such an access consists of a constant of 1 plus the transmission costs incurred by satisfying the request. A read access is fulfilled by transferring the requested data from the nearest node holding a copy to the requesting node. A write request has to update all the copies of the file. An algorithm for the file allocation problem has to decide when and where to create or delete copies. Creating a new copy thereby costs D times the distance between the source and the destination node.

In this talk we investigate online file allocation in a dynamic star network. A star network consists of a center node which always holds a copy of the file and n peripheral nodes. The network is dynamic in that the distances between the peripheral nodes and the center is changing over time. These changes are bounded by 1 in every step. An algorithm has to decide when and where to create/delete copies on the peripheral nodes online, i.e. based only on the history of requests.

We give a lower bound of \Omega( max(1 + nD/log(nD), D)) for the competitive ratio of deterministic online algorithms compared to an optimal offline algorithm. Furthermore we give a simple (1+(D+1)n)-competitive deterministic algorithm and show that this is the best an algorithm, that creates copies only on nodes which just accessed the file, can do.

Benjamin Eikel, Universität Paderborn

7. November 2007, 14:00 Uhr, F1.110

Adaptives Verfahren zur Steuerung von Schlüsselbildanimationen in industriellen Fertigungsanlagen

Virtuelle Szenen, wie beispielsweise Fabrikhallen, können sehr groß und damit sehr komplex werden. Nicht nur die Berechnung der Bilddarstellung ist dann aufwendig, sondern auch die Berechnung der Animationen. Diese Bachelorarbeit stellt verschiedene Verfahren vor, um in solchen Szenen Animationsberechnungen zu regeln. Diese Steuerungsverfahren benutzen mehrere Durchläufe, in denen jeweils nur ein Teil der Objekte animiert wird, um eine vorgegebene Zeitschranke einzuhalten. Detailstufen sorgen dafür, dass große Objekte im Vordergrund häufiger animiert werden als kleine oder weit entfernte Objekte.

Es werden Schlüsselbildanimationen benutzt, die aus Objektzuständen eine kontinuierliche Animation berechnen. Die hier benutzten Objektzustände sind Position und Orientierung eines Objektes zu vorgegebenen Zeitpunkten. Zur Erstellung solcher Animationen wurde ein Programm implementiert, das dreidimensionale Objekte laden kann und die Veränderung der Objekte innerhalb der Szene ermöglicht. Die Objekte können in einem Szenengraphen hierarchisch angeordnet werden, sodass für einzelne Objekte und auch ganze Gruppen Schlüsselbilder festgelegt werden können. Das Programm verwendet die entwickelten Steuerungsverfahren, um Szenen mit Animationen darzustellen.

(Abschlussvortrag Bachelorarbeit)

Matthias Hilbig, Universität Paderborn

31. Oktober 2007, 14:00 Uhr, F1.110

Parametrisierte Generierung und automatische Bewertung virtueller Szenen

Das manuelle Erstellen von virtuellen Walkthrough Szenen für Benchmarkzwecke ist aufwendig. 'Realistische' Szenen automatisch und nach frei wählbaren Parametern zu generieren ist daher wünschenswert. Es wird ein Generator vorgestellt, der mithilfe von Graustufenbildern solche Szenen generiert.

Renderverfahren, die sich an Szenen anpassen sollen, müssen dazu Szenen bewerten können. Im zweiten Teil werden daher Methoden vorgestellt, mit denen man Parameter aus Szenen wieder extrahieren kann.

(Abschlussvortrag Diplomarbeit)

Tobias Berghoff, Universität Paderborn

31. Oktober 2007, 14:30 Uhr, F1.110

Dynamische Sichtbarkeitstests für aus Grammatiken erzeugte 3D-Szenen

Prozedurale Szenengeneratoren ermöglichen es, Szenen nahezu beliebiger Vielfalt in nahezu beliebiger Größe aus impliziten Beschreibungen zu erzeugen. Erzeugt man die gesamte Szene vor der Darstellung, hat man es unter Umständen mit gewaltigen Datenmengen zu tun, die vom Massenspeicher in die Grafikpipeline transportiert werden müssen. Wenn einzelne Szenenteile unabhängig vom Rest der Szene aus der impliziten Beschreibung erzeugt werden können, ist es möglich für jedes Bild nur die Szenenteile zu berechnen, die wirklich benötigt werden.

Ziel dieser Diplomarbeit war es zu untersuchen, in wie fern Sichtbarkeitstests genutzt werden können, um die Ableitung einer Szene aus ihrer impliziten Beschreibung zu begrenzen, d.h. die benötigten Szeneteile zu selektieren. Dazu wurde ein auf Formengrammatiken basierender Szenengenerator implementiert und an verschiedenen Punkten der Szenenerstellung und Darstellung mit Sichtbarkeitstests versehen. Die Untersuchung des Systems anhand einer Stadtszene ergab, dass durch Ausnutzen der durch den Generator gegebenen Szenenstruktur ein Großteil des Erzeugungsprozesses eingespart werden kann.

(Abschlussvortrag Diplomarbeit)

Stephan Arens, Alexander Buss, Helena Deck, Holger Hagedorn, Peter Isaak, Alexander Krieger, Viktor Nesterow, Adrian Ogiermann, Jonas Schrieb, Boris Stobbe, Thomas Storm, Henning Wachsmuth, Universität Paderborn

31. Oktober 2007, 15:00 Uhr, F1.110

Smart Teams: Local, Distributed Strategies for Self-Organizing Robotic Exploration Teams

We consider the problem of exploring an unknown environment using a swarm of autonomous robots with collective behavior emerging from their local rules. Each robot has only a very restricted view on the environment which makes cooperation difficult. We introduce a software system which is capable of simulating a large number of such robots (e.g. 1000) on highly complex terrains with millions of obstacles. Its main purpose is to easily integrate and evaluate any kind of algorithm for controlling the robot behavior. The simulation may be observed in real-time via a visualization that displays both the individual and the collective progress of the robots. We present the system design, its main features and underlying concepts.

(Abschlussvortrag Projektgruppe)

Morteza Monemizahdeh, Universität Paderborn

24. Oktober 2007, 14:00 Uhr, F1.110

Interpretable Streaming Algorithms for Low-rank Matrix Approximation

In modern data mining, the data consists of an $m \times n$ matrix $A$ and it is of interest to find an approximation $A_k$ of a specific rank $k$ to $A$ where $k$ is much smaller than $m$ and $n$. In general $A_k$ is obtained by projecting $A$ on the top $k$ right singular vectors of $A$ which is a linear combination of rows or columns of $A$. While $A_k$ is routinely used in data analysis, it is difficult to interpret it in terms of the original data, namely the columns and rows of $A$.
In this paper, we develop a two-pass streaming algorithm that computes a rank-$k$ matrix D with approximation error $||A-D||^2_F \leq (1+\eps) ||A-A_k||^2_F$, where $A_k$ is the best rank-$k$ approximation of $A$. The algorithm returns a matrix $C$, consisting of a small number of rows, independent of $m$ and $n$, containing $D$ in the first pass. In the second pass, we project the matrix $A$ onto $C$ to obtain the rank-k matrix $D$. This is the first streaming algorithm that interprets $C$, and $D$ as a result, in terms of the original columns or rows of $A$.

Silke Harperscheidt, Universität Paderborn

17. Oktober 2007, 14:00 Uhr, F1.110

Adaptive Partitionierungen von 3D-Szenen für paralleles Rendern

Realistische Darstellungen großer 3D-Szenen mit hohem Detailgrad können heutzutage trotz leistungsstarker Grafik-Hardware ohne die Berücksichtigung der Szenenkomplexität nicht in Echtzeit durchgeführt werden. Für die Beschleunigung der Darstellung dieser Szenen können hierarchische Datenstrukturen wie der Octree oder der KD-Tree genutzt werden. Diese Datenstrukturen partitionieren 3D-Szenen, um zum Beispiel geeignete Culling-Algorithmen anwenden zu können. Dennoch können nach der Partitionierung und der darauf folgenden grafischen Darstellung der 3D-Szene niedrige Frameraten und hohe Rechenkosten entstehen. Der Hauptgrund dafür sind die unterschiedlich komplexen Bereiche der Szene, jedoch auch das Vorhalten redundanter Polygondaten in den Octanden bedingt durch die erfolgte Partitionierung. Diese Redundanz führt beim Zusammenfügen der Szene oder beim Rendern, auch wenn dieses parallel erfolgt, zu höheren Rechenaufwand. Im Rahmen dieser Diplomarbeit soll die Verteilung von Polygondaten einer Szene untersucht werden. Aus diesen Beobachtungen sollen Rückschlüsse über die Szenenkomplexität erfolgen, so dass anhand ihrer Werte eine Szenenpartitionierung bestimmt und bewertet werden kann. Aus dem Zusammenspiel von Bestimmung und Bewertung entsteht eine Datenstruktur, der von uns benannte CO\textsubscript{3}-Tree (\textbf{C}lustered \textbf{O}ctree der Dimension \textbf{3}), welcher ebenfalls implementiert werden soll. Diese Datenstrukur besitzt eine \"ahnliche Struktur wie ein Octree, verwendet jedoch für die Partitionierung eine andere Gewichtung und als Abbruchbedingung ein festes Polygon-Budget. Für die adaptive Partitionierung der Szenen sollen verschiedene Kriterien zur Festlegung der Octandenzentren bezüglich dem noch folgenden Punkt \ref{analyse} verglichen werden. Die Partitionen der Szene können dann für weitere Verfahren zur Verfügung gestellt werden, wie zum Beispiel Culling, Ermittlung von Polygonverdeckungen oder Zuordnung zu einem parallelen Renderingsystem.

(Antrittsvortrag Diplomarbeit)

Hendrik Renken, Universität Paderborn

17. Oktober 2007, 14:30 Uhr, F1.110

Experimentelle Qualitätsanalyse von Cullingverfahren

Seit den Anfängen der interaktiven Computergrafik stellt sich die Frage, wie Informationen (Dreiecke, Polygone, etc.) identifiziert werden können, die nicht zum zu zeichnenden Bild beitragen. Dazu wurden viele verschiedene Cullingverfahren entwickelt. Über die Effizienz dieser Verfahren war bisher nicht viel bekannt, unteranderem weil dazu (fast) keine Benchmarks durchgeführt wurden. Es gibt einen Ansatz, der zum Vergleich das "Optimale Cullingverfahren" heranzieht. Definiert wird dieses Cullingverfahren aber nicht.

Das Ziel dieser Arbeit war daher, über ein Kostenmodell den Begriff "Optimales Cullingverfahren" genauer zu definieren. Enstanden sind mehrere, fiktive Cullingverfahren, die unter bestimmten Umständen kostenminimal arbeiten. Desweiteren wurden zwei reale Verfahren empirisch mit diesen fiktiven Verfahren untersucht, um deren Effizienz zu ermitteln.

(Abschlussvortrag Diplomarbeit)

Nermin Junuzovic, Universität Paderborn

17. Oktober 2007, 12:00 Uhr, F1.310

Praktische Berechnung des geometrischen Verdeckungsgrads virtueller Szenen

Bei der Bilddarstellung ist die Sichbarkeitsbestimmung auch mit heutigen Verfahren sehr aufwendig. Um aus einer virtuellen Szene Objekte darzustellen gibt es verschiedene Ansätze die dabei angewendet werden. Eines der Verfahren die bei der Sichtsbarkeitsberechnungen benutzt wird, ist das Objektansichten aus verschiedenen Sichtpunkten, sogenannten Zellen, betrachtet werden.

Das Ziel dieser Arbeit bestand darin, für verschiedene virtuelle Szenen, Zellen zu konstruieren und daraus den geometrischen Verdeckungsgrad einer virtuellen Szene zu berechnen. Mithilfe dessen, kann dann eine Entscheidung getroffen werden, ob auf die virtuelle Szene Culling Verfahren angewendet werden oder nicht.

(Abschlussvortrag Diplomarbeit)

Michael Baumann, Universität Paderborn

10. Oktober 2007, 14:00 Uhr, F1.110

Experimentelle Analyse der Chase-Explorer Strategie

Die Chase-Explorer Strategie hält eine Kommunikationskette zwischen einem mobilen Explorations-Roboter und einer Basisstation aufrecht. Gleichzeitig sorgt sie dafür, dass die Kette möglichst kurz ist aber auch niemals abreißt. In der Arbeit soll untersucht werden, wie sich die Strategie auf einem Terrain mit konvexen Hindernissen verhält. Dazu wird zunächst die Strategie für die SmartS Simulationsumgebung implementiert um dann entsprechende Experimente durchführen und ausgewerten zu können. Es wird untersucht, wie sich die Strategie in erschiedenen Szenarien verhält.

(Abschlussvortrag Bachelorarbeit)

Nedim Lipka, Universität Paderborn

10. Oktober 2007, 14:30 Uhr, F1.110

Ein wissensbasiertes Rescheduling-Verfahren für Job-Shop-Anwendungen

Diese Masterarbeit beschäftigt sich mit dem Einsatz von künstlicher Intelligenz in der dynamischen Produktionsplanung und -steuerung am Beispiel der Aktualisierung von Ablaufplänen, sogenannten Schedules, für Job-Shop-Anwendungen. Eine Job-Shop-Anwendung ist eine spezielle Fertigungsumgebung, für die ein Schedule den Bearbeitungsbeginn der Operationen von Aufträgen festlegt.

Unvorhersehbare Ereignisse, welche die Fertigung beeinflussen, können ein Rescheduling erforderlich machen, das den ursprünglichen Schedule aktualisiert oder durch einen neuen ersetzt, der in der neuen Situation geeigneter ist. Teil der Arbeit ist die Entwicklung einer Heuristik für die Erstellung eines neuen Schedules, die Wissen aus dem ursprünglichen Schedule akquiriert und für eine schnellere Neuberechnung verwendet.

Die Experimente der Arbeit vergleichen die entwickelte Heuristik mit anderen Scheduling-Verfahren und zeigen, dass sie schneller ist und teilweise zu besseren Lösungsgüten im Rescheduling führt.

(Abschlussvortrag Masterarbeit)

Summer Term 2007

Christof Pietz, Eike Voss, Universität Paderborn

6. September 2007, 11:00 Uhr, F1.110

Prüfungsplanung für das mündliche Abitur

Während der mündlichen Abiturphase an Gymnasien müssen sich Schüler mindestens zwei Prüfungen unterziehen, in denen sie von einer Gruppe von Oberstufenlehrern geprüft werden. Die dafür erforderliche Erstellung von Prüfungsplänen wird in der Regel manuell von erfahrenen Lehrern durchgeführt und nimmt bis zu zwei Wochen Arbeitszeit in Anspruch.

Vorgestellt wird eine im Rahmen dieser Studienarbeit entwickelte Software, die den Vorgang der Prüfungsplanung übernimmt. Bei der Modellierung und Implementierung wurden Informationen genutzt, die durch Kooperation mit zwei Gymnasien in Hessen und Nordrhein-Westfalen gewonnen wurden.

(Studienarbeit)

Sven Köhler, Universität Paderborn

4. September 2007, 11:00 Uhr, F1.110

Zur Praktikabilität schneller Polynomarithmetik

Die Anwendungen schneller Polynomarithmetik, d.h. Algorithmen mit subquadratischer Laufzeit, liegen z.B. in der Kryptographie aber auch in der Physik (N-Teilchen Simulation). Diese Diplomarbeit widmet sich der Untersuchung verschiedener Varianten der schnellen Polynommultiplikation und der darauf aufbauenden Algorithmen zur Division mit Rest und schnellen Mehrfachauswertung. Sie untersucht die Praktikabilität der Algorithmen unter verschiedenen Aspekten: Laufzeit (Break-Even-Points, Hybridisierung) und numerischer Stabilität, experimentell wie grundsätzlich (reelle Berechenbarkeit im Sinne der Rekursiven Analysis).

(Abschlussvortrag Diplomarbeit)

Miroslaw Dynia, Universität Paderborn

8. August 2007, 14:00 Uhr, F1.110

Why robots need maps

Graph exploration is a classical problem studied for years in various contexts. The problem gets more interesting when we consider a group of entities (robots) which have to jointly visit all nodes of an unknown graph. The team deals with an unknown topology and since robots are equipped with radio devices of very restricted communication radius, each robot has only a local view of the overall situation. We show that even having global communication does not help, if the 'map' of the graph is not given in advance. Online algorithm is slow if compared to the optimal offline algorithm. We also present an efficient online algorithm for slightly different model.

Peter Paluch, Universität Paderborn

11. Juli 2007, 14:00 Uhr, F1.110

Caching auf Grafik-Hardware

In der interaktiven Computergrafik bemüht man sich, virtuelle Szenen immer realistischer wirken zu lassen. Daher steigt die Komplexität von 3D-Modellen stetig. Trotz moderner Grafik-Hardware, müssen Verfahren entwickelt werden, um diese Modelle in Echtzeit rendern zu können. Eine Möglichkeit besteht darin, Teile der 3D-Daten auf der Grafikkarte zu cachen. Die Zeit, um die 3D-Daten zur Grafikkarte zu schicken und die Ansprechzeit des Hauptspeichers werden eingespart. Ein Caching-Mechanismus verwaltet die Daten so, dass man trotz des beschränkten Grafikspeichers in Echtzeit durch die Szene navigieren kann. Dabei soll im Rahmen dieser Diplomarbeit folgende Frage beantwortet werden: Was für ein Geschwindigkeitsvorteil lässt sich gegenüber "herkömmlichen" Verfahren erzielen, die den oben beschriebenen Mechanismus nicht verwenden?

(Antrittsvortrag Diplomarbeit)

Oxana Paul, Universität Paderborn

11. Juli 2007, 14:30 Uhr, F1.110

Modellierung, Simulation und Analyse verschiedener Steuerungsverfahren in einem Teilmodell eines Distributionszentrums zur Planungsabsicherung einer Reorganisation

Die Weltmärkte dehnen sich rasant aus. Dadurch entsteht eine Wettbewerbsdynamik. Für die Marktteilnehmer erhöht sich der Konkurrenz- und Kundendruck hinsichtlich Zeit, Kosten, Qualität und Service. Somit nimmt die Kundenorientierung einen großen Stellenwert an. Die Unternehmen müssen auf die Kundenanforderungen schnell und flexibel reagieren.

Fortschritte in der Automatisierung haben eine wachsende flexible Gestaltung in der Fertigung zufolge. Durch diese wird eine automatische Steuerung von Geräten wie z.B. Fließbändern, Robotern oder führerlosen Transportfahrzeugen ermöglicht. Um diese Gestaltung auch richtig nutzen zu können, muss die Auftragsbearbeitung intelligent organisiert werden, wie z.B. Abarbeitungsreihenfolgen von Aufträgen. Um neu entwickelte Strategie zur Auftragssteuerung zu überprüfen und mit schon bestehenden Strategie zu vergleichen, kann ein Materiaflusssimulator verwendet werden. Er simuliert ein Modell des Ist- und des Soll-Zustandes mit unterschiedlichen, sowohl strukturellen Änderungen, als auch mit jeweiligen Änderungen in der Auftragssteuerungsstrategie.

Das Unternehmen arvato logistic services versucht aufgrund der Erschließung neuer Kunden einen größeren Tagesumsatz zu erreichen. Bei möglichst kleinen Investitionen in die Veränderungen der Infrastruktur sollen bessere Umsätze erzielt werden. Um diese Änderungen kostensparend umsetzen zu können, sollen diese zuerst in einem Simulationsmodell auf ihre Effektivität hinsichtlich verschiedener Faktoren, bspw. der Bearbeitungszeit pro Auftrag, überprüft werden.

(Abschlussvortrag Diplomarbeit)

Tobias Berghoff, Universität Paderborn

27. Juni 2007, 14:00 Uhr, F1.110

Dynamic Visibility Culling of Grammar-Derived 3D Scenes

Um die steigenden Kosten von großen 3D-Szenen im Unterhaltungsbereich unter Kontrolle zu behalten werden vermehrt prozedurale Szenengeneratoren eingesetzt. Diese Algorithmen erzeugen aus Startwerten und Erzeugungsregeln komplexe Szenen mit praktisch beliebig hoher Objektzahl. Da im Vergleich zur Rechenleistung die Datentransferrate – besonders von Massenspeichern wie DVDs – immer langsamer wird, ist es häufig sinnvoll, die Szenenerzeugung zur Laufzeit durchzuführen.

Ziel dieser Arbeit ist es zu zeigen, dass Sichtbarkeitstests während der Szenenerzeugung benutzt werden können, um unsichtbare Teile nicht nur zu entfernen, sondern auch zu erkennen, bevor sie vollständig erzeugt sind. Damit ist es möglich, nur einen Teil der Szene zu erzeugen, ohne die Qualität des resultierenden Bilds zu beeinträchtigen.

(Antrittsvortrag Diplomarbeit)

Hendrik Renken, Universität Paderborn

27. Juni 2007, 14:30 Uhr, F1.110

Experimentelle Qualitätsanalyse von Cullingverfahren

Seit den Anfängen der interaktiven Computergrafik stellt sich die Frage, wie Informationen (Dreiecke, Polygone, etc.) identifiziert werden können, die nicht zum zu zeichnenden Bild beitragen. Dazu wurden viele verschiedene Cullingverfahren entwickelt.

Vergleiche zwischen den verschiedenen Cullingverfahren waren aufgrund unterschiedlicher Benchmarks bisher nicht möglich. Auch sagen die Benchmarks wenig über die Effizenz der getesteten Cullingverfahren aus. Daher soll in dieser Diplomarbeit ein Benchmark-Modell für Cullingverfahren entwickelt, und für verschiedene Teile des Modells auf empirische Weise untere Schranken ermittelt werden. Dadurch werden eine Reihe von fiktiven Algorithmen mit wohldefinierten Eigenschaften und Laufzeiten geschaffen, mit denen die heutigen Verfahren auf ihre Effizienz verglichen werden können. Desweiteren soll ein Tool entwickelt werden, das empirisch für eine gegebene Szene und Kamerafahrt eine untere Schranke für Cullingverfahren ermittelt, um so den Performance-Vergleich von Cullingverfahren zu ermöglichen.

(Antrittsvortrag Diplomarbeit)

Andre Ückermann, Universität Paderborn

13. Juni 2007, 14:00 Uhr, F1.110

Entwicklung und Evaluation von Multiplikationsverfahren unterstützt durch Grafikhardware

Die Verarbeitung sehr großer Zahlen ist in Programmiersprachen nur mit Hilfe spezieller, externer Bibliotheken möglich. Im Rahmen der Studienarbeit wurden grafische Verfahren für die Multiplikation sehr großer Zahlen entwickelt, implementiert und getestet. Darüber hinaus wurde ein Vergleich mit den State-of-the-Art Verfahren einer externen Bibliothek durchgeführt. Die Ergebnisse der Arbeit werden in diesem Rahmen vorgestellt.

(Studienarbeit)

Sascha Effert, Universität Paderborn

13. Juni 2007, 14:30 Uhr, F1.110

Dynamic and Redundand Data Placement

We present a randomized block-level storage virtualization for arbitrary heterogeneous storage systems that can distribute data in a fair and redundant way and can adapt this distribution in an efficient way as storage devices enter or leave the system. More precisely, our virtualization strategies can distribute a set of data blocks among a set of storage devices of arbitrary non-uniform capacities so that a storage device representing x% of the capacity in the system will get x% of the data (as long as this is in principle possible) and the different copies of each data block are stored so that no two copies of a data block are located in the same device. Achieving these two properties is not easy, and no virtualization strategy has been presented so far that has been formally shown to satisfy fairness and redundancy while being time- and space-efficient and allowing an efficient adaptation to a changing set of devices.

Dan Feldman, Tel-Aviv University

13. Juni 2007, 15:00 Uhr, F1.110

Bi-criteria Linear-time Approximations for Generalized k-Mean/Median/Center

We consider the problem of approximating a set P of n points in R^d by a collection of j-dimensional flats, under the standard median / mean / center measures, in which we wish to minimize, respectively, the sum of the distances from each point of P to its nearest flat, the sum of the squares of these distances, or the maximal such distance. Such problems cannot be approximated unless P=NP but do allow bi-criteria approximations where one allows some leeway in both the number of flats and the quality of the objective function. We give a very simple randomized bi-criteria approximation algorithm, which produces at most alpha(k,j,n) = log n*(jk loglog n)^O(j) flats, which exceeds the optimal objective value for any k j-dimensional flats by a factor of no more than \\\\beta(j)= 2^O(j). Our algorithm has many advantages over previous work, in that it is much more widely applicable (wider set of objective functions and classes of clusters) and much more efficient --- reducing the running time bound from n^poly(k,j) to dn*(jk)^O(j). The algorithm can be combined with other techniques (due to Agarwal et al. and to the author), to obtain the first PTAS to the optimal k-line mean/median/center (using exactly k lines), which takes time linear in n.

Joint work with Amos Fiat and Micha Sharir.

Matthias Hilbig, Universität Paderborn

6. Juni 2007, 14:00 Uhr, F1.110

Parametrisierte Generierung und automatische Bewertung virtueller Szenen

Das manuelle Erstellen von virtuellen Walkthrough Szenen für Benchmarkzwecke ist aufwendig. 'Realistische' Szenen automatisch und nach frei wählbaren Parametern zu generieren ist daher wünschenswert. Es wird der Ansatz für einen solchen automatisierten und parametrisierten Generator vorgestellt. Umgekehrt extrahiert sein Gegenstück aus einer Szene die Werte dieser Parameter.

(Antrittsvortrag Diplomarbeit)

Rolf Harren, Universität Dortmund

30. Mai 2007, 14:00 Uhr, F1.110

Approximating the Orthogonal Knapsack Problem for Hypercubes

Given a list of d-dimensional cuboid items with associated profits, the orthogonal knapsack problem asks for a packing of a selection with maximal profit into the unit cube. Restricting the items to hypercube shapes the problem admits an (5/4 + epsilon)-approximation algorithm for the two-dimensional case, i.e., square packing. With results from multidimensional strip packing and a similar problem, the algorithm can be generalized to yield a ((2^d+1)/2^d + epsilon)-approximation algorithm for d-dimensional packing. In this talk we will cover the basic ideas for the two-dimensional case and give an intuition for the generalization - focused on the improving approximation ratio.

Tim Süß, Universität Paderborn

30. Mai 2007, 15:15 Uhr, F1.110

Rechenlastbalancierung für parallele Renderingverfahren

Um Modelle mit immer größerer Genauigkeit darstellen zu können steigt die Anzahl von Polygonen in 3D-Meshes stetig an. PC-Cluster bieten eine kostengünstige Alternative zu teurer Spezial-Hardware, um diese Modelle in ihrer vollen Komplexität darzustellen. Beim parallelen Rendering entstehen Kosten, die auf einem einzelnen Rechner nicht auftreten. Kommunikations-, Rechenlastbalancierungs- und Zusammensetzungskosten verringern die Leistungsfähigkeit von parallelen Renderingsystemen. In dieser Arbeit sind verschiedene parallele Renderingverfahren entwickelt worden. Mit diesen Verfahren wurde untersucht, welche zusätzlichen Kosten entstehen und wie sich diese auf die Leistungsfähigkeit der Verfahren auswirken.

(Abschlussvortrag Diplomarbeit)

Guoxuan Ma, China University of Mining and Technology Xuzhou

23. Mai 2007, 14:00 Uhr, F1.110

Linear Conic Optimization Approaches to Data Clustering

By introducing the assignment matrix, we could reformulate the MSSC k-clustering problem as one 0-1 Semi-definite optimization problem. Through the relaxation techniques, the math programming models of k-clustering can be relaxed to be the linear conic optimization problems. Especially for the balanced k-clustering case, we would like to use the approximation algorithms to solve it.

Nedim Lipka, Universität Paderborn

16. Mai 2007, 14:00 Uhr, F1.110

Ein wissensbasiertes Rescheduling-Verfahren für Job-Shop-Anwendungen

Diese Arbeit handelt über ein Rescheduling-Verfahren in der Produktionsplanung. Als Beispiel werden Maschinenbelegungspläne einer Job-Shop-Anwendung betrachtet.

Ein initialer Maschinenbelegungsplan kann in den meisten Fällen mit Abstand zur eigentlichen Durchführung erstellt werden, so dass in der Regel genügend Rechenzeit zur Verfügung steht, um einen effizienten Plan zu berechnen. Zum Zeitpunkt der geplanten Produktion können immer wieder kurzfristige Änderungen der Produktionssituation auftreten, beispielsweise ein Mitarbeiter- oder Maschinenausfall, notwendige Materialien bestehen die Qualitätskontrolle nicht usw. Tritt eine Änderung ein, so muss in kürzester Zeit ein neuer (angepasster) effizienter Maschinenbelegungsplan erstellt werden. Hierfür wird ein effizientes/effektives Rescheduling-Verfahren benötigt.

Die Annahme dieser Arbeit ist, dass Wissen aus dem erstellten initialen Schedule gewonnen werden kann, das beim Scheduling für ein ähnliches Problem genutzt werden kann. Es soll ein State-Of-The-Art-Scheduling-Verfahren verwendet werden, um einen initialen Maschinenbelegungsplan zu erstellen. Mit dem initialen Maschinenbelegungsplan wird ein Klassifizierer trainiert, der in einem wissensbasierten Rescheduling-Verfahren, das in dieser Arbeit entwickelt und implementiert wird, zum Einsatz kommt.

(Masterarbeit Antrittsvortrag)

Harald Räcke, Toyota Technological Institute at Chicago

9. Mai 2007, 14:00 Uhr, F1.110

Algorithms for Sorting Buffers in General Metric Spaces

In the sorting buffer problem we are given an input sequence of points in a metric space. The task is to visit all points while minimizing the total distance that is traveled. For this, a sorting buffer can be used to rearrrange/reorder the input sequence into an output sequence with improved travel distance. At each step the sorting buffer holds the first $k$ yet unvisited points of the input sequence. An online algorithm has to decide which of these points should be visited next; and upon this decision the corresponding point is removed from the buffer and the slot is filled with the next point from the input sequence.

We present an online algorithm that obtains a competitive ratio of $O(\log n \log^2 k)$ for arbitrary metric spaces and $O(\log^2\Delta\log k)$ for metric spaces of aspect ratio $\Delta$.

This is joint work with Matthias Englert and Matthias Westermann.

Christoph Scholz, Universität Paderborn

2. Mai 2007, 14:00 Uhr, F1.110

Experimenteller Vergleich von Kernmengen für Clustering Probleme

Kernmengen werden dazu genutzt, die Ausgangspunktmenge bezüglich eines Clustering-Problems zu approximieren. Es werden drei Verfahren Vorgestellt, die Kernmengen erzeugen. Diese werden anschließend qualitativ verglichen.

(Studienarbeit)

Martin Otto, Siemens AG, Corporate Technology CT IC CERT

25. April 2007, 14:00 Uhr, F1.110

Threshold Cryptography for Pure Peer-to-Peer Security

P2P networks promise to reduce the need for central servers, which is an interesting aspect for business applications. However, security is required for such applications and a security solution must not add what was sought to be saved: central servers. Algorithms for such "pure" peer-to-peer security solutions are still in their infancy and many problems still hinder a widespread application. This talk will focus on threshold cryptography and how this paradigm can be used to implement "pure" peer-to-peer security solutions.

Daniel Baldin, Universität Paderborn

18. April 2007, 14:00 Uhr, F1.110

Analysing the Graph Expansion of Flipper Maintained Random Graphs

Peer-to-Peer Netzwerke sind sehr dynamische Netzwerke, d.h. die Netzwerkteilnehmer ändern sich ständig. Das hat zur Folge, dass die Topologie eines solchen Netzwerks ständig repariert werden muss um die gewünschten Eigenschaften zu erhalten. Eine Möglichkeit zur Wartung bzw. Erhaltung der Topologie im Fall von Zufallsnetzwerken wurde mit der Flipper-Operation vorgestellt. Diese Transformiert beliebige zusammenhängende, reguläre Graphen in zufällige d-reguläre Graphen und erzeugt somimt mit hoher Wahrscheinlichkeit Expander-Graphen. Expander-Graphen besitzen eine Reihe für Peer-to-Peer-Netzwerke erstrebenswerte Eigenschaften, wie z.B. logarithmischen Durchmesser und Mixing-Zeiten für Random-Walks.

Ein offenes Problem ist es herauszufinden, wie viele Flipper Operationen benötigt werden, um einen beliebigen Graphen mit Hilfe von Flipper Operationen in einen Expander-Graphen zu transformieren. In dieser Studienarbeit wurde dieses Problem auf experimenteller Basis untersucht. Es wurde eine C++ Simulationsumgebung entwickelt, die die Anwendung von Flipper Operationen auf Graphen ermöglicht und die Expansion von Graphen mittels der Spektralen-Lücke approximieren kann. Es wurde versucht für die Flipper Operation möglichst schlechte Ausgangsgraphen zu finden und für diese mit Hilfe der Simulationsumgebung untersucht, wie viele Flipper Operationen für die Transformation zu einem Expander-Graphen erforderlich sind.

(Bachelorarbeit)

Tamas Lukovszki, Eötvös Loránd University

4. April 2007, 14:00 Uhr, F1.110

Space Efficient Algorithms for the Burrows-Wheeler Backtransformation

The Burrows-Wheeler transformation is used for effective data compression, e.g., in the well known program bzip2. Compression and decompression are done in a block-wise fashion; larger blocks usually result in better compression rates. With the currently used algorithms for decompression, 4n bytes of auxiliary memory for processing a block of n bytes are needed, 0 < n < 2^32. This may pose a problem in embedded systems (e.g., mobile phones), where RAM is a scarce resource.

In this work we present algorithms that reduce the memory need without sacrificing speed too much. The main results are: Assuming an input string of n characters, 0 < n < 2^32, the reverse Burrows-Wheeler transformation can be done with 1.625 n bytes of auxiliary memory and O(n) runtime, using just a few operations per input character. Alternatively, we can use n / t bytes and 256 t n operations. The theoretical results are backed up by experimental data showing the space-time tradeoff.

Winter Term 2006 / 2007

Claudius Jähn, Universität Paderborn

21. März 2007, 14:00 Uhr, F1.110

Sichtpunktabhängiges Occlusion-Culling in komplexen 3D-Szenen

Die effiziente Echtzeitdarstellung einer virtuellen Szene in einem Walkthroughsystem kann auch mit moderner Grafikhardware nicht für beliebig komplexe Szenen gewährleistet werden. Ein Ansatz um diesem Problem zu begegnen ist Occlusion-Culling, wobei verdeckte Bereiche der Szene erkannt werden und so nicht mehr gezeichnet werden müssen.

Jedoch kann sich der Einsatz eines Occlusion-Culling Verfahrens auch negativ auf die Renderinggeschwindigkeit auswirken. Wenn am aktuellen Sichtpunkt in der Szene die Kosten zur Erkennung der verdeckten Bereiche höher sind als die dadurch erzielten Einsparungen, kann die Framerate durch den Einsatz von Occlusion-Culling sinken.

Lässt sich die Effizienz des Verfahrens abhängig vom aktuellen Sichtpunkt im Vorfeld abschätzen, kann eine positionsabhägige Entscheidung für oder gegen Occlusion-Culling getroffen werden.

In dieser Arbeit wurden anhand eines Occlusion-Culling Verfahrens verschiedene sichtpunktabhängige Maße experimentell untersucht, ob und wie gut sie für diese Entscheidung einsetzbar sind. Es stellte sich heraus, dass insbesondere die Größe der Bereiche mit hoher Tiefenkomplexität ein guter Indikator für die Effektivität des Occlusion-Cullings ist.

(Abschlussvortrag Diplomarbeit)

Olaf Bonorden, Universität Paderborn

21. März 2007, 14:30 Uhr, F1.110

Load Balancing in the Bulk-Synchronous-Parallel Setting using Process Migrations

The Paderborn University BSP (PUB) library is a powerful C library that supports the development of bulk synchronous parallel programms for various parallel machines. To utilize idle times on workstations for parallel computations, we implement virtual processors using processes. These processes can be migrated to other hosts, when the load of the machines changes. In this talk we describe the implementation for a Linux workstation cluster. We focus on process migration and show first benchmarking results.

Christian Hornkamp, Universität Paderborn

21. März 2007, 15:00 Uhr, F1.110

Mobile Sensornetzwerke in Bürogebäuden

Der Vortrag ist ein Abschlussvortrag zu einer Diplomarbeit, welche sich mit Sensornetzwerken beschäftigt, die speziell in mobilen Szenarien eingesetzt werden sollen. Als ein handfestes Beispiel wurde die Büroumgebung in der Fürstenallee gewählt. Zum Einsatz kommen hierbei Sensorknoten die an der UC Berkeley entwickelt wurden. Im Vortrag wird eine kurze Einleitung ins Gebiet der drahtlosen Sensornetzwerke und der genutzten Hard- und Software gegeben. Im Rahmen der Arbeit wurde eine Software auf Sensorknoten implementiert, um auf praktische Art und Weise die Eigenschaften mobiler Sensornetzwerke näher zu untersuchen. Unter anderem soll die Paketverlustrate durch Nutzung des Flashspeichers der Knoten gesenkt werden. Mit dem Programm wurden eine Reihe von Experimenten durchgeführt. Diese werden in dem Vortrag vorgestellt und deren Ergebnisse erläutert.

(Abschlussvortrag Diplomarbeit)

Christiane Lammersen, Universität Paderborn

14. März 2007, 14:00 Uhr, F1.110

Approximating the Maximum Spanning Tree Weight of Cocitation Graphs

We present a randomized algorithm that, given a directed graph G and a parameter 0<epsilon<1/2, estimates the weight of the maximum spanning tree of the weighted cocitation graph of G with a relative error of at most epsilon. In the cocitation graph of G, there is an undirected edge between two vertices v and w, if a vertex u in G exists that has a directed edge to v and another directed edge to w. We refer to the vertex u as witness of the edge {v,w}. The weight of an edge in the cocitation graph is given by its number of witnesses. Because a vertex u with out-degree d(u) is a witness for Omega(d(u)^2) edges, it is not possible to compute the whole cocitation graph of large input graphs. Instead of computing the whole graph, we use a randomized algorithm that approximates the number of connected components of certain subgraphs of the cocitation graph. We then show how the estimates on these numbers can be used to approximate the weight of the maximum spanning tree.

Jaroslaw Kutylowski, Universität Paderborn

7. März 2007, 14:00 Uhr, F1.110

Use locally available resources or pay high transportation costs?

We investigate the $k$-resource problem, which is a generalization of $k$-server. In $k$-resource you are given a metric space and the adversary provides demands for resources at each point of the metric. The goal of an online algorithm is to fulfill the demand, while minimizing the cost for transporting resources.

We present a solution to the $k$-resource problem on a uniform metric space (analogically to paging aka $k$-server on uniform metric spaces). Basing on this solution we are able to provide a distributed algorithm solving the $k$-resource problem on decomposable metric spaces, i.e. metrics with several clearly distinct components.

The solution to the latter problem answers the title question, by providing an competitive algorithm which uses localy available resources as often as possible and only transports them on large distances when really necessary.

Jochen Darley, Universität Paderborn

7. März 2007, 14:30 Uhr, F1.110

Zeitkritisches Rendering mittels perspektivischer Suche

Der Vortrag stellt ein neues Culling Verfahren vor, und erläutert die gefundenen Stärken und Schwächen der praktischen Implementierung. Bei der Visualisierung einer 3D Szene bestimmt ein Culling Verfahren die Menge der sichtbaren 3D Objekte, wodurch auch große Szenen dargestellt werden können. Das neue Verfahren wählt nur die Objekte aus, die für einen Betrachter den größten Anteil am Bild ausmachen. Die fehlenden, kleinen Objekte erzeugen Bildfehler, die in Kauf genommen werden müssen, wenn die Zeit nicht ausreicht alle sichtbaren Objekte darzustellen. Durch die Kombination mit einer Heuristik kann eine interaktive Echtzeit Navigation erreicht werden, bei der eine vorgegebene Framerate fast immer eingehalten wird. Eine solche interaktive, fehlerbehaftete Navigation in großen 3D Szenen kann sowohl das Betrachten großer industrieller Modelle als auch komplexer Simulationsumgebungen ermöglichen.

(Abschlussvortrag Studienarbeit)

Ralf Petring, Universität Paderborn

14. Februar 2007, 14:00 Uhr, F1.110

Ein Renderingverfahren zur punktuellen Steuerung der Approximation in nicht echtzeitfähigen Szenen

In der Computergrafik treten immer häufiger hoch detaillierte Modelle auf, welche nicht in Echtzeit gerendert werden können. Ein Ansatz zur Lösung dieses Problems ist die Approximation der Modelle, so dass höhere Frameraten erzielt werden können, ohne dass der Benutzer den Unterschied zum Original bemerkt. Hierzu sind bereits Methoden entwickelt worden, die es auch zur Laufzeit erlauben, dass Approximationslevel auf Objekt- oder Polygonbasis kontinuierlich zu steuern. Diese Methoden legen jedoch stets den Schwerpunkt auf die Qualität der Approximation.

In dieser Arbeit liegt der Schwerpunkt auf der Lokalität der Approximatiossteuerung, wobei bewusst Qualitätsverluste hingenommen werden. Dadurch können noch größere Szenen dargestellt werden, indem nur die für den Benutzer signifikanten (Teil-) Objekte in guter Qualität dargestellt werden. Des Weiteren kann durch diese Art der Darstellung die Aufmerksamkeit des Benutzers gezielt auf bestimmte Teile der Szene gelenkt werden.

(Abschlussvortrag Diplomarbeit)

Daniel Platz, Universität Paderborn

14. Februar 2007, 14:30 Uhr, F1.110

Implementation and Analysis of a Distributed Load Balancing Algorithm for a Web Computing Library

Web computing environments like PUBWCL perform load balancing on a client-server basis. For scalability reasons, a distributed load balancing approach, based on a hashing technique called distributed heterogeneous hash tables (DHHT), has been implemented within a simulation tool. Different scheduling strategies and levels of choice for the process-distribution have been simulated with the tool. Results have shown that due to the pseudo-random load balancing, already very slight increases in the level of choice can have large effects on an improved program execution-time.

(Studienarbeit)

Stéphane Le Roux, ENS Lyon

14. Februar 2007, 16:00 Uhr, F1.110

A Bit of Game Theory by a Bit of Proof Theory

Game theory studies incentive, decision making, and equilibrium, etc. Proof theory studies different logics, proofs and proof techniques, etc. I use the latter to study the former.

Kuhn proved in 1953 that any sequential game built over real numbers (together with the usual total order over the reals) has a Nash equilibrium.

This result can be generalised to sequential games built over arbitrary sets together with arbitrary "ordering" binary relations. The proof invokes topological sorting. The talk will rely on a formal development in the proof assistant Coq, which garantees correctness. Coq provides a constructive setting with induction principles. Although mainly given in natural English language, the talk may include one (and only one) short proof example in full Coq formalism.

There is no special prerequisite for the audience since I will first discuss concepts such as Nash equilibrium, sequential games, topological sorting, induction, etc.

People are urged to ask questions during the talk.

Nicole Schweikardt, Humboldt-Universität zu Berlin

31. Januar 2007, 13:00 Uhr, F0.530

Zur Komplexität der Verarbeitung großer Datenmengen

In vielen Anwendungsbereichen der Informatik müssen Datenmengen verarbeitet werden, die so groß sind, dass nur ein kleiner Ausschnitt der gesamten Daten im (schnellen aber kleinen) Hauptspeicher eines Rechners vorgehalten werden kann, während sich der weitaus größte Teil der Daten in (großen aber langsamen) externen Speichermedien befindet. Zwei wichtige Maße für die Komplexität der Verarbeitung von großen Datenmengen sind daher die Größe des Hauptspeichers und die Zahl der Zugriffe auf externe Speichermedien. Hinsichtlich des externen Speichers ist außerdem zu berücksichtigen, dass sequentielle Zugriffe i.d.R. deutlich geringere Kosten verursachen als direkte Zugriffe im Sinne von "Random Access".

In diesem Vortrag werde ich Maschinenmodelle vorstellen, mit denen der durch Zugriffe auf externe Speichermedien verursachte Aufwand klassifiziert werden kann. Dabei werde ich sowohl auf effiziente Algorithmen als auch auf Methoden zum Nachweis von unteren Schranken für die Komplexität bestimmter Probleme eingehen.

Oxana Paul, Universität Paderborn

17. Januar 2007, 14:00 Uhr, F1.110

Modellierung, Simulation und Analyse verschiedener Steuerungsverfahren in einem Teilmodell eines Distributionszentrums zur Planungsabsicherung einer Reorganisation

Die arvato logistic services GmbH unterhält am Standort Herzebrock Klarholz ein Distributionszentrum für den Deutschland-weiten Versand von Kundenaufträgen für einen Mobilfunkanbieter. Zurzeit erfolgt die endgültige Kommisionierung von Mehrstückaufträgen weitestgehend manuell. Zukünftig will die arvato logistic services diese automatisieren, d.h. die manuellen Packstationen sollen durch eine Abpackungsreihe ersetzt werden. Durch diese Maßnahme erhofft sich arvato eine schnelle Abarbeitung von Aufträgen und Kostenersparnis.

Das Ziel der Diplomarbeit ist es, in einem ersten Schritt den aktuellen IST-Zustand in einem möglichst detaillierten Simulationsmodell darzustellen, zu analysieren und die Abläufe zeitlich zu messen. Die visuelle Darstellung des IST-Zustandes erfolgt mit Hilfe des Materialflusssimulators „d³FACT insight“. Auf der Basis dieses Simulationsmodells können die realen Abläufe nachgebildet werden. Es wird gemessen, wie lange jede Maschine braucht, um ihren Anteil in der Bearbeitung des Auftrages zu leisten. Die Analyse des vorhandenen Modells soll Schwachstellen aufzeigen.

Im nächsten Schritt soll ein geplanter SOLL-Zustand in einem weiteren Modell mit d³FACT dargestellt, analysiert und durch neuentwickelte Ablaufstrategien optimiert werden.

Im Anschluss werden die Simulationsergebnisse des IST- und SOLL-Zustandes miteinander verglichen. Anhand des Vergleiches sollen die Schwachstellen sichtbar werden und es kann somit das bessere ausgewählt werden.

(Diplomarbeit Antrittsvortrag)

Nermin Junuzovic , Universität Paderborn

10. Januar 2007, 14:30 Uhr, F1.110

Praktische Berechnung des geometrischen Verdeckungsgrads einer virtuellen Szene

Bei der Bilddarstellung ist die Sichbarkeitsbestimmung auch mit heutigen Verfahren sehr aufwendig. Um aus einer virtuellen Szene Objekte darzustellen gibt es verschiedene Ansätze die dabei angewendet werden. Eines der Verfahren die bei der Sichtsbarkeitsberechnungen benutzt wird, ist das Objektansichten aus verschiedenen Sichtpunkten, sogenannten Zellen, betrachtet werden. Dabei werden die Ansichten durch die Knoten eines Aspekt-Graphen repräsentiert. Mit Kanten werden die Knoten verbunden die benachbarten Ansichten präsentieren.
Bei der Konstruktion von Aspekt-Graphen, einen Graphen der aus VSP (Viewpoint Space Partition) hervor geht, wird der gesamte Raum in Zellen unterteilt, von denen aus nur gleiche Ansichten des zu betrachtenden Objektes dargestellt werden. Die Zellen die gleiche Ansichten repräsentieren, werden zusammengefasst.
Das Ziel dieser Arbeit besteht darin, für verschiedene virtuelle Szenen, Zellen zu konstruieren und daraus den geometrischen Verdeckungsgrad einer virtuellen Szene zu berechnen. Es werden sowohl für 2D- als auch für 3D-Szenen, Zellen konstruiert mit perspektivischer als auch orthographischer Sicht. Der Schwerpunkt der Arbeit liegt darin, eine prototypische Implementierung ausgewählter Algorithmen durchzuführen. Die verschiedenen Algorithmen werden danach, durch einen Benchmark, verglichen.

(Diplomarbeit Antrittsvortrag)

Tobias Koch , Universität Paderborn

10. Januar 2007, 14:00 Uhr, F1.110

Vergleichende Evaluation zweier Methoden zur Berechnung von Inverser Kinematik

Im Bereich der Robotik und der Simulation von so genannten kinematischen Ketten, durch Gelenke verbundene bewegliche Elemente, ist das exakte Ansteuern einer Position im Raum mit dem letzten Element von großer Wichtigkeit. Die hierbei entstehenden Probleme sind aufgrund der Abhängigkeit der einzelnen Gelenke voneinander durch besondere Komplexität geprägt. Die Berechnung der zur Positionierung erforderlichen Gelenkwinkel, also die Zuordnung einer räumlichen Position zu einer bestimmten Konfiguration der kinematischen Kette, wird unter dem Begriff der Inversen Kinematik zusammengefasst.

Im Rahmen dieser Arbeit wurden mit der Berechnung durch Jacobi-Matrizen und mittels Cyclic Coordinate Descent (CCD) zwei solche Verfahren vorgestellt und innerhalb eines bestehenden Softwareprojektes zur Visualisierung simulierter Produktionsumgebungen implementiert. Auf Basis dieser Implementierung wurde eine Evaluation der beiden Algorithmen hinsichtlich verschiedener Anwendungsszenarien vorgenommen und die Vor- und Nachteile erläutert.

(Studienarbeit)

Tobias Germer, Universität Magdeburg

20. Dezember 2006, 14:00 Uhr, F1.110

Orthant Neighborhood Graphs - Ein dezentralisierter Ansatz für dynamisches Range-Searching

Dieser Vortrag stellt einen dezentralisierten Ansatz für Nachbarschaftsabfragen in dynamischen Punktmengen vor. Eine verbreitete Fragestellung bei Partikelsystemen besteht darin, alle Nachbarn in einer definierten Umgebung oder den nächsten Nachbarn für einen Partikel zu finden. Ich präsentiere einen alternativen Ansatz zu etablierten Methoden, wie kD- oder Octrees.

Basierend auf Weak Spanners stelle ich den Begriff der "Orthant Neighborhood Graphs" vor, um eine einfache, dezentralisierte Datenstruktur zu konstruieren. Darauf aufbauend erläutere ich verschiedene Algorithmen für das Einfügen, Löschen und Bewegen von Punkten, sowie für Range-Searching und andere Nachbarschaftsabfragen. Alle Algorithmen arbeiten in der lokalen Nachbarschaft der Abfragepunkte und sind daher unabhängig von der globalen Punktmenge. Durch die Ausnutzung von lokalen Operationen und räumlicher Kontinuität lassen sich ONGs gut auf große Punktmengen anwenden. Das Ergebnis präsentiert der Vortrag in einer Live-Demonstration.

Mario Vodisek, Universität Paderborn

13. Dezember 2006, 14:00 Uhr, F1.110

RW-Codes and INSANE, a high-dynamic, fault-tolerant file system

Erasure resilient coding have indisputable importance concerning data availability in many application areas. Mostly, erasure coding schemes are required to efficiently react on occurred erasures at decoding time. In contrast to other applications, storage networks mainly feature erasures which are valid for a certain period of time, e.g. missing or blocked hard disks. Therefore, a fixed set E of such long-term erasures often can be considered at encoding time already. Furthermore, since the time interval between storing (writing) and reading (decoding) an encoded portion of information might become quite large, the set E can have changed in the meantime to E' at decoding time. There is no erasure coding scheme known to us which is able to anticipate those erasures and react appropriately to the sets E and E'.

In this talk, I will introduce Read-Write-Coding-Systems to overcome this problem. The presented codes can decode the information consisting of n symbols from any r symbols and write to any w symbols for modifying the encoded m symbol block,  n <= r,w <= m. Furthermore, the high-dynamic, fault-tolerant file system INSANE will be presented at a glance. INSANE is  designed to be the first prototype of a file system which is located at the file level of some existing network and that  provides collision free multi-client-access on one hand, and in which each file is distributed by the Read-Write-Codes throughout the set of connected peers.

Sebastian Ritter, Universität Paderborn

6. Dezember 2006, 14:00 Uhr, F1.110

Animation von Pflanzenmodellen mit L-Systemen und Vertex-Shadern

Animierte Darstellungen von Pflanzen sorgen in Computerspielen für mehr Spannung, in Systemen für Landschaftsplanung und in der Filmproduktion für mehr Realismus. Inspiriert durch Erkenntnisse aus der Biologie ist es heute möglich, mittels kompakter Codes sehr komplexe Modelle zu beschreiben, z.B. den Genen werden solche Eigenschaften zugerechnet. L-Systeme sind eine Formalisierung solcher Codes und eignen sich nebenbei auch bestens zur Erzeugung von 3D-Modellen in der Computergrafik. Sie werden so erweitert, dass nun auch ein Bewegungsverhalten spezifiziert werden kann. Mit Hilfe von L-Systemen werden Szenengraphen erzeugt. Die eigentliche Animation wird mittels Vertex-Shader-Programmen auf der Grafikkarte berechnet.

(Studienarbeit)

Sven Köhler, Universität Paderborn

29. November 2006, 14:00 Uhr, F1.110

Zur Praktikabilität schneller Polynomarithmetik 

Die Anwendungen schneller Polynomarithmetik, d.h. Algorithmen mit subquadratischer Laufzeit, liegen z.B. in der Kryptographie aber auch in der Physik (N-Teilchen Simulation). Die geplante Diplomarbeit widmet sich der Untersuchung verschiedener Varianten der schnellen Polynommultiplikation und der darauf aufbauenden Algorithmen zur Invertierung, Division mit Rest und schnellen Mehrfachauswertung. Sie soll die Praktikabilität der Algorithmen unter verschiedenen Aspekten untersuchen: Laufzeit (Break-Even-Points, Hybridisierung) und numerischer Stabilität, experimentell wie grundsätzlich (reelle Berechenbarkeit im Sinne der Rekursiven Analysis).

(Diplomarbeit Antrittsvortrag)

Dominik Blattner, Universität Paderborn

22. November 2006, 14:00 Uhr, F1.110

Experimentelle Analyse zur Oberflächendefinition mittels Nachbarschaftsgraphen

Diese Studienarbeit hat das Ziel eine gerenderte Punktwolke im 3D Raum zu analysieren. Wir betrachten dazu Oberflächen, die mittels der 'weighted-least-squares' Technik definiert werden, und wollen zeigen, dass ein geodätischer Kernel [KZ04] in dieser Oberflächendefinition einem einfachen, euklidischen Kernel in den meisten Fällen überlegen ist. Für die Implementierung wurde dabei mit Hilfe von C++ und OpenGL ein Programm geschrieben, dass die Visualisierung eines Fehlermaßes (dem Root Mean Square Error) und genaue Untersuchungen ermöglicht. Dabei gilt, umso kleiner der RMSE, umso besser ist die Qualität der rekonstruierten Punktwolke.

(Studienarbeit)

Bastian Degener, Universität Paderborn

15. November 2006, 14:00 Uhr, F1.110

Theoretische Analyse von Estimation of Dististribution Algorithms

Estimation of Distribution Algorithms (EDAs) sind eine Variante von Evolutionären Algorithmen (EAs), die wiederum allgemeine Metaheuristiken für Optimierungsprobleme sind. Lange Zeit wurden sowohl EAs als auch EDAs nahezu ausschließlich experimentell untersucht und der theoretische Unterbau fehlte. Für das Verständnis der Funktionsweise dieser Algorithmen und für das Design von Metaheuristiken in der Zukunft sind rigorose mathematische Beweise neben experimentellen Ergebnissen aber durchaus wichtig. Für EAs gibt es seit einiger Zeit rigorose Analysen. Das ist bei den EDAs, die erst später entwickelt wurden, noch nicht der Fall und der Prozess der theoretischen Analyse steht noch ganz am Anfang. Da sich EAs und EDAs strukturell ähneln, besteht die Hoffnung, dass die Analysetechniken, die für EAs entwickelt wurden, sich in modifizierter Form auch für die Analyse von EDAs eignen. In diesem Vortrag soll exemplarisch eine Vorgehensweise gezeigt werden, wie man einen Zugang zu dieser Klasse von Heuristen bekommen kann

Claudius Jähn, Universität Paderborn

8. November 2006, 14:00 Uhr, F1.110

Sichtpunktabhängiges Occlusion-Culling in komplexen 3D-Szenen

Die effiziente Echzeitdarstellung einer 3D-Szene in einem Walkthroughsystem kann auch mit moderner Grafikhardware nicht für beliebig komplexe Szenen gewährleistet werden. Ein Ansatz um diesem Problem zu begegnen ist Occlusion-Culling, wobei verdeckte Bereiche der Szene erkannt werden und so nicht mehr gezeichnet werden müssen. Jedoch kann sich der Einsatz eines bestimmten Occlusion-Culling-Algorithmus auch negativ auf die Renderinggeschwindigkeit auswirken, nämlich dann, wenn am aktuellen Sichtpunkt die Erkennung der verdeckten Bereiche länger dauert als die Einsparung durch das Weglassen der verdeckten Bereiche. Könnten solche Sichtpunkte effizient erkannt werden bevor ein Occlusion-Culling durchgeführt wird, könnte hier die Performance durch ein Auslassen des Cullings verbessert werden.

In diesem Antrittsvortrag zu einer Diplomarbeit wird der untersuchte Occlusion-Culling-Algorithmus näher erläutert und erste Ansätze zu einer Ermittlung sichtpunktabhängiger Szeneneigenschaften aufgezeigt, die zu einer Entscheidung für oder gegen das Occlusion-Culling herangezogen werden können.

(Diplomarbeit Antrittsvortrag)

Christian Hornkamp, Universität Paderborn

11. Oktober 2006, 14:00 Uhr, F0.231

Mobilität bei Sensornetzwerken in der Büroumgebung

Der Vortrag ist ein Antrittsvortrag zu einer Diplomarbeit welche sich mit Sensornetzwerken beschäftigt, die speziell in mobilen Szenarien eingesetzt werden sollen. Als ein handfestes Beispiel wurde die Büroumgebung in der Fürstenallee gewählt. Zum Einsatz kommen hierbei Sensorknoten die an der UC Berkeley entwickelt wurden. Diese Hardware und das darauf angepasste Betriebssystem wird vorgestellt. Auf dieser Grundlage wurde bereits eine erste, einfache Testanwendung geschrieben und ein praktisches Experiment durchgeführt. Die Implementierung und Ergebnisse hiervon werden im Vortrag veranschaulicht. Ausserdem wird ein Überblick über Ideen gegeben welche ausserdem in der Diplomarbeit verwirklicht werden sollen. Unter anderem soll eine Idee des 1QK Protokolls für das mobile Szenario adaptiert werden, desweiteren soll die Paketverlustrate durch Nutzung des Flashspeichers der Knoten gesenkt werden.

(Diplomarbeit)

Petra Berenbrink, Simon Fraser University

4. Oktober 2006, 14:00 Uhr, F1.110

Distributed selfish load balancing

Suppose that a set of $m$ tasks are to be shared as equally as possible amongst a set of $n$ resources. A game-theoretic mechanism to find a suitable allocation is to associate each task with a ``selfish agent'', and require each agent to select a resource, with the cost of a resource being the number of agents to select it. Agents would then be expected to migrate from overloaded to underloaded resources, until the allocation becomes balanced.

Recent work has studied the question of how this can take place within a distributed setting in which agents migrate selfishly without any centralized control. In this paper we discuss a natural protocol for the agents which combines the following desirable features: It can be implemented in a strongly distributed setting, uses no central control, and has good convergence properties.
We show using a martingale technique that the process converges in expected time $O(\log\log m+n^4)$. We also give a lower bound of $\Omega(\max\{\log\log m,n\})$ for the convergence time, as well as an exponential lower bound (in $n$) for a variant of this protocol that allows the agents to migrate even if they do not strictly improve their situation.

Summer Term 2006

Dan Feldman, Tel-Aviv University

13. September 2006, 14:00 Uhr, F1.110

Coresets for Weighted Facilities and Their Applications (FOCS 2006, to appear)

We present efficient (1+epsilon)-approximation algorithms for generalized facility location problems. Such facilities are not restricted to being points in R^d, and can represent more complex structures such as linear facilities (lines in R^d, j-dimensional flats), etc. We introduce coresets for weighted (point) facilities. These prove to be useful for such generalized facility location problems, and provide efficient algorithms for their construction. Applications include: k-mean and k-median generalizations, i.e., find k lines that minimize the sum (or sum of squares) of the distances from each input point to its nearest line. Other applications are generalizations of linear regression problems to multiple regression lines, new SVD/PCA generalizations, and many more. The results significantly improve on previous work, which deals efficiently only with special cases. Open source code for the algorithms is also available.

The work is part of the speaker's Ph.D under the supervision of Prof. Amos Fiat and Prof. Micha Sharir.

Harald Räcke, Toyota Technological Institute at Chicago (TTI)

30. August 2006, 14:00 Uhr, F1.110

Oblivious Network Design

Consider the following network design problem: given a network=20 G =3D (V,E), source-sink pairs {s_i, t_i} arrive and desire to send a unit of flow between themselves. The cost of the routing is this: if edge e carries a total of f_e flow (from all the terminal pairs), the cost is given by $\sum_e \load(f_e)$, where $\load$ is some concave cost function; the goal is to minimize the total cost incurred.  However, we want the routing to be oblivious: when terminal pair {s_i, t_i} makes its routing decisions, it does not know the current flow on the edges of the network, nor the identity of the other pairs in the system. Moreover, it does not even know the identity of the function \load, merely knowing that \load is a concave function of the total flow on the edge.  How should it (obliviously) route its one unit of flow?  Can we get competitive algorithms for this problem?

In this talk we show that it is possible to design routing schemes that for a large variety of different cost-functions and all demand-patterns  obtain close to optimum cost. This means that these routing schemes are  oblivious in two ways. They are demand-oblivious, in the sense that the  routing paths do not depend on the actual traffic-pattern; and they are  also function-oblivious in the sense that the routing paths do not depend  on the actual cost function.

This is joint work with Anupam Gupta and Mohammad Thaghi Hajiaghayi.

Philipp Schengbier, Universität Paderborn

23. August 2006, 14:00 Uhr, F1.110

Ein paralleler Algorithmus für das Subset-Sum-T Problem

In diesem Vortrag wird ein paralleler Algorithmus für das Subset-Sum-T Problem unter Verwendung des BSP-Models (Bulk Synchronous Parallel) vorgestellt. Beim Subset-Sum-T Problem handelt es sich um ein Entscheidungsproblem. Dabei wird für eine Menge M, bestehend aus natürlichen Zahlen, untersucht, ob es eine Teilmenge X aus M gibt, deren Elemente summiert genau einen Wert T ergeben.

Der vorgestellte Algorithmus hat bei einer Menge M mit n Elementen und unter Verwendung von p Prozessoren, eine Laufzeit von O((2^n)/p) im Worst-Case. Zusätzlich werden noch Untersuchungen zum Verhalten im Average-Case vorgestellt.

(Studienarbeit)

Studierende der Projektgruppe Pares-Pro, Universität Paderborn

16. August 2006, 14:00 Uhr, F1.110

Projektgruppe »Paralleles Rendern und Simulieren von komplexen Produktionsszenarien«

Firmen, die neue Produktions- und Werkstätten bauen, sind darauf angewiesen, diese im Vorfeld umfassend zu planen und Arbeitsabläufe hinsichtlich ihrer Effizienz und Produktivität zu simulieren. Die Simulationen sollten dabei ansprechend visualisiert werden. Ziel der Projektgruppe Parespro war es, ein System zu entwickeln, das Arbeitsabläufe und Produktionsszenarien dreidimensional darstellt. Der Benutzer soll sich frei in der Szene bewegen können, um in der Lage zu sein, interessante Details näher zu betrachten. Bei komplexen Szenen stößt ein Echtzeit-Renderingsystem jedoch schnell an seine Grenzen. Daher rendern wir die Szene parallel auf einem Cluster, wofür sie zu Beginn segmentiert und auf die einzelnen Renderknoten verteilt und nach dem Rendervorgang als zweidimensionales Bild wieder zusammengefügt werden muss. Auch ist das System in der Lage, Simulationen mit unterschiedlichen Konfigurationen (Universen) gleichzeitig darzustellen, um einen direkten Vergleich zwischen diesen Simulationen zu ermöglichen. Der Benutzer kann durch Klicken auf die Objekte Statusinformationen abrufen und weitere Visualisierungsmodi hinzuschalten.

Thomas Janson, Universität Paderborn

21. Juli 2006, 11:30 Uhr, F1.110

Implementation of Pointer-Push&Pull operation for maintenance of Random Graphs in Peer-to-Peer Networks

In this bachelor thesis the implementation of a Peer-to-Peer Network is presented. The structure of this overlay network is random. The Pointer-Push&Pull operation is used to keep the network randomly and to maintain the the connectivity of the network. In contrast to other Peer-to-Peer Networks a random network does not provide with its simple structure the ability for a search function and it can only be used to connect applications in a certain limited context. An example for the usage is a Peer-to-Peer Network with a top-down approach. So in the normal case an application uses several peers for the connection to several random networks with different contexts. For this purpose a framework for a communication model for Peer-to-Peer Networks is shown first which allows to use many independent working peers at the same time and tries to solve the network communication between the peers in general. Finally a broadcast service is introduced which can be used by a peer and is able to spread rumors in an arbitrary overlay network. In this service the push-pull-scheme is used to spread the rumors and the median-counter algorithm is used stop the broadcast of a rumor again.

(Studienarbeit)

Ralf Petring, Universität Paderborn

19. Juli 2006, 14:00 Uhr, F1.110

Ein Renderingverfahren zur punktuellen Approximationssteuerung in nicht echtzeitfähigen Szenen

In der Computergrafik treten immer häufiger hoch detaillierte Modelle auf, welche nicht in Echtzeit gerendert werden können. Ein Ansatz zur Lösung dieses Problems ist die Approximation der Modelle, so dass höhere Frameraten erzielt werden können, ohne dass der Benutzer den Unterschied zum Original bemerkt. Hierzu sind bereits Methoden entwickelt worden, die es auch zur Laufzeit erlauben, dass Approximationslevel auf Objekt- oder Polygonbasis kontinuierlich zu steuern. Diese Methoden legen jedoch stets den Schwerpunkt auf die Qualität der Approximation.

In dieser Arbeit liegt der Schwerpunkt auf der Lokalität der Approximatiossteuerung, wobei bewusst Qualitätsverluste hingenommen werden. Dadurch können noch größere Szenen dargestellt werden, indem nur die für den Benutzer signifikanten (Teil-) Objekte in guter Qualität dargestellt werden. Des Weiteren kann durch diese Art der Darstellung die Aufmerksamkeit des Benutzers gezielt auf bestimmte Teile der Szene gelenkt werden.

(Antrittsvortrag Diplomarbeit)

Tim Süß, Universität Paderborn

19. Juli 2006, 14:30 Uhr, F1.110

Modellentwicklung zu verschiedenen parallelen Renderverfahren

Die Anzahl der Polygone von 3D-Modellen und die Anzahl der Objekte in 3D-Szenen steigt ständig an, um eine immer höhere Detailierung zu erreichen. Dazu werden große Modelle als viele kleine Einzelobjekte erstellt, welche später zu einem Gesamtobjekt kombiniert werden. Selbst moderne Rechner sind alleine nicht mehr Leistungsfähig genug, um diese Szenen in ihrer Gesamtheit anzuzeigen und durch sie zu navigieren. Durch eine parallele Bearbeitung der Bilder und schnelle Netzwerke, kann die Rechenlast auf viele Rechner verteilt werden. Dadurch kann eine höhere Framerate erzielt werden.

Ziel dieser Arbeit ist es, Rechen- und Vorhersagemodelle für verschiedene erfahren der parallelen Bildbearbeitung zu entwickeln. Dazu werden verschiedene parallele Renderverfahren für Clustersysteme implementiert und miteinander verglichen. Dabei werden sowohl konservative als auch approximative Verfahren untersucht.

(Antrittsvortrag Diplomarbeit)

Christian Sohler, Universität Paderborn

12. Juli 2006, 14:00 Uhr, F1.110

Datenstromalgorithmen für Clustering Probleme

In den letzten Jahren sehen wir uns immer häufiger mit sehr großen Datenmengen konfrontiert. Typische Beispiele sind der Webgraph, Netzwerkdatenverkehr, Clickstreams, das menschliche Erbgut, usw. Häufig treten diese Daten in Form von Datenströmen auf. Meist wollen wir dann nur eine Skizze der gesehenen Daten aufrechterhalten und nicht den gesamten Datenstrom speichern. Diese Skizze soll uns Aufschluss über die grobe Struktur des Datensatzes geben.

Ein häufig verwendetes Verfahren zur Analyse der Struktur von Datensätzen ist Clustering. In meinem Vortrag werde ich daher am Beispiel des k-Means Clustering Problems erläutern, wie man einen Datenstromalgorithmus für ein Clustering Problem entwickeln kann. Das Hauptwerkzeug wird dabei die Konstruktion einer sogenannten Kernmenge sein. Dabei handelt es sich um eine kleine gewichtete Punktmenge, die die Ausgangspunktmenge bzgl. der k-Means Zielfunktion bis auf einen Faktor von (1+epsilon) approximiert.

Joachim Gehweiler, Universität Paderborn

5. Juli 2006, 14:00 Uhr, F1.110

Distributed Load Balancing in Heterogeneous Peer-to-Peer Networks for Web Computing Libraries

We present a novel architecture for distributed computing in a peer-to-peer network. In particular, we realize the Paderborn University BSP-based Web Computing Library (PUBWCL), which formerly used a centralized client-server architecture for scheduling and load balancing, as a pure peer-to-peer system. Using distributed heterogeneous hash tables (DHHT), our architecture features scheduling and load balancing of tightly coupled, massively parallel algorithms in the bulk-synchronous (BSP) style with a minimal number of migrations.

Furthermore, our architecture is capable of heterogeneous BSP programs whereas the former version of PUBWCL could only handle homogeneous BSP programs.

Morteza Monemizadeh, Universität Paderborn

28. Juni 2006, 14:00 Uhr, F1.110

From Counting Triangles in Streams to Projective Clustering in High Dimensions by Passing over Approximate Nearest Neighbor

N.N.

Michael Kortenjan, Universität Paderborn

28. Juni 2006, 14:30 Uhr, F1.110

Realtime Rendering of CAD Models in Industrial Scenes

Over the past few years capabilities of modern graphic cards increased noticeably, but large amounts of polygons still exceed the limits of nowadays graphics hardware. 3D models of industrial machines obtained from CAD systems consist of thousands of triangles. Displaying an industrial scene in its entirety takes several seconds for one frame. But for navigation through the scene interactive frame rates are needed. This can be achieved by only rendering a subset of the scene. Since most details of complex models are not identifiable from a distance omitting them has only a small impact on the final image.

To obtain a frame rate independent of the viewers position we render a fixed number of triangles. Each object is assigned a wheight depending on its size and distance to viewer to determine the number of triangles this object receives. SEC-Trees are a suitable data structure to choose which triangles of an object are rendered.

Peter Pietrzyk, Universität Paderborn

21. Juni 2006, 14:00 Uhr, F1.110

Self organizing communication chains

Suppose you have two nodes that can communicate with each other over a limited range. The communication between these two nodes must be maintained all the time. One of them is stationary and the other changes its position constantly. To allow the moving node to leave the communication radius of the stationary node further nodes are introduced to the system. These new nodes are used to relay the communication signal between the two original nodes. Since one of the original nodes is constantly moving and since we want to keep the number of nodes in the system minimal, the new nodes need to change their positions too. To calculate their movement the new nodes can only use local data, i.e. they only know the positions of their direct neighbours in the node chain and know nothing about the other nodes? positions. The aim of this talk is to introduce and analyse strategies for the movement of the communication signal relaying nodes.

(Studienarbeit)

Christiane Lammersen, Universität Paderborn

21. Juni 2006, 14:30 Uhr, F1.110

Online Geometric Reconstruction

In online geometric reconstruction, one is given access to a large geometric dataset through a query mechanism. The dataset is assumed to satisfy some known structural property P. Unfortunately, because of noise and errors, an unknown fraction of the queries provide answers that are in violation with the expected property. Hence, one needs a filter that modifies the query's answers so that the output satisfies P and the "filtered" data differs as little as possible from the original "noisy" data.

In this talk, I will present an efficient filter for reconstructing the convexity of a simple polygon.

Gunnar Schomaker, Universität Paderborn

7. Juni 2006, 14:00 Uhr, F1.110

$\Phi$ based deterministic decomposition of an unit ring $M$

in this talk we present an ongoing joint work with M. Dynia and J. Kutylowski. The idea of decomposing a unit ring in a deterministic way was motivated by the fact that random methods for decomposing $M$ are working proper for sufficient large number of nodes. Thus for a small number of nodes the implementation efficiency decreases crucial, caused by the overhead generated by random side effects. We will show how the basic deterministic algorithm works and which obvious smoothness bounds it has. In this area the smoothness defines the ratio of the longest and shortest interval $I_max/I_min$, where a worst case smoothness of $2$ is easy to obtain if determinism is used. So the fight against a constant has started and we believe we can beat it with a worst case ratio of $\approx 1.6$.

Jens Krokowski, Universität Paderborn

7. Juni 2006, 14:30 Uhr, F1.110

An Experimental Evaluation of the Pipeline Buffer

Most rendering applications for large 3D scenes have implemented visibility-culling techniques. Usually, the created streams of primitives that are send through the rendering pipeline are spatial sorted and contain many state changes, i.e., the same texture is set very often within such a stream. The pipeline buffer can be used to resort these streams online in such a way that the number of state changes is minimized.

In this talk I will present the experimental results of the evaluation of the pipeline buffer. More precisely, I analyzed the performance of some selection strategies for input streams with random distributed states and derive a formula for estimating the number of reduced state changes.

Philipp Woelfel, University of Toronto

31. Mai 2006, 14:00 Uhr, F1.110

Asymmetric Balanced Allocation with Simple Hash Functions

Suppose we throw n balls into n bins, choosing each bin independently at random for every ball. A classical result of probability theory states that then the most heavily loaded bin has a load of approximately ln n/ln ln n with high probability. If the balls are inserted sequentially, we can improve on that by choosing for each ball two bins at random, and placing a new ball in the least loaded bin among its two choices. With such multiple choices we can achieve an exponential improvement: the height of the most heavily loaded bin is only O(ln ln n) with high probability. This even works dynamically, i.e., if we are allowed to insert and remove balls sequentially, as long as the maximum number of balls does not exceed n.

Due to a large number of applications such as load balancing, data allocation or hashing with chaining, such balls into bin games have been investigated extensively. However, in several applications (most prominently hashing with chaining), the bin choices for the balls must be determined by hash functions. For this case the theory does not work anymore because we usually don't achieve complete independence with random hash functions. Another problem is that for one fixed ball the possible bin locations (now determined by hash functions) do not change even if we remove the ball and reinsert it later again.

We reanalyze the "best" multiple choices balls into bin variant, described by Vöcking (2003), and show that it even works with simple randomly constructed hash functions (introduced by Dietzfelbinger and Woelfel 2003). This is the first analysis showing that random hash functions with sublinear space requirements and constant evaluation time can be used for dynamic balls into bin games achieving an O(ln ln n) maximum load. Contrary to many hash function constructions which attempt to achieve a high degree of independence, the hash functions used here are even practical, i.e. they can be evaluated with only a few arithmetic operations and table lookups.

This result was presented at SODA06.

Nicolas Heine, Universität Paderborn

24. Mai 2006, 14:00 Uhr, F1.110

Network Coding für Peer-to-Peer-Netzwerke

Network Coding bietet eine Möglichkeit, grosse Datenmengen effizient von (mindestens) einer Quelle an alle anderen Netzwerkteilnehmer zu übertragen. In dieser Studienarbeit haben wir Network Coding mit zufälligen Linearfaktoren auf einem zufallsgraph-basierten Peer-to-Peer-Netzwerk angewand. Der verwendete Zufallsgraph ist ein Multigraph mit regulärem, frei wählbarem, Ausgangsgrad. Dabei wird der Zufallsgraph zufällig gehalten, indem wir in regelmässigen Intervallen eine Graphtransformationsfunktion genannt Push&Pull aufrufen. Dadurch erreichen wir eine sehr gut skalierbare und robuste Kommunikationsstruktur für das Peer-to-Peer-Netzwerk. Wir haben einen Algorithmus implementiert, der es uns erlaubt, einen Teil der Berechnungen für das Coding auf den kompletten Downloadzeitraum zu verteilen. Hierdurch wird die CPU-Last geringer und längere Wartezeiten zum Decodieren werden vermieden.

(Studienarbeit)

Jan Mehler, Technische Universität Ilmenau

22. Mai 2006, 14:15 Uhr, F2.211

Certifying Polynomial Time and Linear/Polynomial Space for Imperative Programs

It is well known that it is not decidable whether the functions computed by a given program belong to a certain complexity class. Despite this fact we describe a method for the static analysis of the resource requirements of imperative programs. Imperative program thereby means a generalization of loop-programs, which is enhanced by (nearly) any data types and imperatives. The only premise regarding data types is that a natural definition of the “size”\' or “length” |X| of a variable X of a certain data type exists. Regarding an imperative imp(P_1, …, P_m) it is required that the size of each i/o-parameter is polynomial bounded. This means that for each i/o-parameter P_i a polynomial imp_{|P_i|}(p_1, …, p_m) exists, so that the size of the value returned in P_i is lower or equal to imp_{|P_i|}(|P_1|, …, |P_m|).

The formal problem we investigated is whether every variable of a given imperative program is “polynomial size bounded”. This means it is to be decided whether for each variable X_i of a program P, which uses variables X_1, …, X_n, a polynomial p_{X_i}(x_1, …, x_n) exists, satisfying: {|X_1| = s_1, …, |X_n| = s_n} P {|X_i| <= p_{X_i}(s_1, …, s_n)}. It can be proven that this problem is also undecidable. Nevertheless, we describe a “certifier” of polynomial size boundedness of imperative programs called M\'. This certifier can automatically proof that a given imperative program is polynomial size bounded, but can not proof the converse.

Finally we introduce three concrete imperative programming languages: general loop programs, string programs and power string programs. It can be shown that by M\' certified general loop programs compute exactly the functions in FLINSPACE, that by M\' certified string programs compute exactly the functions in FP, and that by M\' certified power string programs exactly calculate the functions in FPSPACE.

Miroslaw Dynia, Universität Paderborn

3. Mai 2006, 14:00 Uhr, F1.110

Smart Robot Teams Exploring Sparse Trees

An n-node tree has to be explored by a group of k mobile robots initially deployed at one node. The graph is not known in advance and a robot traverses an edge to recognize a new part of the graph. The goal is to minimize overall time of the exploration. The best known algorithm achieves competitive ratio of k/logk which is only slightly better than the trivial k-competitive algorithm. Moreover it requires global communication.

We present sqrt(D)-competitive algorithm (D is the height of the tree) for trees which can be embedded in a planar grid. Our algorithm requires only very local communication. Furthermore we extend this result to an arbitrary tree with a small density.

Olaf Bonorden, Universität Paderborn

3. Mai 2006, 14:30 Uhr, F1.110

A Parallel System-On-Chip for Bulk Synchronous Parallel Computing

Due to the technological progress more and more transistors can be placed on a single die. One way to utilize this power is to implement a parallel system with many processing units. In this talk we will discuss different design issues, e.g. the on-chip interconnection network. We introduce our system design and present a tool chain (compiler and several simulators) as well as an implementation of a small BSP library. Because of the parameters of the system (small memory, high computation power, high bandwidth) design seems to be suitable for many applications in the area of streaming algorithms.

Vladimir Koutny, Comenius University, Bratislava, Slovakia

26. April 2006, 14:00 Uhr, F1.110

1QK: Large-Scale Sensor Network Experiment

We extend previous work on 1QK routing protocol by performing several experiments with real hardware (50 motes) in various real-world scenarios, including a supermarket as an originally planned deployment. Based on the results we focus on several aspects of the protocol in order to improve its performance and reliability. Scalability aspects are also of a great importance since the full potential of such a network arise with thousands of sensors.

Winter Term 2005 / 2006

Mario Vodisek, Universität Paderborn

22. März 2006, 14:00 Uhr, F1.110

Erasure Codes for Reading and Writing

Erasure (resilient) codes transform a message of /n/ blocks chosen from a finite set S into a set of /m/ > /n/ blocks from the set S. Such a transformation allows to reconstruct from any set of /r/ blocks from the /m/ block code the original /n/ block message, where /n/ <= r < /m/. Usually, such codes have been widely utilized for communication purpose and in peer-to-peer content distribution systems where quick encoding/decoding and recovery in case of lost portions of some message or document is of paramount concern.

In contrast, in distributed storage environments, like large RAID arrays or storage area networks (SANs), data is frequently modified are hence, such systems are highly read *and write* intensive. The traditional approaches to achieve availability and reliability here are either complete replication or applying some coding, like RAID or Reed-Solomon in which a document is split into portions which are mixed up with some additional redundancy portions to form an encoding that is then distributed among several storage systems . On one hand, such codes are efficient for reading and recovery but on the other hand, writing is inefficient because the complete stored encoding has to be rewritten if the document is modified. In this talk we overcome this limitation by introducing a coding scheme for general erasure codes for reading and writing.

Joachim Gehweiler, Universität Paderborn

15. März 2006, 14:00 Uhr, F1.110

A Constant Time Distributed Algorithm for the Uniform Facility Location Problem

We present a randomized constant factor approximation algorithm for the metric minimum facility location problem with uniform costs and demands in a distributed setting, in which every point can open a facility. In particular, our distributed algorithm uses three communication rounds with message sizes bounded to O(log n) bits where n is the number of points. We also extend our algorithm to constant powers of metric spaces, where we also obtain a randomized constant factor approximation algorithm.

Benjamin Wehe, Universität Paderborn

8. März 2006, 14:00 Uhr, F1.110

Ein K-Means basierter Algorithmus zur Graph-Partitionierung

Das Clustern von Anwendungsdaten ist ein in der Praxis oft auftauchendes Problem. Diese Studienarbeit untersucht die Möglichkeiten eines k-means basierten Algorithmus zum Clustern von Graphen, die Eingabedaten für eine Multiprozessoranwendung darstellen. An eine Partition des Graphen sind besondere Anforderungen gestellt, wie zum Beispiel die Ausgewogenheit der Clustergrößen und einen möglichst geringen Schnitt. Das vorgestellte Verfahren benutzt zwei Phasen. Der eigentliche K-Means Algorithmus mit einer an Graphen angepassten Suche des Zentrums wird eine Partition erstellen, und ein zweiter Teil des Vefahrens wird die erstellte Partition bezüglich der Clustergrößen an die Anforderungen anpassen.

(Studienarbeit)

Sven Kindermann, Universität Paderborn

10. Februar 2006, 11:00 Uhr, F0.231

Consistent Hashing

Der Vortrag ist ein Beitrag zum Seminar »Perlen der Theoretischen Informatik«.

Hashing bietet eine Möglichkeit, das Wörterbuchproblem zu lösen. Dabei werden Datenelemente effizient gespeichert. Die Funktionen Ändern, Einfügen und Löschen sind in O(1) ausführbar. Es wird durch eine Berechnung die Speicheradresse des jeweiligen Elementes berechnet. Bei statischen Hashverfahren treten Kollisionen auf, falls die Anzahl zu speichernder Elemente größer ist als der zur Verfügung stehende Speicherplatz. In einem P2P Ansatz oder im Internet allgemein, wo Rechner ständig ausfallen oder hinzukommen können (siehe Gnutella), existiert keine globale Sicht und klassische Hashverfahren versagen. Werden nun neue Server, zum Beispiel im Internet, hinzugefügt, um den Speicherplatz zu erhöhen, müssen klassische Hashverfahren die Speicherposition für jedes einzelne Element neu berechnen. Da diese Methodik der klassischen Verfahren ineffizient ist, gibt es dynamische Hashverfahren. Consistent Hashing ist ein solches Verfahren und kann die Probleme der Kollisionen und des sich ändernden Server-Sets lösen. Dieses Verfahren wird nachfolgend vorgestellt.

Projektgruppe S2NET (Sensor Networks)

3. Februar 2006, 14:00 Uhr, F1.110

Abschlussvortrag

The goal of the project group was to develop an application for sensor networks for managing wares in a supermarket. It informs the user of the amount of items in the supermarket shelves and raises an alarm if the number is beyond a certain threshold. The project group focused on energy efficiency, time synchronization for a newly developed TDMA MAC, topology control and reducing idle listening. The presentation includes also a demonstration of a prototype.

Peter Mahlmann, Universität Paderborn

11. Januar 2006, 14:00 Uhr, F1.110

Distributed Random Digraph Transformations for Peer-to-Peer Networks

We present a random local graph transformation for weakly connected multi-digraphs with regular out-degree which produces every such graph with equal probability. This operation, called Push&Pull, exchanges only two neighbored edges. Such an operation is highly desirable for a peer-to-peer network to establish and maintain well connected expander graphs as reliable and robust network backbone. In a network, the Push&Pull operation can be used in parallel without central coordination. A Push&Pull operation involves only two peers which have to exchange two messages, each carrying the information of one edge only.

We show that a series of random Push&Pull operations eventually leads to a uniform probability distribution over all weakly connected out-regular multi-digraphs. Depending on the probabilities used in the operation this uniform probability distribution either refers to the set of all out-regular multi-digraphs or to the set of all edge-labeled out-regular multi-digraphs. In multi-digraphs multiple edges or slopes may occur. In an out-regular digraph each node has the same number of outgoing edges.

For this, we investigate the Markov-process defined by the Push&Pull operation over the set of all weakly connected multi-digraphs. We show that a Push&Pull operation - although preserving weak connectivity only - can reach every weakly connected multi-digraph. The main argument follows from the symmetry of the Markov-process described by the Push&Pull operation over the set of all weakly connected out-regular multi-digraphs. So, the Push&Pull operation excels over other simple graph transformations like the Push operation and the Pull operation which are shortly discussed, too.

Gereon Frahling, Universität Paderborn

21. Dezember 2005, 14:00 Uhr, F1.110

Counting Triangles in Data Streams

We present two space bounded algorithms that with probability at least 1-delta compute a (1 + epsilon)-approximation of the number of triangles in an undirected graph given as a stream of edges. Both algorithms are based on random sampling. Our first algorithm does not make any assumptions on the order of edges in the stream. It uses space that is inversely related to the ratio between the number of triangles and the number of triples with at least one edge in the induced subgraph, and constant expected update time per edge. Our second algorithm is designed for incidence streams (all edges incident to the same vertex appear consecutively). It uses space that is inversely related to the ratio between the number of triangles and length 2 paths in the graph and expected update time O(\log | V | (1+s |V|/ | E | )), where s is the space requirement of the algorithm. These results significantly improve over previous work. We also show how to extend our algorithms to cliques of arbitrary size. Since the space complexity depends only on the structure of the input graph and not on the number of nodes, our algorithms scale very well with increasing graph size and so they provide a basic tool to analyze the structure of large graphs. They have many applications, for example, in the discovery of Web communities, the computation of clustering and transitivity coefficient, and discovery of frequent patterns in large graphs.

We implemented both algorithms and evaluated their performance on networks from different application domains. The sizes of the considered input graphs varied from about $8,000$ nodes and 40,000 edges to 135 million nodes and more than 1 billion edges. For both algorithms we run experiments with parameter s=1,000, 10,000, 100,000, 1,000,000 to evaluate running time and approximation guarantee. Both algorithms appear to be time efficient for these sample sizes. The approximation quality of the first algorithm was varying significantly and even for s=1,000,000 we had more than 10% deviation for more than half of the instances. The second algorithm performed much better and even for s=10,000 we had an average deviation of less than 6% (taken over all but the largest instance for which we could not compute the number of triangles exactly).

Joint work with Luciana Buriol, Gereon Frahling, Stefano Leonardi, Alberto Marchetti-Spaccamela, Christian Sohler

Jaroslaw Kutylowski, Universität Paderborn

14. Dezember 2005, 14:00 Uhr, F1.110

Competitively Maintaining Minimum Spanning Trees in Dynamic Graphs

We present the problem of maintaining a minimum spanning tree within a graph with dynamically changing edge weights. The motivation for this problem lies in maintaining connectivity within a mobile ad-hoc network, where minimum spanning trees are used to define optimal paths for communication. The optimality is defined in terms of the number of relaying stations needed for maintenance of the minimum spanning tree.

We compare the number of changes in the minimum spanning tree produced by an online algorithm and that produced by an optimal offline algorithm. We provide an optimal deterministic algorithm achieving a competitive ratio quadratic in the number of vertices in the minimum spanning tree.

Martin Tofall, Universität Paderborn

14. Dezember 2005, 14:30 Uhr, F1.110

Experimentelle Analyse eines Routingprotokolls für drahtlose Sensornetzwerke

Sensornetzwerke bestehen in der Regel aus voneinander unabhängig arbeitenden Sensorknoten, die drahtlos miteinander kommunizieren. Die Aufgabe dieser Knoten besteht zumeist in der Übermittlung von Meßdaten an eine zentrale Stelle. Zur effizienten Nutzung von Sensornetzwerken werden Protokolle benötigt, die deren speziellen Anforderungen gerecht werden. Im Rahmen dieser Studienarbeit habe ich das 1QK-Routingprotokoll, das in der Fachgruppe Algorithmen und Komplexität entwickelt wurde, auf Basis der ScatterWeb-Plattform implementiert und experimentell auf seine praktischen Eigenschaften hin untersucht.

(Studienarbeit)

Michael Kortenjan, Universität Paderborn

7. Dezember 2005, 14:00 Uhr, F1.110

Size Equivalent Cluster Trees - Realtime Rendering of Large Industrial Scenes

I am going to present a result accepted for Afrigraph 2006. Over the past few years capabilities of modern graphic cards increased noticeably, but large amounts of polygons still exceed the limits of nowadays graphics hardware. 3D models of industrial machines obtained from CAD systems consist of thousands of triangles. Displaying an industrial scene in its entirety takes several seconds for one frame. But for navigation through the scene interactive frame rates are needed. I present the SEC--Tree, a data structure to render large scenes. Each node of this tree represents a cluster and such a cluster contains triangles or complete 3D objects and smaller clusters. All elements in a cluster are approximately equally sized, where the size of a triangle is defined as its area, and where the size of a 3D object or a cluster is the sum of all triangle areas it contains. If the user is moving through the scene a subset of fixed size is choosen from all triangles contained in tree. Rendering only this subset results in interactive frame rates.

Mirek Korzeniowski, Universität Paderborn

30. November 2005, 14:00 Uhr, F1.110

Transparent Data Structures, or How to Make Search Trees Robust in a Distributed Environment

I am going to present a result that I will also present a week later at I-SPAN 2005. This is joint work with Christian Scheideler.

We propose a new class of memory models, called transparent memory models, for implementing data structures so that they can be emulated in a distributed environment in a scalable, efficient and robust way. Transparent memory models aim at combining the advantages of the pointer model and the linear addressable memory model without inheriting their disadvantages.

We demonstrate the effectiveness of our approach by looking at a specific memory model, called the hypertree memory model, and by implementing a search tree in it that matches, in an amortized sense, the performance of the best search trees in the pointer model yet can efficiently recover from arbitrary memory faults.

Arne Vater , Universität Paderborn

30. November 2005, 14:30 Uhr, F1.110

Topology Management in Peer-to-Peer Networks

In recent years, peer-to-peer networks evolved from simple server-based file-sharing systems to a variety of decentralized networks. While the most frequently used application is still file-sharing, other such as distributed databases, distributed computing or multiplayer gaming are promising applications. To enable elementary functions such as routing, searching and data distribution, peer-to-peer networks use an overlay topology. This overlay topology is the main distinguishing feature of current peer-to-peer systems and is critical for their efficiency, cost and robustness. However, in general such topologies do not consider the locality of two peers, when being build up. Locality describes, how similar two peers are with respect to the peer-to-peer network's application. E.g. two nodes with databases of similar subjects may be close-by in the topology.

In this work, we develop a theoretical basis and research methods to build up locality based topologies for peer-to-peer networks. The goal is a locality based overlay topology, which is distributed built and maintained by local operations of peers, and which converges to the optimal global topology.

(Diplomarbeit)

Mirek Korzeniowski, Universität Paderborn

23. November 2005, 14:00 Uhr, F1.110

Bounding Communication Cost in Dynamic Load Balancing of Distributed Hash Tables

I am going to present a result accepted to OPODIS 2005. This is joint work with Marcin Bienkowski.

In Peer-to-Peer networks based on consistent hashing and ring topology each peer is responsible for an interval chosen (pseudo-) randomly on a circle. The topology of the network, the communication load and the amount of data a peer stores depends heavily on the length of its interval.

Additionally, peers are allowed to join the network or to leave it at any time. Such operations can destroy the balance of the network even if all the intervals had equal lengths in the beginning.

This paper deals with the task to keep such a system balanced, so that the lengths of intervals assigned to the peers differ at most by a constant factor. We propose a simple scheme which achieves this and its communication cost can be amortized against the cost of keeping the system connected. Our procedure requires O(log n) times more messages than any procedure maintaining the connectivity, even if the an oblivious adversary decides about the dynamics of the system.

The scheme is a continuous process which does not have to be informed about the current size or possible imbalance in the network to start working. As a byproduct, we show how to compute a constant approximation of the current number of nodes n in the system, provided that we know an upper bound on log n.

Oliver Sudmann, Universität Paderborn

23. November 2005, 14:30 Uhr, F1.110

Interaktive Visualisierung der Speziellen Relativitätstheorie auf programmierbarer Grafikhardware

In dieser Arbeit wird ein Softwaresystem zur interaktiven Visualisierung der geometrischen Effekte der Speziellen Relativit"atstheorie entwickelt. Durch die Umsetzung eines beschleunigten Beobachters, kann sich der Benutzer interaktiv durch Szenen, bestehend aus unabh"angigen, gleichf"ormig bewegten Objekten, bewegen. Die relativistische Darstellung wird in Form eines Vertex Shader Programmes direkt auf der Grafikhardware durchgef"uhrt. Dadurch k"onnen auch grosse Szenen in Echtzeit dargestellt werden.

(Diplomarbeit)

Christiane Lammersen, Universität Paderborn

16. November 2005, 14:00 Uhr, F1.110

Algorithmen für geometrische Probleme im Datenstrom-Modell erweitert um ein Sortierungsprimitiv

In den letzten Jahren sind immer mehr Anwendungen entstanden, in denen große Datenmengen auftreten. Da die zu bearbeitenden Daten wegen ihrer Größe nicht im Hauptspeicher eines Rechners abgelegt werden können, müssen sie entweder von einem sekundären Speichermedium gelesen werden oder treten ausschließlich in Form eines Datenstroms auf. Dies führte in der Vergangenheit zu einem wachsenden Interesse an Algorithmen, welche die Daten bevorzugt in sequentiellen Durchläufen, den so genannten Streaming-Passes, bearbeiten und nur einen geringen Teil der Daten im lokalen Speicher ablegen.

In meinem Vortrag werde ich ein Rechenmodell vorstellen, bei dem es neben der Durchführung der Streaming-Passes auch erlaubt ist, den gesamten Datenstrom bezüglich einer vorgegebenen partiellen Ordnung in einem Sorting-Pass neu anzuordnen. Anschließend gebe ich in diesem Modell einen Algorithmus an, der einen geometrischen Spanner für einen Eingabestrom von Punkten in der Ebene in polylogarithmisch vielen Durchläufen berechnet und dazu einen konstanten Speicherplatz benötigt.

(Diplomarbeit)

Stefan Rührup, Universität Paderborn

9. November 2005, 14:00 Uhr, F1.110

Performance Analysis of the Hierarchical Layer Graph for Wireless Networks

The Hierarchical Layer Graph (HL graph) is a promising network topology for wireless networks with variable transmission ranges. It was introduced and analyzed by Meyer auf der Heide et al.\ 2004.

We present a distributed, localized and resource-efficient algorithm for constructing this graph. The qualtiy of the HL graph depends on the domination radius and the publication radius, which affect the amount of interference in the network. These parameters also determine whether the HL graph is a c-spanner, which implies an energy-efficient topology. We investigate the performance on randomly distributed node sets and show that the restrictions on these parameters derived from a worst case analysis are not so tight using realistic settings.

Here, we present the results of our experimental evaluation, measuring congestion, dilation and energy. Congestion includes the load that is induced by interfering edges. We distinguish between congestion and realistic congestion where we also take the signal-to-interference ratio into account. Our experiments show that the HL graph contains energy-efficient paths as well as paths with a few number of hops while preserving a low congestion.

Jens Krokowski, Universität Paderborn

2. November 2005, 14:00 Uhr, F1.110

Online Occlusion Culling

We consider the problem of occlusion culling within a stream of polygons. We propose to implement an additional buffer on a graphics card, which is able to delay the polygons before drawing them. When one of the polygons within the buffer is occluded or masked by another polygon arriving later from the application, the rendering engine can drop the occluded one without rendering, saving important rendering time.

We introduce a theoretical online model to analyse this problem in theory using competitive analysis. For different cost measures, we invent competitive algorithms for online occlusion culling. Our implementation shows that these algorithms also performs well for real 3D scenes.

Gunnar Schomaker, Universität Paderborn

26. Oktober 2005, 14:00 Uhr, F1.110

Heterogene Speichernetzwerke Teil 2 (SAN)

Heterogene Speichernetzwerke sind Netwerke, die Speichermedien von unterschiedlicher Größe und Geschwindigkeit konsolidieren. Die Verteilung und Zuweisung von Daten erfolgt meist über feste Funktionen, wie z.B. der modulo Funktion im RAID Schema. Diese Verfahren kompensieren Dynamik im Speichernetzwerk durch Skalierung oder Ausfall kaum bis gar nicht. Verfahren, die ihre Daten jedoch mittels Funktionen verteilen, die Eigenschaften einer Zufallsfunktion nutzen, haben diesen Nachteil nicht, benötigen aber zum "Wiederauffinden" der Daten einen höheren Metadatenanteil.

In diesem Vortrag werde ich ein Verfahren zur Reduktion vom Metatdaten für Methoden SHARE oder DHHT vorstellen, welches als Patent von der Unversität angemeldet wurde.

Miroslaw Dynia, Universität Paderborn

19. Oktober 2005, 14:00 Uhr, F1.110

Power-aware collective tree exploration

An n-node tree has to be explored by a group of R mobile robots deployed initially at one node. Robots traverse the edges of the tree until all nodes are visited. We would like to minimize maximal distance traveled by one robot (i.e. battery power). First, we assume that a tree is known in advance. For this NP-Hard problem we present a 2-approximation. Moreover, we present an optimal algorithm for the case when R is fixed.

From the 2-approximation algorithm we develop a fast distributed online algorithm, which does not require previous knowledge of the tree and collects information during exploration. Furthermore, our online algorithm is distributed and uses only local communication. We show the lower bound of 1.5 for competitive ratio of any deterministic online algorithm.

Gunnar Schomaker, Universität Paderborn

12. Oktober 2005, 14:00 Uhr, F1.110

Tuning in hetorogenen Speichernetzwerken (SAN)

Heterogene Speichernetzwerke sind Netwerke, die Speichermedien von unterschiedlicher Größe und Geschwindigkeit konsolidieren. Dies erfolgt meist über das hirarchische Konzept der Virtualisierung. Diese Aufgabe kann an Unterschiedlichen Positionen im Speichernetz innerhalb des I/O-Pfades zwischen dem physikalischem Speicher und dem Speichernutzer erfolgen. Ebenso ist die Komplexität und Dynamik der Virtualisierung stark abhängig von deren Platzierung im I/O-Pfad im Speichernetz. Das wichtigste Ziel der Konsolidiereung ist jedoch jedem im System beteilligten Speichermedium einen fairen Anteil an Datenlast zuzuweisen ohne das Wissen über den Verbleib der schon verteilten oder noch zu verteilenden Daten.

In diesem Vortrag werde ich eine Übersicht geben zu Arbeiten im Berich der Speichervirtualisierung für heterogene Speichermedien. Dies betrifft insbesondere die Verteilung der Daten bezüglich unterschiedlicher satitischer (RAID) und dynamischer Modelle (SHARE vs DHHT) und der daraus ableitbaren Features für Standardverfahren wie z.B. RAID. Des weiteren werde ich ein Verfahren zur Reduktion vom Metatdaten für Methoden SHARE oder DHHT vorstellen.

Peter Mahlmann, Universität Paderborn

12. Oktober 2005, 14:30 Uhr, F1.110

Random Graph Transformations for Peer-to-Peer Networks

Peer-to-Peer Netzwerke zeichnen sich durch den vollständigen Verzicht auf zentrale Strukturen und eine hohe dynamik der teilnehmenden Peers aus. Der ständige wechsel der Netzwerkteilnehmer hat zur Folge, dass die Netzwerktopologie ständig repariert werden muss. Dies gilt unabhängig von der gewählten Netwerktopologie und somit sogar für Zufalls-Graphen.

In diesem Vortrag wird ein Überblick über unsere bisherige Arbeit auf diesem Gebiet gegeben. Im einzelnen sind dies:

1. Die Flipper Operationen zur dezentralen Generierung und Reparatur von zusammenhängenden, d-regulären Zufallsgraphen.

2. Die Push&Pull Operation zur dezentralen Generierung und Reparatur von gerichteten, zusammenhängenden, zufälligen Multigraphen mit regulärem Ausgrad.

3. Das auf Zufallsgraphen basierende Peer-to-Peer Netzwerk Peanuts.

Des Weiteren wird ein Ausblick auf die zukünftige Arbeit gegeben.

Benjamin Doerr, MPI für Informatik, Saarbrücken

14. September 2005, 14:00 Uhr, F1.110

On the Propp machine

Jim Propp's $P$-machine, also known as `rotor router model' is a simple deterministic process that resembles a random walk on a graph. Instead of distributing chips to randomly chosen neighbors, it serves the neighbors in a fixed order. We investigate how well this process simulates a random walk. This is joint work with Joshua Cooper, Joel Spencer and Gabor Tardos.

Paul Kaufmann, Universität Paderborn

17. August 2005, 14:00 Uhr, F1.110

Computermethoden zur Loesung einiger konkreter kombinatorischer Probleme

Die Kombinatorik steckt voll interessanter offener Fragen. Bei Extremalproblemen kennt man oftmals noch nicht einmal das asymptotische Verhalten. Computer koennen dazu beitragen, zumindest `kleine' Instanzen zu loesen und damit Kombinatoriker in ihrer Intuition fuer den allgemeinen Fall zu schaerfen. Tatsaechlich haben verbesserte Algorithmen, Parallelisierung und schnellere Rechner heute Probleminstanzen behandelbar gemacht, die frueher unerreichbar schienen, beispielsweise bei Ramsey-Zahlen. Fuer sie wird in meiner Diplomarbeit der Stand der Forschung aufgearbeitet, d.h. fuer die neusten geloesten Instanzen die verwendeten Algorithmen vorgestellt. Im Hinblick auf ein weiteres kombinatorisch-geometrisches Problem wird ein Versuch beschrieben, die Vermutung von Hirsch experimentell zu widerlegen.

(Diplomarbeit)

Stefan Rührup, Universität Paderborn

17. August 2005, 14:30 Uhr, F1.110

Online Routing in Faulty Meshes with Sub-Linear Comparative Time and Traffic Ratio

We consider the problem of routing a message in a mesh network with faulty nodes. The number and positions of faulty nodes is unknown. It is known that a flooding strategy like expanding ring search can route a message in the minimum number of steps h while it causes a traffic (i.e. the total number of messages) of O(h2). For optimizing traffic a single-path strategy is optimal producing traffic O(p+h), where p is the perimeter length of the barriers formed by the faulty nodes.

Therefore, we define the comparative traffic ratio as a quotient over p+h and the competitive time ratio as a quotient over h. Optimal algorithms with constant ratios are known for time and traffic, but not for both. We are interested in optimizing both parameters and define the combined comparative ratio as the maximum of competitive time ratio and comparative traffic ratio. Single-path strategies using the right-hand rule for traversing barriers as well as multi-path strategies like expanding ring search have a combined comparative ratio of Theta(h).

It is an open question whether there exists an online routing strategy optimizing time and traffic for meshes with an unknown set of faulty nodes. We present an online strategy for routing with faulty processors providing sub-linear combined comparative ratio of h^O(Sqrt(log log h/log h)).

Summer Term 2005

Markus Scherschanski, Universität Paderborn

27. Juli 2005, 14:00 Uhr, F1.110

PeerNear - Optimierung der Lokalität in Peer-to-Peer-Netzwerken

Lokalität gewinnt immer mehr an Bedeutung bei dem Design von Peer-to-Peer-Netzen und kann meistens bei schon existierenden Netzwerken nachgerüstet werden, was einen erheblichen Performanzgewinn mit sich bringen kann.

Diese Diplomarbeit stellt ein System namens PeerNear vor, welches durch den Aufruf weniger Traceroutes den Grad der netztopologischen Nähe unter den Peers bestimmen und diese Information jeder Implementation eines Peer-to-Peer-Netzwerks zur Verfügung stellen kann. Prototypisch wurde es als Client-Server-System umgesetzt, jedoch soll es für zukünftige Anwendungen selbst zum Peer-to-Peer-Netzwerk werden.

Bei PeerNear wurde ein neuartiger Algorithmus zur Distanzeinschätzung benutzt, der mithilfe der für diesen Zweck eigens entstandenen Zelttheorie, den Verbindungsgraphen zwischen den einzelnen Peers bewerten und neue sinnvolle Erforschungsschritte mittels Traceroute-Aufrufen, veranlassen kann. Durch die Clusterung von Knoten zu einem festen Radius, wurde eine wesentliche Verbesserung erzielt. Vor diesem Schritt werden die einzelnen IP-Adressen jedoch schon den Netzen nach zusammengefasst, in denen Sie sich befinden. Dazu wurde eine etwas feinere Auflösung als die der Autonomen Systeme gewählt. Mittels einer rekursiven Nutzung des Whois-Dienstes wurden IP-Adressen auf die IP-Bereiche der registrierten Netze, die bei den Regionalen Internet Registraren (RIRs) verzeichnet sind, zugeordnet und indiziert. Damit stellen z.B. sämtiche IP-Adressen der Universität Paderborn nur noch einen Knoten im Netzwerk dar.

Der Algorithmus wurde auf dem Routing-Graphen des Internets getestet. Dabei wurde die Pareto-Eigenschaft des Internetgraphen erneut bestätigt, wobei Überlagerungen von verschiedenen Pareto-Verteilungen innerhalb des Graphen festgestellt werden konnten.

Arne Vater, Universität Paderborn

29. Juni 2005, 14:00 Uhr, F1.110

The Overlay Network Integrated Mobile Ad Hoc Network of Paderborn

In recent years, local area networks using wired connectivity have developed towards integrating mobile wireless participants. Currently these wireless networks are based on a centralized design having special access points to organize the network’s structure. Responsible for routing all traffic within the mobile network, access points easily become bottlenecks. Within mobile ad hoc networks (MANETs) all participants act as router and thus access points become obsolete here. However, most current MANETs lack scalability, because all nodes maintain complete routing tables or induce a network flooding for route discovery. Furthermore, the high mobility of its participants will often cause the routing to collapse.

The Paderborn Mobile Ad Hoc Network (PAMANET) is designed to overcome these problems by providing high scalability and reliability in mobile scenarios. As described in [BBC +04], PAMANET is a network which is not capable of using its participants with Internet access (access nodes) to connect all other PAMANET participants to the Internet as well.

As a design study, we describe the necessary modifications of PAMANET to take advantage of the Internet as an overlay peer-to-peer network to allow the use of shortcuts for routing within a large PAMANET, integration of all disjoint PAMANETs and access to any other node in the Internet.

Projektgruppe der AG Dangelmaier und Meyer auf der Heide, Universität Paderborn

15. Juni 2005, 14:00 Uhr, F1.110

PG 'Wege und Bewegungen in virtuellen Produktionsumgebungen'

Die visuelle, realistische Darstellung von Simulationsabläufen gewinnt zunehmend an Bedeutung. Sie hat offensichtliche Vorteile wie den intuitiveren Zugang zu Simulationsergebnissen. Aus dieser Motivation heraus entstand eine interdisziplinäre Zusammenarbeit zwischen den AGs Dangelmaier und Meyer auf der Heide: Erstere erstellte das Paket d³fact insight zur Simulation von Produktionsabläufen. Die zur AG Algorithmen und Komplexität gehörige Projektgruppe WuBiviPu entwickelte die Software Viper, welche die von d³fact insight simulierten Abläufe in einer interaktiven 3D-Umgebung visualisiert. Der Vortrag stellt die Ergebnisse der Projektgruppe sowie die Software Viper vor.

Maria Ana Ruiz Canamero, Universität Paderborn

08. Juni 2005, 14:00 Uhr, F1.110

The Shop-Owner's View of the Supermarket Game: Maximizing the Minimal Consumer's Tour by Ware Placement

We want to analyze an optimization problem in a supermarket. On the one hand, the owner of the supermarket wants to find the position of the goods that maximizes the movement of a customer in it. On the other hand, customers with a concrete shoppinglist want to find their minimal tour through the supermarket.

Supermarket-scenario. First of all, we have to know how to represent the concrete scenario. This means that we have to know the configuration of every shelf, corridor and cash points in the supermarket, as well as the position where goods can be stored in them. The supermarket can be modelled as a matrix. The owner of the supermarket can place the products in different crossings or nodes.

Defining the supermarket as a matrix (two-dimensional representation), and limiting the movements of the customer to horizontal and vertical, we can see the customer's movements in the supermarket have a Manhattan metric (1-norm metric). The length of the tour of a customer with a shopping-list will be measured with Manhattan metric. There is a limited number of valid positions in the supermarket matrix. It is possible that not every position of the matrix is a valid position for an item (for example, the position where cashes, some walls, or the entrances are). Shopping list In a supermarket scenario, we have a numbered list of all the items sold in it. Associated to each item, we have a probability distribution, which models the probability of this item to be bought. The goods are defined as matrix crossings (only in the valid positions) of the supermarket Manhattan graph.

Shopping in Supermarket (TSP) We want to model the movement of the customers in the supermarket based on an algorithm. The customers are trying to buy some concrete products that they need, we will call them target products. Each customer has its own list of target products and has to rearrange it, so that he can find the way through the supermarket to get his target products and go out as fast as possible. This is an optimization problem: the customer wants to minimize his way through the supermarket, given his concrete list of items to buy (The length of a tour will be normalized to the number of items in the buying-list). This problem is widely known as travelling salesman problem (TSP), and it is also known that this problem is NP-complete.

Owner's game The owner of the supermarket would like to maximize the customer's tour, so that the customer is attracted to buy extra products, not in his buying list. The owner's objective is to try to place the goods in the supermarket in such a way that it maximizes the average of the customers' tours. A factor that has big influence in the results is the probability distributions associated to each product, this information is important for the results to be realistic.

Goal Objective of this study is to find the upper and lower bounds with respect to a probability distribution also known as shopping list. The optimization problem can be formulated as follows: Given a shopping-list (instance I of the problem), find the position of the goods that maximizes the average length of the customer's tour (p(I)). The customer will try to find the shortest tour in the supermarket to buy every product in his shopping list, while the owner will try to maximize the average of the clients' tours', i.e. max_{\pi} E_i[ \min_p(C(I,\pi,p(I)) ], where C(I,\pi, p(I)) is the cost of the tour p.

Michael Kortenjan, Universität Paderborn

01. Juni 2005, 13:00 Uhr, F1.110

Size Equivalent Cluster Trees - Rendering of large Scenes

In this work we present a rendering method permitting interactive frame-rates in complex 3D scenes. The algorithm is based on an new data structure determined in a preprocessing to avoid frozen displays in large simulative visualizations like industrial plants, typically described as CAD-Models. Within a preprocessing polygons are grouped by size and within these groups core-clusters are calculated based on similarity and locality. The clusters and polygons are building up a hierarchy including weights ascertained within repetitive stages of re-grouping and re-clustering. At runtime this information allows to choose a subset over all primitives to reduce scene complexity depending on the viewer’s position, sight and the determined weights within the hierarchy. To achieve a specific frame rate the number of rendered primitives is limited by a constant and typically constrained by hardware. This reduction is controlled by the pre-calculated weights, and the viewer’s position and is not done arbitrarily. At least the rendered section is a suitable scene approximation that includes the viewer’s interests. Eventually our method provides rendering huge CAD-Scenes. Object identity is preserved, and objects are still modifiable, by means grouping and clustering does not intersect object borders, but continues among the object hierarchy. Combining all this a constant frame-rate including 140 million polygons at 12 fps is obtainable. We have implemented this data structure and the rendering algorithm. Practical results indicate that our approach leads to good scene approximations and realtime rendering of very large environments at the same time.

Ines Bebea, Universität Paderborn

01. Juni 2005, 13:30 Uhr, F1.110

Position-based routing using a cell structure

Position-based routing procotols do not rely on the maintenance of routes. Instead, packets are forwarded in the geographic direction of the packet's destination. The main prerequisite is that a node in the network knows its geographical position and the position of the destination. If each node broadcasts its own position to the neighbors at regular intervals, then a node is able to choose the next node that minimizes the distance to the destination. This greedy forwarding strategy fails, if the routed packet gets stuck in a local minimum. In this case a recovery strategy is applied to find a way out of the dead end. Known recovery strategies guide the packet around this region using the right-hand rule. Such strategies require a planarization of the network topology to prevent routing loops. For planarization several subgraph constructions have been proposed like neighborhood graphs or delaunay triangulations. Unfortunately, the planarization cancels out the long edges of the original topology, such that the routing progress is reduced just in the case when the effective greedy strategy fails. We propose a local topology control strategy that avoids the disadvantages of the planarization. The idea is to construct a virtual geographical cluster structure that contains the information about the 2-hop-neighborhood of each node. This structure can be constructed locally and provides each node with the necessary information for greedy forwarding and recovery. In this diploma thesis a position-based routing algorithm based on this cell structure should be developed and compared with known routing strategies.

Claudius Jähn, Universität Paderborn

01. Juni 2005, 14:00 Uhr, F1.110

Entwicklung und experimentelle Evaluation von Online Occlusion Verfahren

In dieser Studienarbeit wurde ein Online Occlusion Culling Verfahren implementiert und evaluiert. Dabei wird die Reihenfolge der Polygone im Polygonstrom optimiert und verdeckte Polygone werden mit Hilfe eines erweiterten z-Buffers verworfen. Dazu werden die Polygone vor dem eigentlichen Renderingvorgang zunächst in einem kleinen Polygonpuffer zwischengespeichert. Die Optimierung der Polygonreihenfolge erfolgt durch eine Auswahlstrategie, die nach bestimmten Kriterien das nächste zu verdrängende Polygon im Polygonpuffer bestimmt. Als Auswahlkriterien wurden dabei unter anderem die Polygongröße oder ihre Entfernung zum Betrachter verwendet. Bei der Evaluierung des Testsystems unter verschiedenen Rahmenbedingungen konnte gezeigt werden, dass sich das Verfahren effizient zur Reduktion der unnötig berechneten Pixel in einer Szene einsetzen lässt. Da die Wahl der Auswahlstrategie dabei einen entscheidenden Einfluss auf die Effektivität des Verfahrens hat, wurde bei der Evaluierung ein Schwerpunkt auf die Bewertung und den Vergleich verschiedener Strategien gelegt.

Sebastian Aland, Universität Paderborn

11. Mai 2005, 14:00 Uhr, F1.110

Ein sublinearer Algorithmus für Facility Location mit Bereichsanfragen

In dieser Arbeit stellen wir einen sublinearen Algorithmus vor, der die Kosten einer optimalen Lösung des Facility-Location-Problems mit konstantem Approximationsfaktor annähert, wobei Kosten und Bedarf einheitlich sind. Als Eingabe des Facility-Location-Problems ist eine endliche Menge $P\subset\mathds{R}^2$ gegeben. Man sucht eine Lösung $F\subseteq P$, die die entstehenden Kosten $|F| + \sum_{p\in P}{D(p,F)}$ minimiert, wobei $D(p,F)$ den Abstand von $p$ zum nächstgelegenen Punkt aus $F$ bezeichnet. Für unseren Algorithmus setzen wir voraus, dass diese Eingabe in einer Datenstruktur zur Verfügung steht, die bestimmte Bereichsanfragen erlaubt. Als Anfragen sind erlaubt: die Frage nach der Anzahl von Punkten in einem gegebenen achsenparallelen Quadrat und die Frage nach dem kleinsten achsenparallelen Quadrat, das alle Punkte innerhalb eines gegebenen größeren Quadrats enthält. Diese Anfragen können beispielsweise durch Bereichsbäume in Zeit $\mathcal{O}(\log(n))$ beantwortet werden. Sei $n$ die Anzahl der Eingabe-Punkte, so erreichen wir eine sublineare Laufzeit von $\mathcal{O}(n^{5/6}\polylog(n))$.

Jaroslaw Kutylowski, Universität Paderborn

04. Mai 2005, 14:00 Uhr, F1.110

Robust Undetectable Interference Watermarks

We propose a digital watermarking method for gray tone images in which each watermark consists of a collection of single points and each point is encoded in the spatial domain of the whole image. The method is somewhat related to physical digital holograms and interference images. Reconstruction of such watermarks is based on a similar principle as the reconstruction of physical holograms.

In approaches encoding the watermark in the spatial domain one of the major problems is to avoid a texture due to an encoding scheme. We avoid a recognizable pattern by creating pseudo random keyed watermarks, which resemble random noise.

The method proposed yields robust watermarks that are resistant against many attacks which preserve the distance between points (filtering, rotation, JPEG compressing). The watermarking scheme provides means for detection and reversal of scaling transformations, thus making the watermark resistant to this attack.

The original picture is not needed for reconstruction. The watermark is very hard to detect in the watermarked image, thus prohibiting to easily check whether an image was protected.

Our method guarantees an exact reconstruction provided that the watermark image consists of a limited number of white pixels on black background.

Christian Schindelhauer, Universität Paderborn

04. Mai 2005, 14:30 Uhr, F1.110

The Halting Problem is i.o. easy and a.e. hard

We investigate the error complexity of the Halting problem for some programming systems. As a non-recursive problem no algorithm can solve the Halting problem, given a program and an input, correct in finite time. However, the complexity measure of Jakoby and Schindelhauer defined in 1999 gives a more detailed view at this problem. Here, one measures the number of correct computations of an algorithm over some input length $n$ and bounds this error probability by an error function $f(n)$.

Now the complexity of the Halting problem highly depends on the coding of the inputs, i.e. the programming system (language). Natural programming languages are either easy or dense, which means that every program occurs on inputs of almost all lengths of the Halting problem with at least a constant frequency. We show that no dense programming system can be approximated within a constant error probability for all inputs, while for all $\epsilon>0$ there is a machine that infinitely often approximates the Halting problem within this error bound.

Winter Term 2004 / 2005

Christiane Lammersen, Universität Paderborn

06. April 2005, 14:00 Uhr, F1.110

Das Datenstrom-Modell erweitert um ein Sortierungs-Primitiv

Gerade in den letzten Jahren sind in immer mehr Anwendungsgebieten große Datenmengen aufgetreten. Ich werde deswegen ein Modell vorstellen, das für große Eingaben geeignet ist. Dabei handelt es sich um das Datenstrom-Modell erweitert um ein Sortierungs-Primitiv. Viele Probleme können bereits in diesem Modell gelöst werden, so dass der Einsatz von mächtigeren Modellen in diesem Fall unnötig ist. Zwei Beispiele dafür sind Schnitte von Liniensegmenten und die konvexe Hülle. Für diese Probleme werde ich effiziente Algorithmen vorstellen.

Kerstin Voß, Universität Paderborn

06. April 2005, 14:30 Uhr, F1.110

Routing in Sensornetzen (fast) ohne Speicher

Zunehmend wird der fest verdrahtete Desktop-Rechner von mobilen Endgeräten wie PDAs, programmierbaren Handies, Laptops etc. abgelöst. Am Ende dieser Entwicklung zeichnet sich die Möglichkeit ab billige, äußerst energieeffiziente Kleinstrechner zu entwickeln. Diese kleinen Einheiten (auch Knoten) sind mit Speicher, Prozessorleistung, einer Funkeinheit und unterschiedlichen Sensoren zur Umweltbeobachtung ausgestattet. Da die Knoten ihre Energie aus Batterien erhalten, haben sie nur einen sehr geringen Sendebereich. Ressourcen wie Speicher und Rechenleistung sind ähnlich begrenzt. Anwendungsgebiete der Sensoren sind in der Überwachung großer Gebiete für den Umweltschutz, einer frühen Detektion von Waldbränden, der Tierbeobachtung, der Gebäude-/ Geländesicherung, ... Algorithmen für Sensornetze sind daher auf die Kooperation der Knoten angewiesen, um möglichst alle Knoten mit der Zentralstation zu verbinden. Um die Energie- ressourcen zu schonen, müssen diese Verbindungen über Zwischenstationen etabliert werden. Gelingt dies, so sind Sensornetze extrem robust gegenüber Ausfällen und skalieren gut mit zu- oder abnehmender Anzahl von Knoten.

In dieser Diplomarbeit wird das in der FG Meyer auf der Heide entwickelte 1QK-Sensor-Protokoll bezüglich des Sendeverhaltens und der Nachrichtenweiterleitung verbessert. Das Protokoll zeichnet sich dadurch aus, dass es mit minimalen Speicheranforderungen von 256 Byte RAM auskommt.

Joachim Gehweiler, Universität Paderborn

02. März 2005, 14:00 Uhr, F1.110

Implementierung und Analyse von Lastbalancierungsverfahren in einer Web-Computing-Umgebung

In dieser Diplomarbeit wurden verschiedene Lastbalancierungsverfahren für Bulk-Synchronous Parallel (BSP)-Programme implementiert und analysiert.

Im Umfeld einer Web-Computing-Umgebung ergeben sich für Lastbalancierungsverfahren besondere Anforderungen durch die Dynamik von Peer-to-Peer-Netzwerken, insbesondere durch Schwankungen der verfügbaren Rechenkapazitäten. Als zusätzliche Herausforderung kam hinzu, dass die Lastbalancierungsalgorithmen nicht über eine Aufschlüsselung der CPU-Nutzung auf den einzelnen Rechnern verfügen können (Datenschutz).

Als Experimentierplattform diente die Web-Computing-Umgebung Paderborn University BSP-based Web Computing Library (PUBWCL).

Peter Mahlmann, Universität Paderborn

02. März 2005, 14:30 Uhr, F1.110

Peer-to-Peer Networks based on Random Transformations of Connected Regular Undirected Graphs

We present k-Flipper, a graph transformation algorithm that transforms regular undirected graphs. Given a path of k+2 edges it interchanges the end vertices of the path. By definition this operation preserves regularity and we show that every regular connected graph can be reached by a series of these operations for all k>=1. We use a randomized version, called Random k-Flipper, in order to create random regular connected undirected graphs that may serve as a backbone for peer-to-peer networks. We prove for degree $d\in \Omega(\log n)$ that a series of O(dn) Random k-Flipper operations for $k\in \Omega(d^2n2 \log (1\epsilon) )$ transforms any graph into an expander graph with high probability.

We use these operations as a maintenance operation for a peer-to-peer network based on random regular connected graphs that provides high robustness and recovers from degenerate network structures by continuously applying these random graph transformations. For this, we describe how network operations for joining and leaving the network can be designed and how the concurrency of the graph transformations can be handled.

Valentina Damerow, Universität Paderborn

02. März 2005, 15:00 Uhr, F1.110

Average case complexity of Voronoi diagrams of n sites from the unit cube

We consider the expected number of Voronoi vertices (or number of Delaunnay cells for the dual structure) for a set of n i.i.d. random point sites chosen uniformly from the unit d-hypercube. We show an upper bound for this number which is linear in n, the number of random point sites, where d is assumed to be a constant. This result matches the trivial lower bound of n.

This problem is open since several years. In 1991, Dwyer showed that for a uniform distribution from the unit d-ball the average number of Voronoi vertices is linear in n and it is commonly assumed that this holds for any reasonalbe probability distribution.

This work will be presented at the 21st European Workshop on Computational Geometry (EWCG) 2005, and is a joint work with Marcin Bienkowski, Friedhelm Meyer auf der Heide, and Christian Sohler.

Luciana S. Buriol, University of Rome

16. Februar 2005, 14:00 Uhr, F1.110

Data stream algorithms for Computing Statistical and Topological Properties of the Evolving Webgraph

by Luciana S. Buriol Post-doc at the Department of Computer Science and Systems, University of Rome "La Sapienza"

The webgraph is the graph whose nodes are web pages and edges are the hyperlink among them. To extract, store and analyze the webgraph we need to deal with techniques designed for massive graphs. In the present moment we are interested in computing topological and statistical properties of the webgraph. Most of the computations cannot be done optimally. Therefore, data stream algorithms can be used for given an approximation of some of these properties and statistics using feasible space and processing time. As a motivation, half of the talk will be on given a general description of the process used for extracting, storing, reading and page ranking the webgraph. Whereas the second half will be focused in experimental results obtained using a data stream algorithm for maintaining indegree distribution and its adaptation to compute bipartite cliques. The streams were taken from an alternative database derived from the online encyclopedia Wikipedia.

This is a joint work with Stefano Leonardi.

Florian Schoppmann, Universität Paderborn

19. Januar 2005, 14:00 Uhr, F1.110

Online Occlusion Culling

Ein grundlegendes Problem in der Computergrafik ist das effiziente Darstellen (Rendern) von dreidimensionalen Szenen. Solche Szenen bestehen gewöhnlich aus vielen einzelnen Objekten, die wiederum aus vielen geometrischen Primitiven zusammengesetzt sind. Bei der Darstellung einer solchen Szene sind im Allgemeinen nur wenige Objekte vom Betrachter aus sichtbar. Daher versucht man Objekte, die nicht sichtbar sind, zu erkennen und diese gar nicht erst zur Grafikhardware zu schicken. Diesen Prozess bezeichnet man als Occlusion Culling.

In dieser Arbeit wird folgende einfache Methode für das Occlusion Culling modelliert und analysiert, die insbesondere Anwendungen in sich schnell verändernden Szenen (Bewegung, Animation etc.) hat: Bevor ein Objekt zur Grafikhardware geschickt wird, prüft der Culling-Algorithmus, ob es durch eines oder mehrere bereits gezeichnete Objekte aus einem Puffer verdeckt wird. Ist dies nicht der Fall, so wird das Objekt zur Grafikhardware geschickt und gezeichnet. Dann darf das Objekt optional eines der bereits im Puffer gespeicherten Objekte ersetzen. Das zugehörige Online-Problem wird als Online Occlusion Culling bezeichnet. In dieser Arbeit wird die Performance von Algorithmen für dieses Problem untersucht und gezeigt, dass kein Online-Algorithmus $o(n)$-competitive sein kann.

Des Weiteren wird eine average-case Analyse vorgenommen. Dazu werden Objekte durch Einheitskreise in der Ebene modelliert. Es wird gezeigt: Gibt es $n$ zufällig verteilte Objekte in einem begrenzten Radius und ist der Zwischenspeicher nicht beschränkt, so existiert für Algorithmen, die jede gezeichnete Kugel in den Zwischenspeicher aufnehmen, im Erwartungswert eine untere Schranke von $O(\log n)$ und eine obere Schranke von $O(n^{3/4} \cdot \log_{16} n)$ gezeichneten Kugeln.

Schließlich folgen Überlegungen zur Komplexität des der Modellierung zugehörigen Optimierungsproblems und es wird die NP-Vollständigkeit eines verwandten Graphen-Problems gezeigt.

Jan Klein, Universität Paderborn

19. Januar 2005, 14:30 Uhr, F1.110

Interpolation Search for Point Cloud Intersection

We present a novel algorithm to compute intersections of two point clouds. It can be used to detect collisions between implicit surfaces defined by two point sets, or to construct their intersection curves. Our approach utilizes a proximity graph that allows for quick interpolation search of a common zero of the two implicit functions.

First, pairs of points from one point set are constructed, bracketing the intersection with the other surface. Second, an interpolation search along shortest paths in the graph is performed. Third, the solutions are refined.

We show that the number of evaluations of the implicit function and the overall runtime is in $O( \log \log N)$, where $N$ is the point cloud size. The storage is bounded by $O(N)$.

Our measurements show that we achieve a speedup by an order of magnitude compared to a recently proposed randomized sampling technique for point cloud collision detection.

Kerstin Voß, Universität Paderborn

12. Januar 2005, 14:00 Uhr, F1.110

Routing in Sensornetzen (fast) ohne Speicher

Zunehmend wird der fest verdrahtete Desktop-Rechner von mobilen Endgeräten wie PDAs, programmierbaren Handies, Laptops etc. abgelöst. Am Ende dieser Entwicklung zeichnet sich die Möglichkeit ab billige, äußerst energieeffiziente Kleinstrechner zu entwickeln. Diese kleinen Einheiten (auch Knoten) sind mit Speicher, Prozessorleistung, einer Funkeinheit und unterschiedlichen Sensoren zur Umweltbeobachtung ausgestattet. Da die Knoten ihre Energie aus Batterien erhalten, haben sie nur einen sehr geringen Sendebereich. Ressourcen wie Speicher und Rechenleistung sind ähnlich begrenzt.

Anwendungsgebiete der Sensoren sind in der Überwachung großer Gebiete für den Umweltschutz, einer frühen Detektion von Waldbränden, der Tierbeobachtung, der Gebäude-/ Geländesicherung, ...

Algorithmen für Sensornetze sind daher auf die Kooperation der Knoten angewiesen, um möglichst alle Knoten mit der Zentralstation zu verbinden. Um die Energieressourcen zu schonen, müssen diese Verbindungen über Zwischenstationen etabliert werden. Gelingt dies, so sind Sensornetze extrem robust gegenüber Ausfällen und skalieren gut mit zu- oder abnehmender Anzahl von Knoten.

Der Vortrag dient zur Vorstellung der Diplomarbeit "Routing in Sensornetzen (fast) ohne Speicher". Es soll das in der AG Meyer auf der Heide entwickelte 1QK-Sensor-Protokoll bezüglich des Sendeverhaltens und der Nachrichtenweiterleitung verbessert werden. Das Protokoll zeichnet sich dadurch aus, dass es mit minimalen Speicheranforderungen von 256 Byte RAM auskommt.

Nach einer kurzen Einführung in die Sensornetze wird in dem Vortrag das Protokoll und die bestehenden Verbesserungsideen erläutert.

Dr. Christian Scheideler, The Johns Hopkins University

12. Januar 2005, 14:30 Uhr, F1.110

Survivable Overlay Networks

I will give a survey of newest developments in the area of robust and survivable overlay networks, concentrating on efficient reactive and proactive techniques that allow overlay networks to self-stabilize even under adversarial behavior.

Klaus Brinker, Universität Paderborn

05. Januar 2005, 14:00 Uhr, F1.110

Active Learning with Kernel Machines

The ability to learn from experience is a fascinating and distinguishing feature of intelligent life. In the course of evolution, increasingly more sophisticated strategies of adapting behavior to particular surrounding conditions have emerged. Inspired by the efficiency of learning in nature, supervised machine learning considers a formal model of learning specific input-output relationships and adopts the paradigm of learning from examples to induce functions which predict target objects associated with input patterns. In conventional machine learning, the process of learning is characterized by a unidirectional information flow between the two idealized protagonists, i.e., information is submitted only from the teacher to the learner. In contrast to this, natural learning processes typically are based on complex interactions between the learner and the teacher. Bidirectional communication - from learners to the teaching entity and vice versa - is a fundamental component of learning. As motivated by nature, active machine learning substitutes the conventional passive model by an extended model which incorporates a restricted form of interactive learning in order to expedite the artificial learning process. We study the concept of active learning, which facilitates the learning process by reducing the amount of representative examples required to attain a certain level of accuracy, in the prospering field of kernel machines for various categories of learning problems.

Sven Koehler, Universität Paderborn

22. Dezember 2004, 14:00 Uhr, F1.110

Zur Approximierbarkeit des Halteproblems in einer praktischen Goedelisierung

In dieser Arbeit wird die Approximierbarkeit des Halteproblems untersucht. Dazu werden zwei Goedelisierungen fuer die simple aber dennoch turingvollstaendige Programmiersprache BF vorgestellt. Beide Goedelisierungen sind mit Polynomialzeitalgorithmen umsetzbar. Eine der beiden Goedelisierungen ist fuer die Praxis besonders relevant. Von ihr kann gezeigt werden, dass sie -- im Gegensatz zur anderen -- dicht ist. Daraus folgt, dass hier das Halteproblem nicht einmal approximativ geloest werden kann.

Martin Ziegler, Universität Paderborn

08. Dezember 2004, 14:00 Uhr, F1.110

Post's Problem over the Reals

In 1936, Alan Turing proved the Halting Problem H to be undecidable. Can a problem be strictly easier than H yet still undecidable? Surprisingly, the answer to the above question of Emil Post (1944) is `yes'; however based on a rather complicated construction. It turns out that the situation over real numbers is much more elegant: For the Real Turing Machines introduced by Blum, Shub, and Smale (1989), we explicitly state a problem and prove it to be undecidable yet not reducible from H.

Projektgruppe der AG MadH, Universität Paderborn

01. Dezember 2004, 14:00 Uhr, F1.110

P2P-Netzwerke für dynamische 3D-Szenen

Im Rahmen der Projektgruppe "Peer-to-Peer-Netzwerke für dynamische 3D-Szenen" (http://www.p2p3d.net) der AG Meyer auf der Heide wurde eine 3D-Game-Engine für besonders große, hochdynamische, virtuelle Szenen entwickelt. Die Engine basiert auf einer neu entwickelten Mobilen Datenstruktur und einem Peer-to-Peer-Netzwerk ohne zentralen Server, das die Nähe der Objekte im Spiel auch im Netz abbildet. Durch geschickte Vorhersagen der Mobilen Datenstruktur wird versucht, die Kommunikation zwischen den Rechnern auf ein Minimum zu reduzieren und die Szenenobjekte dennoch in Echtzeit darzustellen.

Gereon Frahling, Universität Paderborn

24. November 2004, 14:00 Uhr, F1.110

Coresets in dynamic geometric data streams

A dynamic geometric data stream consists of a sequence of m insert/delete operations of points from a discrete space. We develop streaming approximation algorithms for k-median, k-means, MaxCut, maximum weighted matching (MaxWM), maximum travelling salesperson (MaxTSP), maximum spanning tree (MaxST), and average distance over dynamic geometric data streams. Our algorithms maintain a small weighted set of points (a coreset) that approximates the current point set with respect to the considered problem during the m insert/delete operations of the data stream. With probability 2/3 the coreset approximates the current point set, such that each solution differs by at most a factor of epsilon. The algorithms use polylogarithmic space and update time per insert/delete operation for constant dimension d.

Having a coreset one only needs a fast approximation algorithm for the weighted problem to compute a solution quickly. In fact, even an exponential algorithm is sometimes feasible as its running time may still be polynomial in n.

For most problems one can compute a solution from the maintained sketch in poly(k, log n, ...) time.

Dr. Bettina Rehberg, Universität Paderborn

17. November 2004, 14:00 Uhr, F1.110

Scheduling heterogenous tasks against an adversarial network

A well-known approach to run coarse grained parallel programs is to use the idle times of the processors of a network (eg a LAN, a WAN, or the Internet). We pesent on-line algorithms for scheduling the processes of a parallel application on a network in which the idle times are dictated by an adversary. The model also takes communication and synchronization costs into account.

This work is based on an approach by Stefano Leonardi, Alberto Marchetti-Spaccamela and Friedhelm Meyer auf der Heide. Their contribution consists of a formal model to restrict the adversary in a reasonable way. They showed a constant factor approximation for the off-line scheduling problem and presented on-line algorithms for different models with constant or with "nearly constant" competitive ratio.

Our contribution is a generalization of their model by allowing also quite different kinds of machines, ie the processing time of a job may depend on various other properties of the machines (eg on their speed or on special hardware or software).

Oliver Sudmann, Universität Paderborn

17. November 2004, 14:30 Uhr, F1.110

Rechnen auf der Grafikkarte

Heutige Grafikkarten besitzen (typischerweise mehrere) eigene Mikroprozessoren, sogenannte GPUs, die - in Grenzen - frei programmierbar sind. In dieser Diplomarbeit sollen deren Faehigkeiten auf Probleme angewandt werden, die ueber reine Grafikdarstellung hinausgehen.

Prof. Dr. Martin Dietzfelbinger, Technische Universitaet Ilmenau

15. November 2004, 16:00 Uhr, F1.110

Cache-Friendly Dictionary Implementations with Constant Lookup Time and Small Space Overhead

We study implementations of dictionaries (insertions, deletions, lookups) for keys from a universe U in a hash table. Generalizing the cuckoo hashing scheme of Pagh and Rodler (2001) in a way different from the "d-ary cuckoo hashing" approach of Fotakis, Pagh, Sanders, and Spirakis (2003), we propose using a table that consists of m = (1+eps) n/d buckets, each of which can store up to d words from U. Two hash functions h_1 and h_2 are suitable for a set S of n keys if each key x from S can be stored in bucket B(h_1(x)) or in bucket B(h_2(x)) without any bucket overflowing. Lookups take time O(d); only two buckets have to be accessed: this makes the scheme well suited for cache architectures. We show: Statically, space overhead eps > 0 can be achieved with d <= ln(1/eps)/(1-ln 2). Dynamically, with d=O(log(1/eps)), insertions take expected constant time. The scheme works nicely in experiments. There are equivalent formulations of the underlying structures that yield new results for graph orientability and for the balanced allocation paradigm.

(Der Vortrag wird auf deutsch gehalten. Gemeinsame Arbeit mit Christoph Weidling, TU Ilmenau)

Harald Räcke, Carnegie Mellon University

27. Oktober 2004, 14:00 Uhr, F1.110

Average Case Analysis for Oblivious Routing

In an oblivious routing algorithms all routing decisions are made without using any global information about the routing problem. Because of this property oblivious routing algorithms can be implemented very efficiently in a distributed environment.

However, in a directed network even the best oblivious routing algorithms may be far away from optimum. In this work we introduce an average case model for analyzing oblivious routing algorithms and show that in this model an oblivious algorithm can obtain close to optimum congestion with high probability.

Dirk Schlenke, Universität Paderborn

20. Oktober 2004, 14:00 Uhr, F1.110

Approximative geodätische Distanzen auf 3D Modellen

Im Rahmen dieser Arbeit wurden approximative Algorithmen untersucht, die den geodätisch kürzesten Weg auf einer polygonalen Oberfläche bestimmen. Es wurde ein Algorithmus benötigt, der einen kürzesten Weg zwischen einem Start- und einem Endpunkt sucht, und ein Algorithmus, der eine "restricted all pairs shortest path" Suche durchführt, d.h. für jeden Punkt p_i (aus einer endlichen Menge von Punkten auf der Oberfläche) sollen die kürzesten Wege nur zu Punkten innerhalb einer Kugel um p_i berechnet werden. Das Ergbnis dieser Suche, eine close-pairs shortest-path (CPSP) Matrix, kann zur Oberflächenrekonstruktion aus Punktwolken basierend auf der weighted least squares Methode genutzt werden. Es hat sich gezeigt, dass ein Weg zwischen zwei Punkten, auch bei Modellen mit 100.000 Flächen, in sehr kurzer Zeit berechnet werden kann. Die Berechnung einer kompletten CPSP-Matrix benötigt zudem nur wenige Stunden.

Markus Scherschanski, Universitaet Paderborn

13. Oktober 2004, 14:00 Uhr, F1.110

Peer Near: Ein P2P-Tool zur Netzwerktopologie-Bestimmung mittels Tracerouter

Im Rahmen dieser Diplomarbeit wird ein wiederverwendbarer Werkzeugkasten entwickelt, der es einem Peer-to-Peer-Netzwerk im Internet ermöglicht, Strukturinformationen über das aktuelle Routing zu gewinnen. Hierzu werden zwischen zu bestimmenden Nachbarn Traceroute-Aufrufe durchgeführt und ausgewertet. Die Anzahl und der Zeitbedarf dieser Traceroute-Aufrufe ist hierbei ein Optimierungsparameter. Ziel ist es den aktuellen Routing-Graph zu bestimmen und geeignet den Peers mitzuteilen, so dass Methoden zur Verfügung stehen, die Latenzzeit des Peer-to-Peer-Netzwerks damit zu optimieren. Vom algorithmischen Standpunkt ist die Aufgabe zu lösen, die Anzahl der Traceroute-Aufrufe zu optimieren. Hierfür muss das Problem geeignet abstrahiert werden und Algorithmen für das abstrakte Problem gefunden werden, die praktisch umgesetzt werden können. Insbesondere erschwerend sind hierbei die verteilte Struktur der Aufgabenstellung und die mitunter nicht verfügbare Netzwerkinformation von Routerknoten. Idealerweise erfolgt die Umsetzung dieses Werkzeuges selbst in einem Peer-to-Peer-Netzwerk. Aufgrund der Komplexität der Aufgabenstellung ist es aber auch akzeptabel, dass eine Client-Server-Datenstruktur für eine prototypische Realisation verwendet wird.

Valeri Felk, Universität Paderborn

13. Oktober 2004, 14:30 Uhr, F1.110

Untersuchung des OpenGL HP Occlusion Tests

Occlusion Culling Methoden versuchen festzustellen, welche Teile einer dreidimensionalen Szene durch andere verdeckt sind, um sie möglichst früh aus der Rendering Pipeline zu entfernen. Sie teilen die Szene zwecks Komplexitätsreduktion im Preprocessing hierarchisch auf und speichern diese in einem Baum, dessen Knoten und Blätter in der Rendering Phase auf Verdeckung hin geprüft und gegebenenfalls gerendert werden. In dieser Studienarbeit werden ein optimaler Aufbau eines solchen Baums und die Faktoren, die einen Verdeckungstest beeinflussen untersucht, um schließlich einen optimierten Einsatz eines solchen Verdeckungstests in einer Realtimeanwendung zu implementieren.

Bartlomiej Gloger, Universität Paderborn

06. Oktober 2004, 14:00 Uhr, F1.110

Approximate Collision Detection using Separating Planes

In this talk we present a novel collision detection (CD) algorithm. Our algorithm focuses on what is often referred to as the "near phase" of the collision detection which considers only two single objects for collision and detects it between them.

It will approximate the model by sampling it and use this approximation to detect collisions. We think that this is sensible since if the results have to be plausible it suffices that the actual CD is plausible, too. The sampling process makes us independent of the underlying representation of the model and we are not restricted to polygonal representations. We present an error measure for the algorithm which can be adjusted by a parameter in order to reach the level of accuracy required.

Ingo Höckenschnieder, Universitaet Paderborn

29. September 2004, 14:00 Uhr, F1.110

Effiziente Kollisionsentdeckung in komplexen dynamischen Szenen

Virtuelle Umgebungen sollen heutzutage realistisch wirken. Neben einer korrekten und hochauflösenden Darstellung der (polygonalen) Objekte bedeutet dies, dass auch feste Grenzen existieren müssen: durch eine Wand darf man nicht gehen können, andere Objekte sollten gegriffen werden können. Um eine möglichst reale Umgebung zu simulieren, werden deshalb effiziente Kollisionstests benötigt. Dabei stellt die Kollisionserkennung einen zunehmenden Engpass dar. Exakte Algorithmen können zwar alle Kollisionen entdecken, bei größeren Szenen jedoch nicht mehr in Echtzeit ausgeführt werden. Die meisten virtuellen Umgebungen benötigen jedoch keine physikalisch korrekte Aussage über die an einer Kollision beteiligten Polygone. Bei solchen Anwendungen reicht es oftmals aus, dass eine Visualisierung für den Betrachter korrekt erscheint, sie muss jedoch nichts zwangsläufig korrekt sein. Daraus ergibt sich die Möglichkeit die exakten Polygontests durch approximative Algorithmen und Abschätzungen von Polygonmengen zu ersetzen. Solche Algorithmen sollen ermöglichen den Zeitaufwand für Kollisionen erheblich zu senken und dadurch auch eine Echtzeitdarstellung (vorgegebene Rechenzeit) zu erfüllen. Unser Ansatz ist es, mittels Auswahlheuristiken schnell Kollisionen entdecken und durch Mengentests auf exakte Polygonschnitttests weitgehend verzichten zu können. Ein Level-of-Detail-Verfahren soll Rechenzeit so verteilen, dass für sichtbare nahe Objekte mehr Zeit als für weit entfernte zur Verfügung steht und somit eine glaubwürdigere Darstellung naher Objekte erzielt werden kann.

Joachim Gehweiler, Universitaet Paderborn

22. September 2004, 14:00 Uhr, F1.110

Implementierung und Analyse von Lastbalancierungsverfahren in einer Web-Computing-Umgebung

In dieser Diplomarbeit sollen verschiedene Lastbalancierungsverfahren für Bulk-Synchronous Parallel (BSP)-Programme implementiert und analysiert werden. Durch das Umfeld der Web-Computing-Umgebung ergeben sich für die Lastbalancierungsverfahren besondere Anforderungen, einerseits durch schwankende verfügbare Rechenkapazitäten und andererseits durch die Dynamik von Peer-to-Peer-Netzwerken. Als zusätzliche Herausforderung kommt hinzu, dass die Lastbalancierungsalgorithmen über keine Aufschlüsselung der CPU-Nutzung auf den einzelnen Rechnern verfügen können (Datenschutz). Als Experimentierplattform dient die Web-Computing-Umgebung "Paderborn University BSP-based Web Computing Library (PUBWCL)".

Paul Kaufmann, Universitaet Paderborn

22. September 2004, 14:30 Uhr, F1.110

Computermethoden zur Loesung einiger konkreter kombinatorischer Probleme

Die Kombinatorik steckt voll interessanter offener Fragen. Bei Extremalproblemen kennt man oftmals noch nicht einmal das asymptotische Verhalten. Computer koennen dazu beitragen, zumindest `kleine' Instanzen zu loesen und damit Kombinatoriker in ihrer Intuition fuer den allgemeinen Fall zu schaerfen. Tatsaechlich haben verbesserte Algorithmen, Parallelisierung und schnellere Rechner heute Probleminstanzen behandelbar gemacht, die frueher unerreichbar schienen. Diese Diplomarbeit soll fuer eine Auswahl von Problemen den Stand der Forschung aufarbeiten, d.h. jeweils die bislang geloesten Instanzen und die dazu verwendeten Algorithmen zu dokumentieren. Ziel ist, sie auf das Potential fuer moegliche Verbesserungen, also die Behandlung der jeweils naechsthoeheren offenen Instanz, auszuloten.

Summer Term 2004

Prof. Dr. Friedhelm Meyer auf der Heide, Universitaet Paderborn

05. Mai 2004, 14:00 Uhr, F1.110

Scheduling against an adversarial network

Using idle times of the processors of a LAN, a WAN, or the Internet is a well-known approach to run coarse grained parallel algorithms for extremely complex problems. We present on-line algorithms for scheduling the processes of a parallel application on a dynamic network in which the idle times of the processors are dictated by an adversary. We also take communication and synchronization costs into account.

Our first contribution consists of a formal model to restrict the adversary in a reasonable way. We then show a constant factor approximation for the off-line scheduling problem. As this problem has to take communication cost into account, it can be seen as a generalization of many NP-hard parallel machine scheduling problems. Finally, we present on-line algorithms for different models with constant or with "nearly constant" competitive ratio.

This is joint work with Stefano Leonardi and Alberto Marchetti-Spaccamela from Rome.

Alex May, Universitaet Paderborn

19. Mai 2004, 14:00 Uhr, F1.110

Computing the RSA Secret Key is Deterministic Polynomial Time Equivalent to Factoring

We address one of the most fundamental problems concerning the RSA cryptoscheme: Does the knowledge of the RSA public key/ secret key pair (e,d) yield the factorization of N=pq in polynomial time? It is well-known that there is a PROBABILISTIC polynomial time algorithm that on input (N,e,d) outputs the factors p and q. We present the first DETERMINISTIC polynomial time algorithm that factors N provided that e,d < phi(N), which is the normal RSA-case. Our approach is an application of Coppersmith's technique for finding small roots of bivariate integer polynomials.

Martin Ziegler, Universitaet Paderborn

19. Mai 2004, 14:30 Uhr, F1.110

Fast Multipoint Evaluation of Bivariate Polynomials

We generalize univariate multipoint evaluation of polynomials of degree $n$ at sublinear amortized cost per point. More precisely, it is shown how to evaluate a bivariate polynomial $p$ of maximum degree less than $n$, specified by its $n2$ coefficients, simultaneously at $n2$ given points using a total of $O(n^{2.667})$ arithmetic operations. In terms of the input size $N$, being quadratic in $n$, this amounts to an amortized cost of $O(N^{0.334})$ per point.

This is joint work with Michael Nuesken.

Katharina Lürwer-Brüggemeier, Universitaet Paderborn

26. Mai 2004, 14:00 Uhr, F1.110

On the Power of Computations with Integer Division

The families of languages L \subseteq Z^n that can be recognized by S- computation trees with operation set S \subseteq {+,-,*,*_c,div,div_c} are characterized and separated for different operation sets. Lower bounds for the depth of such trees are deduced. It will be shown that each polynomial p \in Z[X] over a finite input set is computable with the operations {+,-,*_c,div} in constant time and therefore each finite language L \subseteq Z^n can be recognized by a {+,-,*_c,div }- CT in constant time. Polynomials p \in Z[X] over an infinite input set are computable in O(log log |x|) for x \in Z with the operations {+,-,*_c,div,\wedge}.

Jan Klein, Universitaet Paderborn

26. Mai 2004, 14:30 Uhr, F1.110

Proximity Graphs for Defining Surfaces over Point Clouds

We present a new definition of an implicit surface over a noisy point cloud. It can be evaluated very fast, but, unlike other definitions based on the moving least squares approach, it does not suffer from artifacts.

In order to achieve robustness, we propose to use a different kernel function that approximates geodesic distances on the surface by utilizing a geometric proximity graph. The starting point in the graph is determined by approximate nearest neighbor search. From a variety of possibilities, we have examined the Delaunay graph and the sphere-of-influence graph (SIG). For both, we propose to use modifications, the $r$-SIG and the pruned Delaunay graph.

We have implemented our new surface definition as well as a test environment which allows to visualize and to evaluate the quality of the surfaces. We have evaluated the different surfaces induced by different proximity graphs. The results show that artifacts and the root mean square error are significantly reduced.

Valentina Damerow, Universitaet Paderborn

02. Juni 2004, 14:00 Uhr, F1.110

On the average complexity of Delaunay diagrams

We give a linear upper bound on the expected number of Delaunay cells for n i.i.d. random sites chosen uniformly from the unit hypercube. While the worst case complexity of Delaunay diagrams is widely studied, the only average case analysis is up to Dwyer who showed in 1989 a linear bound for sites chosen uniformly from the unit ball. He conjectured that similar bounds hold for other distributions as well, but proofs are lacking.

Eric Gervais, Carleton University, Ottawa, Canada

16. Juni 2004, 14:00 Uhr, F1.110

The DynamicMap, a mobile, ubiquitous, and context-aware intelligent navigation system

Geographical information systems (GIS) have been around since the 1960s. Their evolution usually consisted of handling more data, and performing more computation on that data. Consequently nowadays GIS tend to be huge information management systems. In 1990 Mark Weiser introduced the concept of mobile and ubiquitous computing also known as pervasive computing. This concept would revolutionise our vision of the computing world including GIS. As a consequence there has been a lot of developments in the field of GIS on the issues of mobility and context-awareness. We have developed a prototyped application called the DynamicMap, which displays, on a PDA's screen, a map centred on the user's current location and oriented on the user's current orientation. We will discuss the various issues in designing such an application and on the impact a more advanced application could have in the user's every day life

Matthias Hilbig, Universitaet Paderborn

23. Juni 2004, 14:00 Uhr, F1.110

Perspektivische Suche in geometrischen Szenen

(Studienarbeit)

In dieser Studienarbeit wurden drei Datenstrukturen zur Durchfuehrung einer perspektivischen Suche anhand praktischer Messungen untersucht. Fuer die Datenstrukturen

* Theta-Graph mit Levelstruktur,

* BSPTree und

* transformierten BSPTree

werden anhand realistischer Beispielszenen die jeweils optimalen Werte fuer freie Parameter (Anzahl Sektoren/Level, Blattgroesse) bestimmt. Beim anschliessenden Vergleich der Datenstrukturen stellt sich heraus, dass der BSPTree in der Praxis eindeutig am besten abschneidet.

Ralf Petring, Universitaet Paderborn

21. Juli 2004, 14:00 Uhr, F1.110

Analyse eines randomisierten Protokolls zur Ausrichtung autonomer Roboter

(Studienarbeit)

In dieser Studienarbeit wurde ein Algorithmus zur Entscheidungsfindung in Verteilten Systemen analysiert der folgendes Problem löst: Eine Menge von n Robotern soll sich so ausrichten, dass alle in die gleiche Richtung schauen. Dazu wählt jeder Roboter zufällig zwei Partner, berechnet die drei Winkel zwischen den einzelnen Blickrichtungen und dreht sich in die „mittlere“ Richtung, welche dem größten der berechneten Winkel gegenüber liegt. Dieser Vorgang wird dann so lange wiederholt, bis alle Roboter in die gleiche Richtung schauen. Es wurde vermutet das der Algorithmus nach O(log n) Runden terminiert. Diese Vermutung wurde durch testen von möglichst schlecht konstruierten Spezialfällen erhärtet. Dazu wurde eine Simulationsumgebung bestehend aus Editor und Simulator implementiert.

Christian Schröder, Universitaet Paderborn

28. Juli 2004, 14:00 Uhr, F1.110

Geometrie- und bildbasiertes hybrides Rendering virtueller Szenen in Client/Server-Umgebungen

Für den Zugriff auf 3D-Daten im Internet wird abseits von proprietären Entwicklungen vor allem X3D verwendet. Dieser ehemals unter dem Namen VRML bekannte Standard hat aber entscheidene Nachteile bei komplexen Szenen, die gerade bei geringer Netzwerkbandbreite eine lange Übertragungsdauer bedingen. Ein weitereres Problem stellen leistungsschwache Clients dar, wie sie beispielsweise in Form eines Mobilfunktelefons oder PDA vorkommen.

Im Rahmen einer Diplomarbeit wurde ein hybrides Verfahren entwickelt und implementiert, welches in der Lage ist, ein kombiniertes client- und serverseitiges Rendering durchzuführen um vorgenannte Nachteile zu umgehen. Im Vortrag wird dieses Verfahren vorgestellt und Messergebnisse präsentiert.

Gereon Frahling, Universitaet Paderborn

04. August 2004, 14:00 Uhr, F1.110

Computing stable sets in bipartite graphs or organizing holidays without relationship problems

It's holiday time and of course we want to go on holiday with all our friends. But Dieter and Verona together always means trouble, traveling with Monica and Bill is quite impossible. How can I find an optimal set of friends without relationship problems? In this talk I will present a new pseudopolynomial algorithm to compute stable (or independent) sets with maximum weight in bipartite graphs. The best algorithms so far are based on a formulation as a flow-problem. Our algorithm is not based on such a flow based approach. Runtime tests show that our algorithm is faster than the flow based techniques for dense bipartite graphs.

Gunnar Schomaker, Universitaet Paderborn

04. August 2004, 14:30 Uhr, F1.110

Random Placement Concerning Profilling and Prefetching

In this talk, we present some side effects on random placement strategies in storage area networks (SAN) concerning profiling and prefetching. Within a storage area network the independence of storage allows parallel request processing without affecting each other. In such an environment the bottleneck may be caused by the hard disks bandwidth or their differences and/or the accessing clients maximum degree of parallelism and not by the networks capacity. If the completion order of request is important for the accessing application to avoid stall times (e.g., large video files), the data placement should be adopted to obtain the maximum bandwidth in the reading phase. This can easily be done if the placement strategy is static and the number of parallel access pattern is low. But what happens if the underlying data-distribution is a random distribution? Thus, it seems to be important to take a look at the causes for different completion times within parallel access phase.

Winter Term 2003 / 2004

Marvin Lindner, Universität Paderborn

9. Oktober 2003, 14:00 Uhr, F1.110

Verkürzte Huffman-Codierung zur Codekompression

Da bei der normalen Huffman-Codierung zu Beginn stets alle Codewörter berechnet, und in einer sogenannten Huffman-Tabelle abgelegt werden, werden diese Tabellen sehr schnell sehr groß. In Bereichen wie z.B. Datenspeicherung auf Chip-Karten, in denen jedoch nur beschränkt Speicherplatz für Daten und Tabelle zur Verfügung steht, wird daher eine möglichst effiziente, alternative Methode gesucht, die Huffman-Tabellen in ihrer Größe zu beschränken.

Die im Rahmen der Studienarbeit entwickelte Verkürzte Huffman-Codierung, versucht die Huffman-Tabellen zu verkleinern, indem sie nur ein Teil der Codewörter zur Codierung übernimmt. Eine Untersuchungen von Kompressionsraten und Tabellengrößen an Hand von zwei Codierungs-Methoden, soll schließlich zeigen, ob und inwiefern diese alternative Methode überhaupt nutzbar ist, und wenn möglich eine Richtlinie für ein möglichst effizientes Abschneiden liefern.

Martin Otto, Universität Paderborn

15. Oktober 2003, 14:00 Uhr, F1.110

A new CRT-RSA algorithm secure against Bellcore attacks

The "Bellcore attack" is a devastating fault attack against a famous modular exponentiation method using the Chinese Remainder Theorem (CRT). It has been shown in 1997 by Boneh, DeMillo, and Lipton that RSA can easily broken if it uses this method to perform modular exponentiations. We developed a new variant of this CRT-RSA algorithm that is almost as efficient as the original scheme and give a rigorous proof of security. To do so, we develop fault models based on real world smartcards and prove security for the most powerful adversary in the most realistic model.

Martin Ziegler, Universität Paderborn

22. Oktober 2003, 14:00 Uhr, F1.110

What is a hypercomplex polynomial and how fast can one do calculations on it

Fast arithmetic for polynomials over fields is well-known and has significantly accelerated many applications. The present talk presents ways of generalizing this to the SKEW-field of quaternions.

Matthias Ernst, Universität Paderborn

23. Oktober 2003, 14:00 Uhr, F2.419

Asymptotische Optimalität von LZ77 bei beschränktem Speicher

(Bachelorarbeit)

In der Bachelorarbeit wird für einen unabhängigen identisch verteilten Prozess gezeigt, dass LZ77, ein Kompressionsverfahren von Abraham Lempel und Jacob Ziv aus dem Jahre 1977, asymptotisch optimal ist, also eine besonders gute Kompressionsrate erzielt. Die Präsentation soll das Lesen der Arbeit vorbereiten, indem das LZ77 Verfahren sowie einige allgemeine Eigenschaften asymptotisch optimaler Verfahren an Beispielen erklärt werden. Der vollständige Beweis kann während der Präsentation nicht duchgeführt werden, allerdings wird die Schlüsselidee des Beweises angespochen, die mit ein bischen Mathematik dann zum gewünschten Ergebnis führt.

Christian Sohler, Universität Paderborn

29. Oktober 2003, 14:00 Uhr, F1.110

Estimating the Weight of Metric Minimum Spanning Trees in Sublinear-Time

joint work with Artur Czumaj

We present a sublinear time randomized algorithm to estimate the \emph{weight} of the minimum spanning tree of an $n$ point metric space to within a factor of $1 + \varepsilon$. The running time of the algorithm is $\widetilde{\O}(n / \varepsilon^{\O(1)})$, which is sublinear in the full description size of the input, which is $\Omega(n2)$. It has been previously shown that no $o(n2)$ algorithm exists that \emph{returns a spanning tree} whose weight is a constant times the optimum. Our algorithm is almost optimal as it is not possible to approximate in $o(n)$ the weight of the minimum spanning tree within any factor.

Michelle Jing Liu, Universität Paderborn

05. November 2003, 14:00 Uhr, F1.110

Distributed Parallel Scheduling Algorithms for High Speed Virtual Output Queuing Switches

We present a novel scalable scheduling architecture for input queued switches with virtual output queuing (VOQ) scheme and also proper high-performance arbitration algorithms for this architecture. In contrast to traditional switching architecture where the scheduler is implemented by one single centralized scheduling device, the proposed scheduling architecture connects several single scheduling devices in series and a distributed scheduling algorithm is run sequentially on them, whereby the inputs of each single scheduling device build connections to a group of outputs, considering both their local transmission requests as well as global outputs availability information. We show that a pipeline pattern can be used here to increase the efficiency of the scheduling scheme and the scheduling algorithms can be run in parallel on all the separate scheduling devices, which also guarantee the fairness of the scheduling. The advantage of this architecture is in its ability to construct a large scheduler with several small scheduling devices and offer high-performance scheduling as well. The parallel pipeline scheme yields a practical scalable solution for large port number switches. We first introduce a distributed parallel round robin scheduling algorithm (DPRR) for the proposed architecture. Through the analysis of simulation results on various admissible traffics, it is shown that the performance of DPRR is much better than or very close to the performance of other round robin scheduling algorithms used commonly on centralized schedulers. We also prove that under Bernoulli i.i.d. uniform traffic DPRR achieves 100% throughput. Second, we introduce a distributed parallel round robin scheduling algorithm with memory (DPRRM) as an improved version of DPRR to make it stable under any admissible traffic.

Ulrich Hoppe, Universität Paderborn

12. November 2003, 14:00 Uhr

Markowprozesse zur Modellierung bei Codekompression

Diese Diplomarbeit beschäftigt sich mit der Analyse ausführbarer Computerprogramme zwecks deren Kompression. Es handelt sich hierbei um ein semi-adaptives Modell, das ein Programm in einem 2-Phasen-Prozess komprimiert. In der ersten Phase wird mit Hilfe von Markowprozessen die Binärdarstellung eines gegebenen Computerprogramms auf ihre Struktur und ihre charakteristischen Merkmale untersucht. Hierbei wird ein Modell aufgebaut, das in der zweiten Phase von einem Codierverfahren, beispielsweise der Huffman- oder auch der arithmetischen Codierung, verwendet werden kann, um die Codekompression durchzuführen. Eine Anwendung findet sich in eingebetteten Systemen, zum Beispiel der Codekompression auf Smartcards. Aufgrund geringer Speicherressourcen werden hier Programme komprimiert abgespeichert, die dann zur Decodierung das Modell sowie das Codierverfahren selbst benötigen. Da also das Modell, das zur Kompression verwendet wird, ebenfalls gespeichert werden muss, darf seine Speicherkomplexität nicht zu gross sein. Das Ergebnis dieser Arbeit ist ein Modell, das einerseits eine gute Kompression erwarten lässt, andererseits jedoch eine grosse Speicherkomplexität besitzt. Zur Reduktion dieser Komplexität wurden verschiedene Algorithmen getestet, wobei das beste Verfahren das Modell auf 1/8 seiner Originalgrösse reduziert, und gleichzeitig die zu erwartende Kompression nicht zu stark negativ beeinflusst.

Valentina Damerow, Universität Paderborn

12. November 2003, 14:30 Uhr, F1.110

Smoothed number of convex hull vertices

We aim to bound the maximal number of vertices of the convex hull of n points in d dimensional space under random noise. We assume that the points are afflicted with some error, i.e. no exact information about the position of the points is known. As an error model we consider uniformly distributed noise, i.e. the position of each point is a uniformly distributed random vector from an arbitrarily placed hypercube of sidelength epsilon.

We present a sublinear upper bound of O((d n log n / epsilon)^(1 - 1/d)) and lower bounds for the 2 dimensional and 3 dimensional case of Omega((n / epsilon2)^(1 / 5)) and Omega((n / epsilon3)^(4 / 7)).

Tim Postler, Universität Paderborn

26. November 2003, 15:00 Uhr, F1.110

Simulation von wahrscheinlichkeitsgesteuerten Kanalzugriffsstrategien in mobilen Ad-hoc-Netzwerken

Mobile Ad-hoc-Netzwerke sind spontan gebildete, kurzlebige Netzwerke, die keine feste Infrastruktur besitzen und auch nicht zentral gesteuert werden. Die Kommunikation erfolgt drahtlos.

Im Rahmen des Vortrags wird der Zugriff der Teilnehmer des mobilen Ad-hoc-Netzwerkes auf den gemeinsamen Kommunikationskanal näher betrachtet.

Versuchen mehrere Teilnehmer gleichzeitig zu senden, kann dies zu Überlagerungen und Kollisionen führen. Wünschenswert wäre es, solche Kollisionen möglichst zu vermeiden oder zumindest deren Anzahl zu vermindern.

Neben etablierten Verfahren wird das experimentelle Verfahren PB-MAC vorgestellt, welches auf dynamischen Sendewahrscheinlichkeiten beruht. Es wurde in die Simulationsumgebung bestehend aus SAHNE (A Simulation Environment for mobile ad-hoc Networks) und der PPL (Packet Processing Library) integriert und getestet.

Die aus diversen Simulationsläufen gewonnenen Erkenntnisse bezüglich PB-MAC werden zum Ende des Vortrags präsentiert.

Benjamin Doerr, Christian-Albrechts-Universität zu Kiel

28. November 2003, 14:00 Uhr, F0.231

Discrepancies and Rounding Problems

In this talk, I will first give an elementary introduction to the concept of discrepancy and then speak on a recent result on matrix rounding. Given a real-valued matrix $A$, we are looking for an integer one $B$ (of same dimensions) such that for both matrices the sum of the entries in each rectangular (geometric) submatrix is similar. Hence we are minimizing

\[d(A,B) = \max_{I, J} |\sum{i \in I} \sum_{j \in J} (a_{ij} - b_{ij})|,\]

where $I$ and $J$ are intervals of integers. We show that for any $A$ there is a $B$ such that $d(A,B) = O(\log n)$, which is optimal apart from constants. $B$ may be chosen such that $|a_{ij} - b_{ij}| < 2$ for all $i, j$. The same problem with slightly sharpened restriction $|a_{ij} - b_{ij}| < 1$ for all $i, j$ is equivalent to Tusn\'ady's Problem, which is unsolved for more than 25 years.

Volker Krummel, Universität Paderborn

03. Dezember 2003, 14:00 Uhr, F1.110

Perfectly masking AES

Side channel attacks are a major threat for many implementations of cryptographic algorithms, i.e., on smart cards. An adversary uses information that leaks out by a (careless) implementation of some cryptographic algorithm in order to obtain (parts of) the secret key. As an example an adversary may use the time an algorithm takes or the power a smart card consumes. One way to counter side channel attacks is to randomize the inputs of an implementation. The goal is to make the information that leaks out unusable for an attack. All countermeasures proposed in the literature so far were based only on heuristics or experiments and most of them were exposed to be insecure. In contrast to the commonly used security concepts we present a formal and strong notion of security. Furthermore we present a general countermeasure that achieves security in our notion. We demonstrate this countermeasure by protecting the S-Box of AES against side channel attacks.

Marina Kyureghyan, Universitaet Bielefeld

10. Dezember 2003, 14:00 Uhr, F1.110

Monotonicity checking

Meine Arbeit liegt im Bereich der Analyse von Algorithmen und der Komplexitaet von Problemen. Ich habe die Komplexitaet der Monotonie-Ueberpruefung untersucht: Gegeben sei eine endliche partiel geordnete Menge $P$ versehen mit einer unbekannten reelwertigen Funktion $f$. Man finde heraus ob diese Funktion monoton wachsend ist, d.h. ob $f(x)\le f(y)$ fuer alle $x<y$ in $P$. Zwei Entscheidungsmodelle habe ich untersucht: Das Vergleichsmodell (comparison decision tree) und das lineare Modell (linear decision tree).

Christian Schröder, Universität Paderborn

17. Dezember 2003, 14:00 Uhr, F1.110

Hybrides Remoterendering auf Basis des Randomisierten Sample Tree

Für den Zugriff auf 3D-Daten im Internet wird abseits von proprietären Entwicklungen vor allem X3D verwendet. Dieser ehemals unter dem Namen VRML bekannte Standard hat aber entscheidene Nachteile bei komplexen Szenen, die gerade bei geringer Netzwerkbandbreite eine lange Übertragungsdauer bedingen.

Im Rahmen dieses Vortrags wird ein hybrides Verfahren vorgestellt, welches bereits während der Übertragung der Geometriedaten dem Client unbekannte Polygone als Bitmap sendet. Dadurch soll dem Benutzer die Möglichkeit gegeben werden, noch zu Beginn der Übertragung mit der Exploration der 3D-Welt zu beginnen.

Gereon Frahling, Universitaet Paderborn

07. Januar 2004, 14:00 Uhr, F1.110

Estimating the euclidian minimum spanning tree in the streaming model using sublinear memory

Consider a data stream, which consists of point coordinates in the euclidian space R^d. The size of the stream is bigger than the memory of the computer we use. Can one find a good algorithm to estimate the size of the euclidian minimum spanning tree of the points by passing a few times over the data stream? We introduce such an algorithm. When n denotes the number of points, our algorithm uses O(poly(1/e, log n) / p) memory bits, to find a (1+e)-approximation for the EMST value with probability at least 1-p. The algorithm uses four passes over the stream. We can improve the result to a lower number of passes and hope to find a 1-pass-algorithm in future.

Miroslaw Korzeniowski, Universitaet Paderborn

21. Januar 2004, 14:00 Uhr, F1.110

Load Rebalancing in Peer-to-Peer Networks

In Peer-to-Peer networks based on consistent hashing and ring topology each server is responsible for an interval chosen (pseudo-)randomly on a circle. The structure of the network (e.g. degree of a single node) and the amount of data a server stores depends heavily on the length of its interval.

Additionally, the nodes are allowed to join the network or to leave it at any time. Such operations can destroy the balance of the network even if all the intervals were equal in the beginning.

We deal with the task to rebalance such a system, so that the intervals assigned to the nodes are of equal lengths up to a constant factor. We propose a simple scheme which works in expected number of log log n rounds. Each round takes time of at most O(D), where D is the dilation of a specific network (e.g. log n for Chord). The total number of migrations is at most as high as the number of migrations generated by the optimal offline algorithm starting with the same initial network state. The scheme is a continuous process which does not have to be informed about possible imbalance in the network to start working. Furthermore it does not migrate anything if no migration is necessary.

I will also talk about improvements of the methods to constant number of communications with high probability.

Oliver Sudmann, Universitaet Paderborn

30. Januar 2004, 15:00 Uhr, F1.110

Algorithmen zur Visualisierung relativistischer Szenen

Gaengige Visualisierungs-Algorithmen beruecksichtigen nicht die bei hohen Geschwindigkeiten sehr realen Effekte von Einsteins Relativitaetstheorie. Gleichwohl gibt es theoretische Arbeiten und praktische Implementierungen, die dies tun. In diesem Vortrag ueber eine Studienarbeit geht es um einen Literaturueberblick mit Beispielen.

Tomas Brajkovic, Universitaet Paderborn

30. Januar 2004, 15:45 Uhr, F1.110

Polynomarithmetik über reellen Divisionsalgebren

In Analogie zu bekannten schnellen Algorithmen fuer Polynome ueber den Komplexen Zahlen wird hier *ein Polynombegriff ueber hyperkomplexen Zahlen, *ein Darstellungs-Kalkuel fuer selbige und *schliesslich schnelle Algorithmen dafuer entwickelt und praesentiert.

Marcel R. Ackermann, Universitaet Paderborn

04. Februar 2004, 14:00 Uhr, F1.110

Konzept eines Dekodierschaltkreises mit Tabellen-Arithmetik

(Diplomarbeit)

Intelligente Mikroprozessorkarten, sogenannte Smartcards, erfreuen sich in der Praxis einer immer zunehmenden Beliebtheit. Allerdings sehen sich Entwickler von Betriebssystemen und Anwendungen noch immer stark beschränkten Hauptspeicherkapazitäten auf Smartcards ausgesetzt. Hier kann der Einsatz von effizienten Kompressionstechniken zur Steigerung der Kapazitäten beitragen. Dieser Ansatz wird im Rahmen des Projektes "Online Codekompression für Smartcards" von der AG Blömer in Zusammenarbeit mit der Infineon Technologies AG München untersucht. Da die Kompression und Dekompression in Hardware realisiert werden soll, spielen hier strenge Kriterien an Größeneffizienz und Schaltkreistiefe eine Rolle. Der Vortrag präsentiert das Konzept eines Dekodierschaltkreises, welches auf Grundlage der tabellenbasierten arithmetischen Kodierung nach Howard und Vitter (1992) in einer aus diesem Projekt motivierten Diplomarbeit entwickelt wurde.

Mahmut Tapti, Universitaet Paderborn

04. Februar 2004, 14:45 Uhr, F1.110

Das dynamische Map Labeling Problem

Das klasse Beschriftungsproblem von Land und Stadtkarten.

Das dynamische Map labeling Problem ist gleich zu setzen mit der Problematik der Beschriftung dynamischer Systeme. Da das Problem NP-Vollständig ist, wird dieses Problem mit Hilfe eines Approximations-Algorithmus gelöst. Thema des Vortrages ist an Hand einiger theoretischer Grundlagen und mathematischer Herleitungen Konfliktsituationen der Beschriftungsplatzhalter zu erkennen, um daraus dann einen Algorithmus zu entwickeln, der die Beschriftungsplatzhalter nahezu optimal vergrößert. Die Beschriftungsplatzhalter werden als Labels bezeichnet und in der einfachsten Form als achsenparallele Quadrate angesehen. Diese sind soweit zu optimieren, dass sie so groß wie möglich werden und sich gegenseitig nicht schneiden. Im Rahmen dieses Vortrages werden einige Algorithmen, Modelle und mathematische Techniken vorgestellt, die das dynamische Map Labeling Problem mit Güte zwei plus einer kleinen Abweichung löst.

Klaus Volbert, Universitaet Paderborn

11. Februar 2004, 14:00 Uhr, F1.110

New Results and Open Problems on Spanners, weak Spanners and power Spanners

In this talk we consider geometric graphs and investigate the relation between spanners, weak spanners, and power spanners.

In a c-spanner there exists between two arbitray chosen nodes a path of length at most c times the euclidean distance between these nodes. In a weak c-spanner we know nothing about the length of this path, but the path must lie completely in a disk with radius c times the euclidean distance between the nodes. Finally, in a (c,\delta)-power spanner the cost of such a path is given by the sum of the costs of its edges where the cost of an edge is given by its length to the $\delta$. In such a graph there must exist a path of cost at most c times the cost of an optimal path with regard to this $\delta$-cost. If the mentioned c is a constant parameter independent of the number of nodes, then we call the corresponding graph a good (weak, power) spanner.

On the one hand, it is easy to see that a good spanner is also a good weak spanner and a good power spanner. On the other hand, there exists a good weak and power spanner that is only a bad spanner. Similarly we can construct a good power spanner which is a bad weak spanner. Then, we show the (interesting) result that a good weak spanner is also a good power spanner and close the relations.

Finally, we present a power spanner hierarchy, discuss how to determine the value c of a given geometric graph and talk about open problems.

Ingo Höckenschnieder, Universitaet Paderborn

11. Februar 2004, 14:30 Uhr, F1.110

Approximative Kollisionserkennung in großen Szenen

Heutige Walkthrough Anwendungen und virtuelle Welten sollen realistisch wirken. Das bedeutet, daß neben einer korrekten Darstellung der polygonalen Objekte auch feste Grenzen existieren müssen: eine Wand sollte massiv sein; durch einen Gegenstand soll man nicht durchgreifen können. Um solche Grenzen oder die (möglichst) reale Handhabung von Gegenständen zu ermöglichen, werden Kollisionstests benötigt. Während die Darstellung, also das Rendern von komplexen Szenen, effizient mittels Approximationsalgorithmen durchgeführt werden kann, stellt genau dies ein Problem in der Kollisionserkennung dar. Da heutige Verfahren größere Szenen mit sehr komplexen Objekten nicht effizient auf Kollisionen testen können, wird dieser Bereich der graphischen Visualisierung immer mehr zum Engpaß, denn der Rechenaufwand einfacher Algorithmen steigt überproportional mit der Komplexität der Objekte an. Viele virtuelle Systeme benötigen aber keine absolut korrekte Aussage, über die an der Kollision beteiligten Polygone. Meistens reicht es aus, daß die Visualisierung für den Betrachter korrekt erscheint - unabhängig davon, ob sie wirklich korrekt ist oder nicht. Ein möglicher Ansatz, Kollisionstests effizient durchzuführen, ist es, aus diesem Grund, Objekte nicht nur in Bounding-Hierarchien zu unterteilen, sondern darüber hinaus Tests mit approximativen Algorithmen zu absolvieren. Solche Tests sollten den Zeitaufwand reduzieren und mit Hilfe von Kollisionsmaßen eine annähernd korrekte Darstellung mit einem geringen Fehlermaß ermöglichen. Zusätzlich kann die Genauigkeit des Algorithmus, durch die zur Verfügung gestellte Zeit, beeinflußt werden, so daß Walkthrough Systeme selbst über deren Exaktheitsgrad entscheiden können.

Stefan Ruehrup, Universitaet Paderborn

18. Februar 2004, 14:00 Uhr, F1.110

Traffic and Hop Efficient Position-based Routing

A basic problem in wireless ad-hoc networks is to find a route to the destination. This is usually achieved by either exchanging routing information in order to build up routing tables or by flooding the network in order to discover a route to the destination. The disadvantages are obvious: Routing table entries may become obsolete and flooding the whole network induces a large overhead.

Position information is a valuable aid for solving a routing problem. If the participants can determine their geographical position, it suffices to forward a message in the rough direction of the destination. This way of delivering messages is called position-based routing.

Known position-based routing algorithms combine greedy forwarding with a recovery strategy to circumvent regions where no participants are located. If a region cannot be bridged because of the restricted transmission radius, we call it a barrier. To formalize the notion of barriers we divide the plane into cells and count the border cells of such regions. It can be observed that the performance of position-based routing algorithms depends on the size of these barriers.

Single message strategies using greedy forwarding and recovery induce no additional traffic (overhead), but the time needed to deliver a message depends on the size of the barriers. The fastest multi message strategy is flooding - unfortunately the induced traffic (i.e. the number of transmitted messages) is quadratic in the hop distance between source and destination. We present a multiple message strategy that reduces the traffic and needs asymptotically not more time than flooding.

Marcin Bienkowski, Universitaet Paderborn

18. Februar 2004, 14:30 Uhr, F1.110

Fighting Against Two Adversaries

Page migration is one of the fundamental subproblems in framework of data management in networks. It occurs in a distributed network of processors sharing one undivisible memory page of size $D$, which is stored in one of the processors. During runtime, processors access unit size data items from the page, and the system is allowed to move the page from one processor to another in order to minimize the total communication cost.

This problem was considered in the online setting numerous times by many researchers, and some online algorithms were proven to achieve cost within a constant factor of the optimal offline solution. However, all results were achieved under the assumption that the communication costs between processors were fixed during the execution of the whole process.

In this presentation we consider a model in which the communication costs can change in each time step, but the pace of changes is restricted. This is typical in mobile networks, and also models the dynamics of networks that are not exclusively dedicated to the page migration.

If network changes as well as the request sequence are given by some adversarial entity, we can prove a tight bound on a competitive ratio of the problem. However, the size of this ratio motivates us to assume that changes of communication costs are modeled by some stochastic process, and an adversary only dictates which processor issues a request. To analyze such hybrid case, we introduce a notion of expected competitive ratio and prove that for the case where constant number of processors perform a random walk on the d-dimensional torus it is $\O(d \log2 D)$.

Jens Krokowski, Universitaet Paderborn

03. März 2004, 14:00 Uhr, F1.110

Reducing State Changes with a Pipeline Buffer

A limiting factor in the performance of a rendering system is the number of state changes, i.e., change of texture, material, shader program, etc., in the stream of rendered primitives. Conventional approaches to this issue usually sort the sequence of primitives in a preprocessing step in order to minimize the number of state changes.

However, these methods cannot be easily combined with culling and approximation techniques used in modern rendering systems since these usually require a spatial sorting of the primitives as opposed to a sorting by attribute value.

In this presentation we propose to include a small software buffer between spatial sorting methods and graphics hardware in the rendering system. This so-called pipeline buffer can be used to locally rearrange the sequence of primitives on the fly so as to reduce the number of state changes.

We show that with a well chosen selection strategy -- that determines the next primitive to be rendered -- this rearrangement can be performed extremely fast and reduces the number of state changes by an order of magnitude. Our approach reduces the rendering time by roughly 30% and achieves almost the same rendering time as an optimal, i.e., presorted, sequence.

Christian Schindelhauer, Universitaet Paderborn

10. März 2004, 14:00 Uhr, F1.110

A Sensor Network with sleeping Routers

Sensor networks are a special case of ad-hoc networks. The main task is to collect and distribute information from sensors distributed in an enviromnent. In this talk we present a case of sensor network that collect information as well as distribute informtion down to the sensor nodes. Furthermore, the sensors need to live several years, which can only achieved by deactivating them for at least 98% of the time.

We will present further details of this challenging project and a distributed network algorithms that will work in this environment.

Jan Klein, Universitaet Paderborn

10. März 2004, 14:30 Uhr, F1.110

Time-Critical Collision Detection of Point Clouds

In the past few years, many efficient rendering and surface reconstruction algorithms for point clouds have been developed. However, collision detection of point clouds has not been considered until now, although this is a prerequisite to use them for interactive or animated 3D graphics.

In this talk, we present a novel approach for time-critical collision detection of point clouds. Based solely on the point representation, it can detect intersections of the underlying implicit surfaces. The surfaces do not need to be closed.

We construct a point hierarchy where each node stores a sufficient sample of the points plus a sphere covering of a part of the surface. These are used to derive criteria that guide our hierarchy traversal so as to increase convergence. One of them can be used to prune pairs of nodes, the other one is used to prioritize still to be visited pairs of nodes. At the leaves we efficiently determine an intersection by estimating the smallest distance.

We have tested our implementation for several large point cloud models. The results show that a very fast and precise answer to collision detection queries can always be given.

Summer Term 2003

Christian Schindelhauer, Universität Paderborn

07. Mai 2003, 14:00 Uhr, F1.110

The Event Frequency under Unpredictable Motion

We investigate the average frequency F of events caused by moving objects in Euclidean space. In our model motion is unpredictable while obeying physical restrictions. We distinguish two mobility models. In the pedestrian mobility model the velocity of all objects is bounded by v. In the vehicular mobility model the acceleration is bounded by a. The frequency is averaged over time.

Such general motion can cause arbitrarily high event frequency by fast oscillation with small amplitude. To bound the effect of oscillations we use a concept similar to smoothed analysis. Every object may be shifted at every time point in an epsilon-neighborhood in order to reduce the frequency of events.

We investigate this average event frequency for basic event types, e.g. Region, Min, Swap_n, Sort_n. It turns out that the average frequency F of an event type P_n can be upper-bounded by F \leq mc_1(P_n) v/epsilon, where mc_1(P_n) describes the pedestrian mobile complexity of the event type. For the vehicular mobile complexity, we have F \leq mc_2(P_n) (a/epsilon)^(1/2), where mc_2(P_n) describes the vehicular mobile complexity of P_n.

We prove close upper and lower bounds for basic event types with respect to these mobile complexity measures.

Michael Kortenjan, Universität Osnabrück

14. Mai 2003, 14:15 Uhr, F1.110

Potentially Visible Sets

Eine der Aufgaben der Computergraphik besteht in der Darstellung 3-dimensionaler Szenen. Die Komplexität dieser Aufgabe hängt dabei wesentlich von der Anzahl der darzustellenden Polygone ab. Durch Potentially Visible Sets können große Teile einer Szene als nicht sichtbar klassifiziert, und damit die Anzahl der zu verarbeitenden Polygone deutlich reduziert werden. Diese Technik ist vor allem auf statische Szenen mit beschränkten Sichtweiten, wie etwa dem Inneren von Gebäuden, anwendbar.

Dazu wird im ersten Schritt eine räumliche Unterteilung der Szene in Zellen erstellt. Danach werden Nachbarschaften zwischen den Zellen bestimmt, und für nebeneinander liegende Zellen werden Flächen berechnet, an denen die Zellen sich berühren, die aber nicht durch Polygone verdeckt sind. Durch diese Flächen ist es möglich, von einer Zelle in die andere zu blicken. Auf den Zellen entsteht so eine Graphenstruktur, in der zwischen zwei Zellen eine Kante besteht, falls sie zueinander benachbart sind, und von einer Zelle aus die andere sichtbar ist. Durch eine Tiefensuche werden, ausgehend von jeder Zelle, die von ihr aus sichtbaren anderen Zellen festgestellt.

Da die Szene statisch ist, muss die Sichtbarkeit nicht zur Laufzeit berechnet werden, sondern lässt sich bereits vorher bestimmen. Deshalb kann ein erhöhter Rechenaufwand für die Berechnungen in Kauf genommen werden. Zur Laufzeit muss nur festgestellt werden, in welcher Zelle sich der Standpunkt des Betrachters befindet. Durch die Organisierung der räumlichen Unterteilung durch Bäume ist dies leicht möglich.

Joachim Gehweiler, Universität Paderborn

21. Mai 2003, 14:00 Uhr, F1.110

Entwurf und Implementierung einer Laufzeitumgebung für parallele Algorithmen in Java

In dieser Studienarbeit wurde ein System entworfen und implementiert, das der Ausführung paralleler Algorithmen nach dem Bulk-Synchronous Parallel (BSP)-Modell dient. Von der Paderborn University BSP Library (PUB) unterscheidet es sich dadurch, dass es vom Einsatzgebiet her nicht für Parallelrechner konzipiert ist, sondern vielmehr für eine Ansammlung von PCs und Workstations, die über das gesamte Internet verteilt sind. Gegenüber anderen bekannten Web-Computing Projekten wie z.B. SETI@home oder distributed.net zeichnet sich dieses System dadurch aus, dass nicht Clients von einem zentralen Server "häppchenweise" unabhängige Teilprobleme anfordern und lösen, sondern dass die Clients gemeinsam an einem Problem arbeiten, indem sie nach dem BSP-Modell miteinander kommunizieren und sich synchronisieren.

Bernhard Ömer, TU Wien

28. Mai 2003, 14:00 Uhr, F1.110

Quantum Computing for Programmers

While classical computing science has developed a variety of methods and programming languages around the concept of the universal computer, the typical description of quantum algorithms still uses a purely mathematical, non-constructive formalism which makes no difference between a hydrogen atom and a quantum computer.

In this talk, we will investigate

- how the concept of structured programming languages, the most widely used classical formalism for describing and implementing algorithms, can be adopted to the field of quantum computing

- how non-classical features like entanglement, the non-observability of quantum states and the reversible nature of quantum mechanics can be dealt with, and

- how fundamental elements of quantum algorithms like elementary gates, quantum registers, unitary operators, measurements can be reflected semantically.

The experimental language QCL will serve as an example for an actual quantum programming language built on the above principles. An free QCL interpreter for Linux, which also integrates a numerical simulator to emulate quantum computers of arbitrary size, is available form

tph.tuwien.ac.at/~oemer/qcl.html

Miroslaw Korzeniowski, Universität Paderborn

04. Juni 2003, 14:00 Uhr, F1.110

A Practical Algorithm for Constructing Oblivious Routing Schemes

In a (randomized) oblivious routing scheme the path chosen for a request between a source s and a target t is independent from the current traffic in the network. Hence, such a scheme consists of probability distributions over s-t paths for every source-target pair s,t in the network.

In a recent result (H. Raecke "Minimizing Congestion in General Networks") it was shown that for any undirected network there is an oblivious routing scheme that achieves a polylogarithmic competitive ratio with respect to congestion. Subsequently, Azar et al. gave a polynomial time algorithm that for a given network constructs the best oblivious routing scheme, i.e. the scheme that guarantees the best possible competitive ratio. Unfortunately, the latter result is based on the Ellipsoid algorithm; hence it is unpractical for large networks.

In this paper we present a combinatorial algorithm for constructing an oblivious routing scheme that guarantees a competitive ratio of O(log^4n) for undirected networks. Furthermore, our approach yields a proof for the existence of an oblivious routing scheme with competitive ratio O(log^3n), which is much simpler than the original proof from (H. Raecke "Minimizing Congestion in General Networks").

Jan Klein, Universität Paderborn

04. Juni 2003, 14:30 Uhr, F1.110

Probability Calculations for Time-Critical Collision Detection

We present a generic framework and algorithm for hierarchical collision detection, which allows an application to balance speed and quality of the collision detection. Our approach yields a numerical measure of the quality using probability computations. This can either be specified by the simulation or interaction, or it can help to assess the result of the collision detection in a time-critical system. Our method can be applied to virtually all bounding volume (BV) hierarchies. Conceptually, we consider sets of polygons during traversal and compute probabilities that there is an intersection among these sets. This can be done efficiently by storing characteristics about the distribution of the set of polygons with each node in a BV hierarchy. Consequently, we neither need any polygon intersection tests nor access to any polygons during the collision detection process. We have implemented our new approach with two basic BV hierarchies and present performance measurements and comparisons with a traditional algorithm. The results show a speedup of about a factor 3 with only approximately 4\% error.

Ankur Agiwal, Universität Paderborn

04. Juni 2003, 15:00 Uhr, F1.110

Geometric Ad Hoc Routing

First of all, I will give some brief desciption of my projects done at IIT Delhi (India) during my semesters. Then, I will discuss about some general routing algorithms (Compass Roouting, Geometric Routing and Greedy Routing). Then, I will discuss on a new geometric ad-hoc routing. The basic assumption is that there is no geometric information about the motion of nodes. Velocity and acceleration of the nodes is bounded and their exact position at a prior time (say, intitial time t=0) is known. My work is to do some simulations of routing algorithms in ns-2, which is a discrete event simulator targeted at networking research, developed by LBNL.

Ankur Bhargava, Universität Paderborn

04. Juni 2003, 15:20 Uhr, F1.110

Lattice Attacks on the NTRU Cryptosystem

The latest advancements in the field of cryptography revolves around the NTRU cryptosystem which seeks to provide efficient security using tools of algebra. This talk will try to describe briefly the cryptosystem and the attacks I need to implement for performance measurements.

  • Introduction: Here I provide a brief introduction of myself with a little description of some of my projects.
  • NTRU: Here we will have a look into the basic features of the NTRU cryptosystem and the characteristics which make it useful as a security system.
  • Project: This part of the talk deals with the description of the project and some details regarding the implementation.
Alexander May, Universität Paderborn

11. Juni 2003, 14:00 Uhr, F1.110

Factoring RSA-Moduli Knowing a Fraction of the Secret Key Bits

In this talk, we study the following question: When does the knowledge of a fraction of the secret key bits suffice to factor an RSA-modulus N=pq? This question mainly arises from the study of side-channel attacks on RSA, where an attacker either gets most or least significant bits of the secret key. In the case of most significant bits, we present an attack on RSA when the public exponent e is smaller than N^{0.725}. For least significant bits, we provide a method that works up to e<N^{7/8}. Furthermore, we focus on attacks for fast RSA variants with small public exponent, where we show that half of the bits of the value d modulo (p-1) suffice to factor N. This amount is only a quarter of the bits of N and therefore the method belongs to the strongest known attacks in this area.

Ankur Bhargava, Universität Paderborn

11. Juni 2003, 14:30 Uhr, F1.110

Lattice Attacks on the NTRU Cryptosystem

The latest advancements in the field of cryptography revolves around the NTRU cryptosystem which seeks to provide efficient security using tools of algebra. This talk will try to describe briefly the cryptosystem and the attacks I need to implement for performance measurements.

  • Introduction: Here I provide a brief introduction of myself with a little description of some of my projects.
  • NTRU: Here we will have a look into the basic features of the NTRU cryptosystem and the characteristics which make it useful as a security system.
  • Project: This part of the talk deals with the description of the project and some details regarding the implementation.
Vikas Bansal, Universität Paderborn

11. Juni 2003, 15:00 Uhr, F1.110

Property Testing and Minimum Spanning Trees

We consider the problem of testing if a spanning tree is a minimum spanning tree of a graph or is far away from being a minimum spanning tree. We present a testing algorithm for bounded degree graphs with maximum degree d which has a running time of O(\frac{d}{\epsilon2}), where \epsilon is the error parameter. Our algorithm always accepts the spanning tree when it is a minimum spanning tree, and rejects it with high probability when it is $\epsilon$-far from being a minimum spanning tree. The distance from a minimum spanning tree is measured as a fraction of the number of vertices. We consider both the graph and the spanning tree to be represented by bounded-length incident lists of length d. The running time of our algorithm is independent of the number of vertices in the graph and is essentially constant provided that d and \epsilon are constant.

Philipp Wölfel, Uni Dortmund

27. Juni, 14:00, F0.530

Fast zufällige Graphen mit einfachen Hashfunktionen

(Zusammenarbeit mit Martin Dietzfelbinger, TU Ilmenau)

Sei S eine Menge von Schlüsseln eines endlichen Universums U. Dann definieren zwei Hashfunktionen h_1,h_2 : U->{0,...,m-1} einen bipartiten Graphen G(S,h_1,h_2) mit Knotenmenge {0,...,m-1}X{0,...,m-1}, bei dem jeder Schlüssel x aus S genau eine Kante mit Endpunkten h_1(x) und h_2(x) erzeugt. Wählt man h_1 und h_2 zufällig aus einer Familie von Hashfunktionen, so hat der auf diese Weise erzeugte Graph gewisse Zufallseigenschaften.

Solche zufällig erzeugten Graphen haben bisher zahlreiche Anwendungen gefunden, z.B. bei der Methode zur Simulation uniformer Hashfunktionen von Östlin und Pagh (2003), beim dynamischen Wörterbuch "Cuckoo Hashing" (Pagh und Rodler, 2001), oder bei der PRAM Simulation durch DMMs (Karp, Luby und Meyer auf der Heide, 1996). Für alle diese Anwendungen müssen die durch h_1,h_2 erzeugten Zufallsgraphen aber recht starke zufällige Eigenschaften aufweisen, die bisher nur mit mindestens log(n)-fach unabhängigen Hashfunktionen erreicht werden konnten, die auf der sog. Siegel-Konstruktion beruhen (Siegel 1989). Solche Hashfunktionen haben aber eine extrem hohe (konstante) Auswertezeit und sind daher nicht praktikabel.

In dem Vortrag wird eine einfache Familie von Hashfunktionspaaren vorgestellt. Die Funktionen können sehr effizient ausgewertet werden, da sie im wesentlichen nur auf d-facher Unabhängigkeit basieren (für eine kleine Konstante d). Trotzdem hat der bipartite Graph, der durch ein zufällig ausgewähltes Paar (h_1,h_2) erzeugt wird, so starke Zufallseigenschaften, dass z.B. die o.g. Anwendungen durch unsere Konstruktion realisiert werden können.

Berthold Voecking, Uni Dortmund

27. Juni, 15:30 Uhr, F0.530

Random Knapsack in Expected Polynomial Time

We present the first average-case analysis proving an expected polynomial running time for an exact algorithm for the 0/1 knapsack problem. In particular, we prove, for various input distributions, that the number of/dominating solutions/ (i.e., Pareto-optimal knapsack fillings) to this problem is polynomially bounded in the number of available items. An algorithm by Nemhauser and Ullmann can enumerate these solutions very efficiently so that a polynomial upper bound on the number of dominating solutions implies an algorithm with expected polynomial running time. The random input model underlying our analysis is very general and not restricted to a particular input distribution. We assume adversarial weights and randomly drawn profits (or vice versa). Our analysis covers general probability distributions with finite mean, and, in its most general form, can even handle different, independent probability distributions for the profits of different items. This feature enables us to study the effects of correlations between profits and weights. Our analysis confirms and explains practical studies showing that so-called /strongly correlated/ instances are harder to solve than/weakly correlated/ ones.

Joint work with Rene Beier.

Stefan Rührup, Universität Paderborn

25. Juni 2003, 14:30 Uhr, F1.110

Robust Traffic-efficient Position-based Routing

Position-based routing is a routing method that uses the information from a positioning system to determine the direction in which a packet has to be forwarded. The motivation for using such a method is that neither route discovery nor routing table maintenance is needed. Therefore it is well suited for mobile networks. The main prerequisite is that a node in the network knows its geographical position at any time. If this position, that can be obtained from a positioning system like GPS, is broadcasted to the neighbors at regular intervals, then a node is able to choose the next target that minimizes the distance to the destination. This kind of greedy strategy fails, if the routed packet gets stuck in a local minimum. In this case a recovery strategy is applied to find a way out of the dead end. Known recovery strategies require a planarization of the network topology. We propose a recovery strategy that uses local information and does not rely on a planar topology, thus making recovery more robust against inaccurate position information. In addition we use a strategy to avoid long detours while using the recovery method. Packets can be delivered even with out-dated location information about the destination by flooding the area around the last reported position of the destination node.

Klaus Volbert, Universität Paderborn

25. Juni 2003, 14:00 Uhr, F1.110

Lifetime-oriented Topology-Control in heterogeneous, mobile Networks

We investigate the problem of topology-control in heterogeneous, mobile networks. In general, a collection of nodes of similar type and with homogeneous transmission capabilities is given in the plane. The aim is to determine a network structure that is at least connected and has nice communication properties regarding routing time and energy consumption. Following this homogeneous approach, each node has the same features (e.g., energy reserve per node, transmitting characteristic). In this work, we propose a heterogeneous point of view and discuss heterogeneity in wireless networks. Further, we introduce a heterogeneous model in which we allow fixed base stations with unlimited energy and mobile devices with limited energy where the energy quantity differs from node to node. In this model, we focus on optimizing the lifetime of a given communication network. We introduce link and network lifetime, present upper bounds, and show that an optimal topology for link lifetime can be computed in polynomial time. Finally, we give some ideas and directions for further research.

Stefan Rührup, Universität Paderborn

25. Juni 2003, 14:30 Uhr, F1.110

Robust Traffic-efficient Position-based Routing

Position-based routing is a routing method that uses the information from a positioning system to determine the direction in which a packet has to be forwarded. The motivation for using such a method is that neither route discovery nor routing table maintenance is needed. Therefore it is well suited for mobile networks. The main prerequisite is that a node in the network knows its geographical position at any time. If this position, that can be obtained from a positioning system like GPS, is broadcasted to the neighbors at regular intervals, then a node is able to choose the next target that minimizes the distance to the destination. This kind of greedy strategy fails, if the routed packet gets stuck in a local minimum. In this case a recovery strategy is applied to find a way out of the dead end. Known recovery strategies require a planarization of the network topology. We propose a recovery strategy that uses local information and does not rely on a planar topology, thus making recovery more robust against inaccurate position information. In addition we use a strategy to avoid long detours while using the recovery method. Packets can be delivered even with out-dated location information about the destination by flooding the area around the last reported position of the destination node.

Birgitta Grimm, Universität Paderborn

02. Juli 2003, 14:00 Uhr, F1.110

Compression on Smart Cards

Smartcards have very limited memory. Hence it is sometimes useful to compress the program code of the smartcard. For this application of data compression methods we get very peculiar requirements. The decompression algorithm itself must be space efficient. The compression must have only little impact on the way the program is run. Furthermore the compression rate must be very high. Otherwise, the overhead caused by the compression can not be justified. In this talk I will present what we have done so far to meet all these requirements.

Artur Czumaj, New Jersey Institute of Technology

02. Juli 2003, 14:30 Uhr, F1.110

Broadcasting Algorithms in Directed Radio Networks with Unknown Topology

In this talk, we will discuss randomized and determinsitic algorithms for the broadcasting problem in directed radio networks with unknown topology.

We consider general directed n-node radio networks with specified eccentricity D (maximum distance from the source node to any other node) in which the nodes don't know the topology of the network. In a seminal work on randomized broadcasting, Bar-Yehuda et al. presented an algorithm that completes the broadcasting in O(D log n + log^2n) time, with high probability. This result is almost optimal, since it has been known that every randomized algorithm requires O(D log(n/D) + log^2n) expected time to complete broadcasting.

We present a new randomized algorithm that achieves the optimal broadcasting time, which is O(D log(n/D) + log^2n). In particular, we obtain the first randomized algorithm that completes broadcasting in any n-node radio network in time O(n), with high probability; the best previously existing algorithm achieved the running time O(n log n).

Next, we demonstrate how to apply our approach to deterministic broadcasting, and describe a deterministic oblivious algorithm that completes broadcasting in almost optimal time O(n log^2D), which improves upon best known algorithms in this case.

Joint work with Wojciech Rytter

Marcin Bienkowski, Universität Paderborn

09. Juli 2003, 14:00 Uhr, F1.110

Page Migration in Dynamic Networks

In this talk we will discuss online randomized algorithms for page migration problem in networks where costs of the edges are subject to change.

In the page migration problem a graph with costs assigned to the edges is given. The sequence generated by an adversary consists of the numbers of the processors which want to access the page (which is stored at a node). Our algorithm has to decide when and where to move the page. We give an additional power to the adversary allowing her to change the costs of the edges in a restricted way. We obtain bounds which are up to constant factor tight on competitive ratios against oblivious and adaptive-online adversaries for graphs consisting only of one edge. We conjecture that the bounds hold also in general graphs where edges' costs satisfy the triangle inequality.

Olaf Bonorden, Universität Paderborn

16. Juli 2003, 14:00 Uhr, F1.110

Fault Tolerance for BSP-Computer

One Problem using large workstation clusters as parallel computers is caused by failures of the workstations. There are different approaches to deal with such faults. In this talk we give a short overview of fault tolerance layers and different techniques (redundancy and checkpointing) to cope with errors. We show the benefits of the BSP programming paradigm for creating consistent checkpoints in message passing computers and present two strategies for checkpoint creation.

Martin Otto, Universität Paderborn

16. Juli 2003, 14:30 Uhr, F1.110

Fault attacks on modular exponentiation algorithms

Modular exponentiations are the basic operation for the RSA cryptosystem. There are several algorithms that can be used to compute a modular exponentiation. For some of them, it has been shown that fault attacks can be used to recover secret information, thereby breaking the given instance of the RSA cryptosystem. For the famous modular exponentiation using the Chinese Remainder Theorem to speed up the computation, this has been shown by Boneh, DeMillo and Lipton in 1997. They also presented a successful fault attack on one version of the repeated squaring algorithm (the right-to-left version). In addition to that, this talk will present a new algorithm to break the left-to-right version of the repeated squaring algorithm as well.

Martina Terbahl, Universität Paderborn

23. Juli 2003, 14:00 Uhr, F1.110

Verteiltes Rendern für interaktives Walkthrough in virtuellen 3D Welten

Der Rendering-Prozess ist ein rechenintensiver Vorgang, vor allem wenn realistische Bilder und hohe Bilderzeugungsraten benötigt werden. Eben diese Anforderungen werden an ein Walkthrough-System gestellt, bei dem der Anwender die Möglichkeit hat, sich mit Hilfe von interaktiven Eingriffen durch eine virtuelle Welt zu bewegen. Um hierfür Szenen mit einer höheren Bildwiederholrate rendern zu können, gibt es neben Approximations- und Culling-Verfahren die Möglichkeit der verteilten Berechnung, bei der der Rendering-Prozess auf mehreren Rechnern parallel ausgeführt wird. Hierbei ist es von entscheidender Bedeutung, eine gleichmäßige Auslastung der Rechner zu erreichen, da die Leistung des Gesamtsystems abhängig von der langsamsten Komponente ist.

Im Rahmen der Diplomarbeit wurde ein neuartiges Online-Verfahren zur dynamischen Bildaufteilung entwickelt, implementiert und evaluiert, das durch Ausnutzung der temporären Kohärenzen zwischen aufeinanderfolgenden Bildern eine Annahme über die Verteilung der Laufzeit bestimmenden Faktoren im zu berechnenden Bild macht. Im Vortrag werden die dazu entwickelten Kostenmodelle vorgestellt sowie eine Angleichungsformel zur Berechnung der neuen Bildaufteilung. Des Weiteren wird eine Bewertung des Verfahrens anhand der erzielten experimentellen Ergebnisse vorgenommen.

Hans-Florian Geerdes, Zuse Institute Berlin (ZIB)

30. Juli 2003, 14:00 Uhr, F1.110

Mathematical Programming Techniques for the Potential of Relaying in Wireless LANs

Relaying is a protocol extension for cellular wireless computer networks; in order to utilize radio resources more efficiently, several hops are allowed within one cell. This talk investigates the principle potential of relaying by casting transmission scheduling as a mathematical optimization problem, namely, a linear program. To solve the linear program, a column generation algorithm is applied. We analyze the throughput gains showing that, irrespective of the concrete scheduling algorithm, performance gains of up to 30% on average for concrete example networks are achievable.

Matthias Fischer, Bengt Mueck, Universität Paderborn

06. August 2003, 14:00 Uhr, F1.110

BAMSI: Benutzerunterstützte Analyse von Materialflusssimulationen in virtuellen Umgebungen

We talk about a new interdisciplinary project of the groups Dangelmaier and Meyer auf der Heide, that covers the research areas modeling and simulation in the context of material flow simulation as well as data structures and algorithms for the rendering of virtual 3D scenes. We will discuss the goals of the project and future direction of our research.

Simulation and visualization are well-known methods for the understanding and analyzing of manufacturing processes. In visualizations of manufacturing processes the viewer can move around freely and unguided. Thus knowledge and conclusions are only acquired on a random base. We outline a system that support the viewer to keep an eye on noticeable/significant processes/points in the material flow simulation and to optimize these processes. We describe methods, which enables the viewer of a simulation to interactively improve significant production processes. The viewer moves in a virtual 3D-environment (walkthrough system) and can acquire automatically calculated indications for significant processes. At the same time the simulation should simulate significant objects in a more detailed way. If the viewer is interested in a significant process, he is automatically guided to the relevant place where he can examine the critical situation by interference in the simulation. Since the critical moment is in the past and is thus already missed by the viewer, the viewer is able to rollback the simulation to a time before he entered the simulation.

Valentina Damerow, Universität Paderborn

10. September 2003, 14:00 Uhr, F1.110

Smoothed Motion Complexity

We propose a new complexity measure for movement of objects, the smoothed motion complexity. Many applications are based on algorithms dealing with moving objects, but usually data of moving objetcs is inherently noisy due to measurement errors. Smoothed motion complexity considers this imprecise information and uses smoothed analysis to model noisy data. The input is object to slight random perturbation and the smoothed complexity is the worst case expected complexity over all inputs w.r.t. the random noise. We think that ususally applied worst case analysis of algorithms dealing with moving objects, e.g., kinetic data structures, often does not reflect the real world behavior and that smoothed motion complexity is much better suited to estimate dynamics. We illustrate this approach on the problem of maintaining an orthoginal bounding box of a set of n points in R^d under linear motion. The motion complexity is then the number of combinatorial changes to the description of the bounding box. Under perturbation with Gaussian normal noise the smoothed motion complexity is only polylogarithmic. For the uniform and some other monotone noise distributions we obtain that the smoothed motion complexity is polynomial.

This is joint work with Friedhelm Meyer auf der Heide, Harry Räcke, Christian Sohler (Paderborn), and Christian Scheideler (Johns Hopkins University, Baltimore).

Kerstin Voß, Universität Paderborn

11. September 2003, 14:00 Uhr, F1.110

Asymptotische Optimalität von Lempel-Ziv bei Markowprozessen

Abstract: Asymptotische Optimalität von Lempel-Ziv bei Markowprozessen...

Daniel Kuntze, Universität Paderborn

11. September 2003, 14:30 Uhr, F1.110

Tabellenbasierte arithmetische Codierung

Abstract: Bei der Entwicklung von Kompressionsverfahren kommt es auf drei Effiziensmaße an: Die Kompressionsrate, die Laufzeit und den Speicherplatzverbrauch. Bestimmte Verfahren mit beweisbar guten Kompressionsraten heißen "asymptotisch optimal". Das bekannteste von ihnen ist wohl die Huffman-Codierung. Sie hat aber den Nachteil eines großen Speicherplatzverbrauchs. Auch die arithmetische Codierung gehört zu diesen Verfahren. Sie hat den Nachteil einer großen Laufzeit aufgrund der arithmetischen Operationen, von denen sie starken Gebrauch macht. Die von Howard und Vitter entwickelte tabellenbasierte arithmetische Codierung versucht diesen Nachteil zu umgehen. Dabei ermöglicht die Inkaufnahme eines gewissen Kompressionsverlustes, dass die nötigen Berechnungen im Voraus getätigt und die Ergebnisse in Tabellen abgelegt werden. Während des Codierens wird dann Arithmetik durch Nachschauen in den Tabellen ersetzt.

Winter Term 2002 / 2003

Valentina Damerow, Universität Paderborn

16. Oktober 2002, 14:00 Uhr, F1.110

Smoothed Analysis of Geometric Problems

Smoothed Analysis is a hybrid of worst case and average case analysis of algorithms. Inputs are object to slight random perturbations and the runtime is measured in terms of the inputs size and the variance of the perturbation. Smoothed analysis was introduced by Daniel A. Spielman and Shang-Hua Teng who proved polynomial smoothed complexity for the (Shadow Vertex) Simplex Algorithm. We apply smoothed analysis to the problem of counting the number of left-to-right maxima in a sequence of points and derive bounds for geometric problems as maintaining a bounding box and the smoothed number of vertices of convex hulls.

This is joint work with Friedhelm Meyer auf der Heide, Harald Räcke, Christian Scheideler, and Christian Sohler; and it is still in progress.

Alexander May, Universität Paderborn

13. November 2002, 14:00 Uhr, F1.110

There Are N^(3/4-\epsilon) Weak RSA-keys

We show that there is a class of RSA public keys (N,e), where every element of the class yields the factorization of N=pq in time polynomial in the bit-length of N. The class consists of all (N,e) that satisfy a relation ew + z = 0 modulo \phi(N) with small parameters w and z. For every fixed N, this class contains at least N^(3/4 - \epsilon) public keys (N,e). Even worse, for prime difference p-q = N^(1/4 + \gamma), 0 < \gamma < 1/4 the class has N^(1 - \gamma - \epsilon) elements. Similar to Wiener's attack on RSA, we make use of continued fractions. Wiener's attack is a special case of our method with w=d and z=-1. As a new application of our approach, we present the cryptanalysis of an RSA-type scheme presented by Yen, Kim, Lim and Moon. Our results point out again the warning for crypto designers to be careful when using the RSA key generation process with special parameters.

(joint work with Johannes Bloemer)

Mahmut Tapti, Universität Paderborn

13. November 2002, 14:30 Uhr, F1.110

Kinetisches Map Labeling

(Antrittssvortrag Diplomarbeit)

Beim Map Labeling geht es um das klassische Problem zur Beschriftung vpn Land- und Stadtkarten. Da das Problem NP-Volllständig ist und somit zu den schwierigen Problemen in der Praxis gehört, wird es mit Approximationsalgorithmen gelöst. In diesem Vortrag wird das Problem zunächst in Form einiger Beispiele vorgestellt, dann genauer definiert. Zunächst wird das "statische Maplabeling Problem" vorgestellt, dabei handelt es sich um eine Anzahl von Punkten, die auf einer Ebene verteilt sind. Ziel ist es, die Punkte so labeln, daß sich die Labels nicht überschneiden und die Labels so groß wie möglich werden. Analog zu dem Landkartenbeschriftungsproblem stellen die verteilten Punkte die Städte auf der Landkarte dar und die Labels sind Platzhalter für die Namen der Städte. Da das allgemeine Beschriftungsproblem der Landkarten sehr schwierig zu lösen ist, wird das Problem auf die Labels gleicher Größe reduziert und die Beschriftungsumrahmungen werden als Quadrate angesehen. Es wird zu diesem reduzierten Problem ein Aproximationsalgorithmus von Frank Wagner vorgestellt, der im theoretischen Sinne eine gute Laufzeit und Güte bietet. In der Praxis stellte sich dieser Algorithmus in der reinen Form als nicht benutzbar heraus, aber es war ein guter Ansatz für eine Forschergruppe in Universität Berlin dieses Problem mit einigen Heuristiken aufzubessern. Bezug nehmend auf den Algorithmus von Frank Wagner wird das Problem auf den Dynamischen Fall erweitert, was auch das Thema der Diplomarbeit wäre. Im kinetischen Fall werden unter anderem eine Anzahl von verschiedenen Punkten auf der Ebene betrachtet, die fest vorgegebene Geschwindigkeiten in beliebige Richtungen haben. Die zu erwartende Lösung wäre, die Punkte so zu labeln, daß in keinem Zeitpunkt sich die Labels schneiden und die Labelgröße so Groß wie möglich wird. Das Problem wird von 2D auf 3D transformiert und dann wie im "statischen Map Labeling Problem" mit dem Algorithmus von Frank Wagner, mit kleinen Modifikationen, gelöst. Die Transformation erfolgt durch die Einführung einer zusätzlichen Zeitachse damit der zeitabhändige Geschwindigkeitsvektor aus dem Modell genommen wird.

Jörn Mühlencord, Universität Paderborn

27. November 2002, 14:00 Uhr, F1.110

Simulation von Datenverteilungsstrategien für beliebige Netzwerke

Anders als bei herkömmlichen P2P-Netzwerken werden in Systemen wie kooperativen Lernsystemen oder bei verteilten Berechnungen im Internet Datenobjekte (Dateien, Variablen, ...) von mehreren Rechnern, die durch ein beliebig aufgebautes Netzwerk verbunden sind, nicht nur gelesen, sondern auch geschrieben. Dies erfordert, dass die bei Leseoperationen angelegten Kopien verwaltet werden, damit sie bei einem Schreibzugriff invalidiert werden können, um die Konsistenz der Daten zu gewährleisten. Die Art und Weise, wie die Daten verwaltet werden hat großen Einfluss auf die Performance des Netzwerks.

Es existieren Analysen zu Datenverteilungsstrategien in fest-strukturierten Netzwerken wie Gittern oder Hypercubes. Eine Technik, die zur Analyse dieser Netzwerke genutzt wurde, ist die Baumeinbettung in das Netzwerk. Hierbei wird zum realen Netzwerk ein logisches Netzwerk in Baumstruktur erzeugt, und die Kommunikation und Datenverwaltung in diesem Netzwerk berechnet. Die logischen Knoten werden hierbei mit geeigneten Strategien in das reale Netzwerk eingebettet. Diese Technik soll in der Diplomarbeit auf beliebige Netzwerk erweitert werden. Hierbei sollen sowohl die Art und Weise der Erzeugung und Einbettung des Baumnetzwerks, die Strategie der Datenverwaltung im Baumnetzwerk als auch die Routingsstrategie im realen Netzwerk in verschiedenen Ausprägungen getestet werden. Um die verschiedenen Strategien miteinander vergleichen zu können, soll eine Simulationsumgebung entwickelt werden, die die verschiedenen Strategien anwenden und unter unterschiedlichen Gesichtspunkten analysieren kann.

Udo Adamy, ETH Zürich

04. Dezember 2002, 14:00 Uhr, F1.110

Call Admission Control in Rings

The call admission control problem is an important optimization problem encountered in the design and operation of communication networks. The goal of the call control problem in rings is to compute, for a given ring network with edge capacities and a set of paths in the ring, a maximum cardinality subset of the paths such that no edge capacity is violated. We give a polynomial-time algorithm to solve the problem optimally. The algorithm is based on a decision procedure that checks whether a solution with at least k paths exists, which is in turn implemented by an iterative greedy approach operating in rounds.

Jan Klein, Universität Paderborn

11. Dezember 2002, 14:00 Uhr, F1.110

Data Structures and Algorithms for Efficient Collision Detection

Collision detection is a fundamental problem in computer animation, physically-based modeling, computer simulated environments and robotics. In these applications, an object's motion is constrained by collisions with other objects and by other dynamic constraints. In this talk, basic data structures and algorithms for efficient collision detection are presented and compared with respect to their specific properties. Furthermore, the possibility of combinig our polygonal sampling technique with collision detection is considered, in order to realize efficient collision detection in highly complex scenes.

Dr. Gabriel Zachmann, Friedrich-Wilhelms-Universität Bonn (Abteilung für Computer Graphik und Virtuelle Realität)

16. Dezember 2002, 14:00 Uhr, F0.225

Virtual Prototyping -- Algorithms and Techniques

Virtual prototyping has successfully demonstrated the usefulness of VR in automotive industries. This talk will highlight some of the applications, and then explain some of the techniques and algorithms that are needed in order to successfully implement such applications. In particular, collision detection is discussed in more detail as it is one of the fundamental problems in virtual prototyping and other areas.

Igor Shparlinski, Macquarie University, Australia

18. Dezember 2002, 14:00 Uhr, F1.110

Playing "Hide-and-Seek'' in Finite Fields: Hidden Number Problem and Its Applications

We discuss the hidden number problem introduced by Boneh and Venkatesan in 1996 and its several generalizations. We show how this problem leads to a rather surprising, yet powerful, combination of two famous number theoretic techniques: bounds of exponential sums and lattice reduction algorithms. We also describe several cryptographic and computer science applications. The examples include results about the bit security of the Diffie-Hellman scheme, and attacks on the Digital Signature Scheme and its modifications, which are provably insecure under certain conditions.

Marcin Bienkowski, Universität Paderborn

8. Januar 2003, 14:00 Uhr, F1.110

Congestion Problems in Variable Bandwidth Networks

Optimizing congestion is a fundamental problem in network routing. We consider networks in which bandwidths of links are subject to change. We introduce a notion of "weighted congestion" which tries to measure the bottlenecks in online routing in such networks. Some bounds for weighted congestion are presented assuming that adversary has a limited power of changing bandwidths. In particular we will present a simple algorithm minimizing congestion on rings when the adversary can change the bandwidths only within fixed intervals.

The talk will also briefly review current state-of-art concerning optimizing utilized bandwidth between pair of nodes. It will also contain ideas for optimizing weighted congestion in general networks.

Miroslaw Korzeniowski, Universität Paderborn

8. Januar 2003, 16:00 Uhr, F0.530

Peer-to-peer networks

P2P networks have become very popular in the last 5 years. They can be used to share files (Napster, Gnutella, Kazaa) but also to share computational power (SETI@home). The definition of a peer-to-peer network says that each of its nodes has equivalent capabilities and responsibilities. This is actually not true for most of the examples - Napster used central servers and Kazaa treats some nodes as supernodes. Such networks have been very well examined in practice and the demands concerning them are well defined, yet there is not much theory on P2P. Examples of problems I would like to concentrate on are:

  • data replication - this problem is well known for general case, but here we have a network where nodes leave and join constantly and we still want to keep the data consistent
  • routing we have to develop and algorithm that will guarantee fast finding of data and low congestion
  • new idea of Hash-Tables - Distributed Hash Tables (DHT) - usage of the underlying topology of the network
  • security and anonymity overlays
Christian Scheideler, The Johns Hopkins University

15. Januar 2003, 14:00 Uhr, F1.110

Self-repairing and Searchable Distributed Data Structures

We consider the problem of file management in a distributed peer-to-peer environment where nodes may leave and join the network and requests for inserting, deleting, and searching for files may arrive in an adversarial manner. The adversary generating the input has full knowledge of the algorithm, except for the random bits selected by the algorithm. In this case it is vital that the data structure managing the files be able to continuously and adaptively repair itself without losing its efficiency, and most importantly, without losing data. We call such data structures self-repairable. In addition, we also require that it be searchable, i.e. it should be possible to establish and maintain a sorted list of file names that allows to quickly find the successor or predecessor of a name. Also, for efficiency reasons it is important to provide a balanced file allocation to the peers to prevent overloading a peer with storage and request load.

Towards this goal, we introduce a dynamic pointer structure called Hyperring. This is a new pointer structure which can be seen as the concurrent version of a skip list. We show how use this pointer structure to maintain a searchable distributed data structure with poly-logarithmic overhead. Previous solutions required polynomial overhead. In addition, most of the existing work focused on a much weaker form of searchability, specifically on the case where files need to be retrieved by exact names, and thus used hashing based approaches, making prefix search or range query un-implementable.

Michael Heidebuer, Universität Paderborn

22. Januar 2003, 14:00 Uhr, F1.110

Konfiguration und Leistungsbewertung verteilter Speichersysteme

Heutige Anwendungen, wie z.B. E-Commerce und Datenbanken, benötigen in zunehmenden Maße größere Speichersysteme, an die neue Anforderungen gestellt werden. Darunter fallen solche Aspekte wie ständige Verfügbarkeit, Ausfallsicherheit und Skalierbarkeit ebenso wie eine einfache Administration.

Als ein Ansatz zur Lösung für dieser Aufgabenstellungen wurden in den letzten Jahren verteilte Speichersysteme und insbesondere Storage Area Networks (SAN) entwickelt. Bei diesen werden die Daten über mehrere Speichersysteme verteilt, auf die unabhängig voneinander über ein dediziertes Netzwerk zugegriffen werden kann. Neben der Konsolidierung der Speichersysteme spielen Speichernetzwerke ihre Vorteile besonders bei der Sicherung von Daten und der Zugriffsgeschwindigkeit aus.

Im Rahmen dieser Diplomarbeit wurde eine Java-basierte Konfigurations- und Benchmarking-Umgebung für verteilte Speichersysteme entwickelt, die eine einheitliche Modellierung, Konfiguration und Vermessung von Speichernetzwerken ermöglicht. Die Umgebung wurde in das PReSto-System integriert, um in Anschluss daran Leistungsmessungen durchzuführen, die zur Evaluierung der Benchmarking-Umgebung dienten.

Martina Terbahl, Universität Paderborn

22. Januar 2003, 14:45 Uhr, F1.110

Verteiltes Rendern für interaktives Walkthrough in virtuellen 3D Welten

Die räumliche Darstellung von grafischen Objekten ist Bestandteil in einer Vielzahl von Anwendungen. Damit die Visualisierung solcher geometrischer Szenen realistisch wirkt, werden die Objekte aus einer großen Anzahl von Polygonen zusammengesetzt. Bei einem interaktiven Walkthrough müssen Frameraten von 20-30 Fps erreicht werden, damit der Benutzer die Bewe- gungen als flüssig wahrnimmt. Für solche Frameraten stößt die heutige Hardware bei mehr als 100.000 Polygonen an ihre Grenzen.

Ein Ansatz, der sich mit diesem Problem beschäftigt, ist die Reduzierung der Polygonanzahl in komplexen Szenen, was aber nicht ausreichend für alle Szenen ist. Aus diesem Grund wird als weiterer Ansatz das Verteilen des Rendering-Prozesses auf mehrere Rechner verfolgt. Mit diesem Ansatz beschäftig sich auch diese Diplomarbeit. Im Vortrag werden mögliche Verfahren zur Durchführung des Verteilten Renderns vorgestellt. Hierzu gehören das Aufteilen der Polygone an mehrere Rechner sowie das Aufteilen der Bildbereiche. Desweiteren werden statische und dynamische Verfahren zur Aufteilung der Bildbereiche vorgestellt. Ziel dieser Diplomarbeit soll ein neuer Ansatz zur dynamischen Aufteilung der Bildbereiche sein, um so die Frameraten in einem interaktiven Walkthrough zu erhöhen.

Ulrich Hoppe, Universität Paderborn

29. Januar 2003, 14:00 Uhr, F1.110

Implementierung und Evaluation eines MDS Block Codes mit unabhängigen Paritätssymbolen

Im Rahmen dieser Studienarbeit wurde ein MDS Block Code mit unabhängigen Paritätssymbolen implementiert und evaluiert. Grundlage dieser Aufgabe ist die Forschungsarbeit "MDS Array Codes with Independent Parity Symbols" von M. Blaum, J. Bruck und A. Vardy, IEEE Transactions on Information Theory, März 1996. Es handelt sich hierbei um einen Code, der in Speicheranwendungen wie RAIDs (redundant arrays of inexpensive discs) eine Anwendung findet. Die Codier- und Decodieralgorithmen dieses Codes sind sehr effizient, da für diese Verfahren im wesentlichen XOR-Verknüpfungen benötigt werden. Ein weiterer Vorteil dieser Codes ist, daß Updates einzelner Datenbits sich nur auf eine durchschnittlich geringe Anzahl von redundanten Bits auswirken. Die Begründung findet sich in der gegenseitigen Unabhängigkeit der Paritätssymbole.

Martin Eikermann, Universität Paderborn

29. Januar 2003, 14:45 Uhr, F1.110

Dynamic Source Routing auf Mobilen Ad Hoc Netzwerken

Die Aufgabe von Routing Algorithmen ist die effiziente Vermittlung von Paketen in einem Netzwerk. In IP-Netzwerken übernehmen dedizierte Router die Aufgabe, Pakete über verschiedene Subnetzwerke zum Ziel zu vermitteln. Um auf Ausfälle/ Überlastung einzelner Routen reagieren zu können, tauschen die Router regelmässig Routinginformationen aus. Dieser Ansatz lässt sich nur schwer auf Mobile Ad Hoc Netzwerke über- tragen. Die hohe Dynamik in diesen Netzwerken erfordert eine andere Herangehensweise an das Routing Problem.

Eine grundlegende Eigenschaft Mobiler Ad Hoc Netzwerke (Manet) ist, dass die Kommunikation ohne feste Infrastruktur auskommt. Die Hosts bauen mittels drahtloser Kommunikation (WLAN, Bluetooth, Infrarot) ein dynamisches Netzwerk auf, in dem jeder Teilnehmer Routingaufgaben wahrnehmen kann. Durch die Mobilität oder den Ausfall von Hosts kann es, im Gegensatz zu statischen IP-Netzwerken, sehr häufig zu Verbin- dungsabbrüchen kommen. Ein Routing Algortihmus für Manets muß daher flexibel auf die Dynamik in Manets reagieren können. Der regelmäßige Austausch von Routinginformationen in kurzen Abständen ist kein guter Ansatz, da in Manets nur beschränkte Ressourcen (Bandbreite, Energie) zur Verfügung stehen.

Im Rahmen dieser Studienarbeit wurde ein viel diskutierter Algorithmus für das Routing in Mobilen Ad Hoc Netzwerken, der Dynamic Source Rou- ting Algorithmus (DSR), für die Verwendung in der Simulationsumgebung SAHNE implementiert und untersucht. DSR ist ein reaktiver Algorithmus, d.h. nur für Pakete mit unbekannter Route wird mittels RouteRequest/ RouteResponse Nachrichten eine Route ermittelt. Für den einfachen An- satz, durch Fluten mit RouteRequest Nachrichten eine Route zum Ziel zu ermitteln, gibt es eine Vielzahl von Optimierungsmöglichkeiten. Im Vortrag werden die Funktionsweise/ Eigenschaften des DSR Algorithmus, die Umsetzung in der Simulationumgebung SAHNE und erste Simulations- ergebnisse vorgestellt. Grundlage der Simulation sind die in SAHNE verfügbaren Netzwerktopologien Yao, SymmY, SparsY und Hierarchical Layer.

Dr. Dirk Reiners, OpenSG Forum, Fraunhofer Institut Graphische Datenverarbeitung

5. Februar 2003, 14:00 Uhr, F1.110

Aktuelle Szenengraphsysteme am Beispiel OpenSG

3D-Graphikhardware verbreitet sich unaufhaltsam, es ist inzwischen schwierig eine Graphikkarte ohne 3D-Beschleunigung zu bekommen. Mit OpenGL und Direct3D existieren mächtige low-level Schnittstellen, um diese Systeme zu nutzen. Für viele Anwendungen ist das Niveau dieser Schnittstellen aber zu niedrig und für den Anwendungsentwickler unnötig komplex. Szenengraphsysteme stellen eine höhere Abstraktionsstufe dar, mit der die Benutzung der Graphikhardwarefatures vereinfacht werden kann. Dieser Vortrag führt kurz in die Vor- und Nachteile von Szenengraphsystemen ein und erläutert am Beispiel des Open Source Szenengraphsystems OpenSG aktuell relevante Themen wie Multi-Threading, Optimierungen und Erweiterbarkeit.

Ute Schröfel, Universität Paderborn

12. Februar 2003, 14:00 Uhr, F1.110

Separation eines Dateisystembaums zum dynamischen Lastausgleich

(in Zusammenarbeit mit der IBM Deutschland Speichersysteme GmbH)

Die Diplomarbeit erweitert ein Produkt der IBM, den Tivoli Sorage Manager (TSM). TSM stellt eine Storage Management Lösung für Netzwerkbasierte Umgebungen zur Verfügung, die durch eine Client-Server Anwendung realisiert ist. TSM beruht auf einem inkrementellen Update, d.h. nur geänderte Dateien werden gesichert. Durch die wachsende Menge an Daten, die Unternehmen heutzutage sichern müssen, ist es von entscheinder Bedeutung, die Dauer eines Backups zu minimieren. Ziel der Diplomarbeit war es, die zu sichernden Dateisysteme auf mehrere Clients möglichst gleichmässig zu verteilen, so dass die Datensicherung der einzelnen Clients innerhalb einer gegebenen Toleranzgrenze liegt. Im Vortrag wird ein entsprechender Algorithmus vorgestellt, der die zu sichernden Dateisystembäume in einzelne Regionen aufteilt, die den Clients zugewiesen werden. Dieses Problem ist NP-vollständig. Daher wird für die Lösung ein Approximationsalgorithmus verwendet, der genau dann abbricht, wenn das Ergebnis innerhalb der Tolerenazgrenzen liegt oder nicht mehr zu verbessern ist. Die Vorhersage der Dauer eines Backups wird aus den Daten der vorherigen Backups berechnet. Als Ergebnis liefert der Algorithmus für jeden Client eine Separationsliste, die ihm ein bzw. mehrere Regionen der zu sichernden Dateisystembäume zuweist.

Christian Schindelhauer, Universität Paderborn

19. Februar 2003, 15:00 Uhr, F1.110

Worst Case Mobility in Ad Hoc Networks

We investigate distributed algorithms for mobile ad hoc networks for moving radio stations with adjustable transmission power in a worst case scenario. We consider two models to find a reasonable restriction on the worst-case mobility. In the pedestrian model we assume a maximum speed of the radio stations, while in the vehicular model we assume a maximum acceleration of the points.

Our goal is to maintain persistent routes with nice communication network properties like hop-distance, energy-consumption, congestion and number of interferences. A route is persistent, if we can guarantee that all edges of this route can be uphold for a given time span, which is a parameter denoting the minimum time the mobile networks needs to adopt changes, i.e. update routing tables, change directory entrees, etc.

We present distributed algorithms based on a grid clustering technique and a high-dimensional representation of the dynamical start situation. We measure the optimality of the output of our algorithm by comparing it with the optimal choice of persistent routes under the same circumstances with respect to pedestrian or vehicular worst-case movements.

Max Ziegler, Universität Paderborn

26. März 2003, 14:00 Uhr, F1.110

Fehlerangriffe auf RSA

Das kryptographische Verfahren RSA findet seit geraumer Zeit Verwendung in der Verschlüsselung von Informationen sowie der Signierung elektronischer Nachrichten. In diesem Vortrag soll es um die Erläuterung indirekter Angriffe auf kryptographische Verfahren, sogenannte Seitenangriffe - hier speziell die Fehlerangriffe, gehen. Der Unterschied zu den direkten Angriffen wie z.B. der Faktorisierung besteht darin, dass sie nicht das Verfahren selbst, sondern die konkrete Implementation des Verfahrens und deren Schwachstellen angreifen. Im Falle RSA würde ein direkter Angriff bedeuten, den RSA-Modul N zu faktorisieren und so mit Kenntnis von p und q den geheimen Schlüssel d zu errechnen. Fehlerangriffe greifen an einem ganz anderen Punkt an, indem sie sich z.B. durch Hardwarefehler hervorgerufene falsche Berechnungen der konkreten Implementation zunutze machen. So ist es mit Hilfe der "Differentiellen Fehleranalyse" (DFA) möglich, ein RSA-Signatur-System, das die Signatur S = m^d mod N mit Hilfe des CRS berechnet, zu brechen, indem man nur einen einzigen Fehler, der während der Berechnung aufgetreten ist, benutzt. Darüber hinaus wird ein Fehlerangriff von Boneh et al. diskutiert, der ein RSA-Signatur-System bricht, das die Signatur mit einem Square-and-Multiply-Algorithmus berechnet.

Summer Term 2002

Martin Ziegler, Universität Paderborn

03. April 2002, 14:30 Uhr, F1.110

Wuerfelschneiden (VII)

How many hyperplane cuts are needed to slice all edges of the $d$-dimensional cube?

To determine for $d=5$ this so-called CUT NUMBER had been an open problem for nearly 30 years. It was solved only recently by means of a computer proof, see www.upb.de/cs/cubecuts

Since for the 6-cube, Paterson has already before found 5 hyperplane cuts, this also settles the 6-dimensional case. The next Cut Number to be determined is that of the 7-cube. However knowledge about the 6D-case is still unsatisfactory:

Do there exist ways of slicing the 6-cube with 5 cuts OTHER than Paterson's?

Improved algorithms and advanced parallelization techniques now permit to answer this questions and yield promising approaches to eventually settle the 7D-case.

Ein paar Mitarbeiter der AG MadH

10. April 2002, 14:30 Uhr, F1.110

Open Problems Session

Some open problems.

Christian Breimann, Universität Münster

08. Mai 2002, 14:30 Uhr, F1.110

Algorithmische Geometrie für Sekundärspeicher

Im Rahmen der algorithmischen Geometrie sind bis vor einigen Jahren fast ausschließlich interne Lösungen für alle Problemstellungen betrachtet worden. Es hat sich jedoch gezeigt, dass die komplexen und großen Datenmengen aus realen Anwendungsfällen oft nicht im Hauptspeicher des Rechners Platz finden, so dass auch die Zugriffe auf den Sekundärspeicher in Betracht gezogen werden müssen. Dieser Aspekt ist in den letzten Jahren aus zwei Richtungen näher betrachtet worden. Zum einen hat sich das Feld der externen Algorihmischen Geometrie entwickelt, in dem vor allem asymptotisch optimale Lösungen für die Probleme untersucht worden sind. Zum anderen hat sich für die Entwicklung räumlicher Datenbanken die Notwendigkeit ergeben, für den praktischen Einsatz möglichst effiziente Indexstrukturen und Heuristiken zur Problemlösung zu entwickeln. In diesem Vortrag werden daher unterschiedliche Lösungen und einige allgemeine Konzepte sowohl aus dem Bereich der externen Algorithmischen Geometrie als auch aus dem Kontext räumlicher Datenbanken aufgezeigt. Dem Schwerpunkt der Forschung folgend wird dabei aus Zeitgründen nur der zweidimensional Fall betrachtet, obwohl gerade im Bereich räumlicher Datenbanken wesentlich höhere Dimensionen ebenfalls von großem Interesse sind. Die betrachteten Probleme umfassen unter anderem die Berechnung der konvexen Hülle einer planaren Punktmenge, die Berechnung einer totalen Ordnung für schnittfreie Segmente in der Ebene und die effiziente Berechnung der Verbundoperation in räumlichen Datenbanken.

Birgitta Fricke, Universität Paderborn

15. Mai 2002, 14:30 Uhr, F1.110

Vom Pseudozufallsgenerator zur Pseudozufallsfunktion

Viele kryptographische Anwendungen brauchen Zufallswerte. Echter Zufall ist jedoch nicht effizient zu generieren. Deswegen wird in der Praxis Pseudozufall verwendet. Pseudozufaellige Zahlen oder Bitstrings sind von polynomialzeitlich beschraenkten Gegnern nicht von echtem Zufall zu unterscheiden. Doch wie erzeugt man Pseudozufall? Zur Erzeugung von Pseudozufall werden sogenannte Pseudozufallsgeneratoren sowie Pseudozufallsfunktionen verwendet. In diesem Vortrag wird es um die Unterschiede zwischen Pseudozufallsgeneratoren und Pseudzufallsfunktionen gehen. Es wird die allgemeine Konstruktion von Pseudozufallsfunktionen aus Pseudozufallsgeneratoren vorgestellt. Desweiteren werden zwei spezielle Konstruktionen von Psedozufallsfunktionen vorgestellt werden.

Klaus Volbert, Universität Paderborn

22. Mai 2002, 14:30 Uhr, F1.110

Distributed Maintenance of Resource Efficient Wireless Network Topologies

Joint work with: Matthias Grünewald, Tamas Lukovszki and Christian Schindelhauer

Multiple hop routing in mobile ad hoc networks helps to minimize energy consumption and to increase data throughput. Nevertheless the problem of interferences remain. However if the routes are restricted to a basic network based on local neighborhoods, these interferences can be reduced such that standard routing algorithms can be applied. After the presentation of our communication and hardware model (our hardware model allows sector-independent directed communication, adjustable transmitting power, one frequency, and interference detection), we consider different network topologies for basic networks and compare graph properties and communication features. We investigate how these network topologies bound the number of interferences and whether these basic networks provide energy-optimal or congestion-minimal routing. Finally, we compare the ability of these networks to handle dynamic changes of the network when nodes appear and disappear. For this we measure the number of involved nodes and present distributed algorithms for repairing the network structure.

Thomas Franke, Universität Paderborn

29. Mai 2002, 14:30 Uhr, F1.110

Konstruktion schlechter Eingaben für die Farthest-Insertion-Heuristik

Durch Hurkens Konstruktion von Instanzen für das metrische Traveling Salesperson Problem wurde 1992 nachgewiesen, dass die Farthest-Insertion-Heuristik Ausgaben produzieren kann, die um einen Faktor von 6.5 länger sind als eine optimale Rundreise.

Durch Hinzufügen sog. intramodularer Kanten wird Hurkens Viadukt^{+}-Graph derartig erweitert, dass Farthest Insertion dazu eine Ausgabe liefern kann, die 6.75 mal so lang wie die optimale ist. Dies stellt damit eine Verbesserung der unteren Schranke des Approximationsfaktors dar.

Alexander May, Universität Paderborn

05. Juni 2002, 15:30 Uhr, F1.110

Cryptanalysis of an RSA-type scheme presented at ISISC '01

The use of the Chinese Remainder Theorem speeds up the RSA signature generation process by a factor of four. Therefore, this variant is especially interesting in smart-card applications. Unfortunately, Boneh, DeMillo and Lipton showed in '97 that a single fault during the signature computation leaks the factorization of the modulus N. Recently, Yen, Kim, Lim and Moon presented an RSA-type scheme that counteracts the Boneh-DeMillo-Lipton attack. We give a complete cryptanalysis of this new scheme. More precisely, we show that given the public key (N,e) the factorization of N can be found in polynomial time.

(joint work with Johannes Blömer and Jean-Pierre Seifert, Infineon Technologies)

Harald Räcke, Universität Paderborn

05. Juni 2002, 16:00 Uhr, F1.110

Oblivious online routing

A basic service in parallel and distributed environments is to transmit information between different nodes of the system. Therefore a path in the interconnection network has to be chosen along which the corresponding data is sent. This talk adresses the problem of online path selection with the goal to minimize the congestion, i.e., the maximimum load of a link in the network. It is shown that in any network there exists an oblivious online algorithm that achieves a polylogarithmic competitive ratio, w.r.t. the congestion.

Christian Scheideler, Universität Paderborn / The Johns Hopkins University

12. Juni 2002, 14:30 Uhr, F1.110

Models and Techniques for Communication in Dynamic Networks

In this talk I will present various models and techniques for communication in dynamic networks. Dynamic networks are networks of dynamically changing bandwidth or topology. Situations in which dynamic networks occur are, for example: faulty networks (links go up and down), the Internet (the bandwidth of connections may vary), and wireless networks (mobile units move around). I will investigate the problem of how to ensure connectivity, how to route, and how to perform admission control in these networks. Some of these problems have already been partly solved, but many problems are still wide open. The aim of this talk is to give an overview of recent results in this area, to identify some of the most interesting open problems and to suggest models and techniques that may allow us to study them.

Michael Diers, Universität Paderborn

19. Juni 2002, 14:30 Uhr, F1.110

Stabilität der Heuristik Nearest Insertion für das TSP

Nearest Addition und Nearest Insertion sind Heuristiken mit einer relativen Güte von 2 für Instanzen des TSP, welche die Dreiecksungleichung erfüllen. Beide Heuristiken können auch zur Approximation von Instanzen benutzt werden, welche die Dreiecksungleichung um höchstens einen Faktor (1+r) verletzen. Ziel des Vortrages ist, die relative Güte für diese vergrösserte Menge von Instanzen mit Hilfe von Distanzfunktionen zu bestimmen und auf diese Weise eine Aussage über die Stabilität der Heuristiken machen zu können.

Michael Diers, Universität Paderborn

19. Juni 2002, 14:30 Uhr, F1.110

Stabilität der Heuristik Nearest Insertion für das TSP

Nearest Addition und Nearest Insertion sind Heuristiken mit einer relativen Güte von 2 für Instanzen des TSP, welche die Dreiecksungleichung erfüllen. Beide Heuristiken können auch zur Approximation von Instanzen benutzt werden, welche die Dreiecksungleichung um höchstens einen Faktor (1+r) verletzen. Ziel des Vortrages ist, die relative Güte für diese vergrösserte Menge von Instanzen mit Hilfe von Distanzfunktionen zu bestimmen und auf diese Weise eine Aussage über die Stabilität der Heuristiken machen zu können.

Olaf Bonorden, Universität Paderborn

19. Juni 2002, 15:00 Uhr, F1.110

Ein System zur automatischen Konfiguration effizienter paralleler Algorithmen im BSP-Modell

Die Arbeit stellt ein System vor, mit dem aus einer Sammlung von BSP- Algorithmen inklusive Laufzeitbeschreibungen automatisch ein für einen bestimmten BSP-Computer effizienter Algorithmus für ein gegebenes Problem konfiguriert wird. Hierbei werden sowohl die Algorithmen für das Problem und eventuell entstehende Unterprobleme ausgewählt, als auch optimale Parameter (z.B. Grad des Kommunikationsbaumes) bestimmt und entschieden, auf wie vielen Prozessoren Teilalgorithmen ausgeführt werden. Der Schwerpunkt liegt dabei auf der Evaluierung des Systems mittels den Anwendungen Broadcast und der Berechnung minimaler Spannbäume.

Fedor Fomin, Universität Paderborn

26. Juni 2002, 16:30 Uhr, F1.310

Einbahnstrasse Problem: Complexity of approximation

The oriented diameter of a (undirected) graph $G$ is the smallest diameter among all the diameters of strongly connected orientations of $G$. We study algorithmic aspects of determining the oriented diameter of a chordal graph. We

  • give a linear time algorithm such that, for a given chordal graph $G$, either concludes that there is no strongly connected orientation of $G$, or finds a strongly connected orientation of $G$ with diameter at most twice the diameter of $G$ plus one;
  • prove that the corresponding decision problem remains $NP$-complete even when restricted to a small subclass of chordal graphs called split graphs;
  • show that unless $P=NP$, there is neither a polynomial-time absolute approximation algorithm nor an $\alpha$-approximation (for every $\alpha<\frac{3}{2}$) algorithm computing oriented diameter of a chordal graph.
Jan Klein, Universität Paderborn

03. Juli 2002, 14:30 Uhr, F1.110

Interactive Walkthroughs in Externally Stored Virtual Environments

The Randomized Sample Tree - joint work with Jens Krokowski, Matthias Fischer, Rolf Wanka and Friedhelm Meyer auf der Heide

We present a new data structure - the randomized sample tree - for rendering highly complex virtual environments of arbitrary topology. The special feature of our approach is that it allows an interactive navigation of scenes consisting of more than 30 GB of polygon data (400 million polygons) that cannot be stored in main memory, but only on a local or remote hard disk. Furthermore, it allows interactive rendering of substantially more complex scenes (> 10^10 polygons) by instantiating objects. Analysis and experiments show that the quality of our images is comparable to images computed by the conventional z-buffer algorithm regardless of the scene topology.

Deniz Deveci, Universität Paderborn

10. Juli 2002, 14:30 Uhr, F1.110

Vollständig verteiltes RSA-Kryptosystem

In diesem Vortrag werde ich ein vollständig verteiltes RSA-Kryptosystem vorstellen. Dieses basiert auf dem bekannten RSA-Kryptosystem, allerdings mit der Modifikation, daß der geheime Schlüssel auf n Knoten verteilt vorliegt. Eine Verschlüsselung kann wie gehabt mit dem öffentlichen Schlüssel vorgenommen werden. Dagegen müssen alle Knoten (oder eine festgelegte Mindestanzahl) mit ihrem Teilschlüssel zur Entschlüsselung beitragen. In dem Vortrag gehe ich speziell auf die Protokolle ein, die benötigt werden, um ein RSA-Schlüsselpaar mit verteiltem privaten Schlüssel verteilt zu erzeugen.

Mario Vodisek, Universität Paderborn

18. Juli 2002, 14:30 Uhr, F0.231

Farborientierte Approximation von Hintergrundbereichen in interaktiven 3D-Walkthrough-Umgebungen via Wavelet-basiertem Clustering

Es wird ein Client-Server-System vorgestellt, dessen Kernaspekt in der Erhöhung der Renderleistung für eine beliebig große interaktive 3D-Walkthrough-Umgebung bestand, was durch die Vereinfachung von Teilen des Hintergrundes der Szene in Echtzeit, relativ zu einer gegebenen Betrachterposition und zu einem gegebenen Zeitpunkt realisiert wurde. Bei der Hintergrundapproximation mittels des 'WaveCluster'- Algorithmus von Sheikholeslami, welcher eine Gruppierung auf der Basis von Wavelets vornimmt, war neben der Reduktion der Szenekomplexität der farblich visuelle Erhalt der 3D-Umgebung eine wesentliche Anforderung. Der Vortrag gibt einen Überblick über Anforderungen, System und Ergebnisse der Arbeit.

Ankur Jain, Universität Paderborn

18. Juli 2002, 15:00 Uhr, F0.231

Variable power based medium access in MANET

We propose a Hierarchical-Layer(HL) based medium access control (MAC) protocol for static ad hoc networks which we have implemented in ns2 and that ensures the existence of a path-system which approximates energy-optimal and dilation-optimal ones by a constant factor and the congestion-optimal by O((logn)2). We also suggest a probabilistic strategy for building up the hierarchy, when we consider ad hoc networks having mobile nodes. At the end, we also discuss certain heuristics which could be used for routing protocols which sit on top of such an HL-based MAC.

Christian Sohler, Universität Paderborn

31. Juli 2002, 14:30, F1.110

Sublinear-Time Approximation of Euclidean Minimum Spanning Trees

(with A. Czumaj, F. Ergün, L. Fortnow, A. Magen, I. Newman, and , R. Rubinfeld)

We consider the problem of estimating the weight of a Euclidean minimum spanning tree for a set of $n$ points in $\REAL^d$. We focus on the situation when the input point set is supported by certain basic (and commonly used) geometric data structures that can provide efficient access to the input in a structured way. Our main result is that if we assume the access to the input is supported by a minimal bounding cube of the input, by orthogonal range queries, and by cone approximate nearest neighbors queries, then it is possible to estimate the weight of a Euclidean minimum spanning tree of $P$ to within $1 + \eps$ using only $\widetilde{\O}(\sqrt{n} \, \text{poly}(1/\eps))$ queries for constant $d$.

Martin Otto, Universität Paderborn

31. Juli 2002, 15:00, F1.110

Defending fault attacks on smartcards

Fault attacks on smartcards have proven to be a successful type of attack on popular implementations of the RSA signature scheme on smartcards. The talk will briefly review this attack type and possible countermeasures. It will also present a new algorithmic approach that prevents all known types of fault attacks. The new approach uses randomness to ensure that attackers can't read out data and infective computations to ensure that a defective output does not disclose any secrets.

Joern Muehlencord, Universität Paderborn

07. August 2002, 10:00, F1.110

Simulation von Datenverteilungsstrategien für beliebige Netzwerke

Anders als bei herkömmlichen P2P-Netzwerken werden in Systemen wie kooperativen Lernsystemen oder bei verteilten Berechnungen im Internet Datenobjekte (Dateien, Variablen, ...) von mehreren Rechnern, die durch ein beliebig aufgebautes Netzwerk verbunden sind, nicht nur gelesen, sondern auch geschrieben. Dies erfordert, dass die bei Leseoperationen angelegten Kopien verwaltet werden, damit sie bei einem Schreibzugriff invalidiert werden können, um die Konsistenz der Daten zu gewährleisten. Die Art und Weise, wie die Daten verwaltet werden hat großen Einfluss auf die Performance des Netzwerks.

Es existieren Analysen zu Datenverteilungsstrategien in fest-strukturierten Netzwerken wie Gittern oder Hypercubes. Eine Technik, die zur Analyse dieser Netzwerke genutzt wurde, ist die Baumeinbettung in das Netzwerk. Hierbei wird zum realen Netzwerk ein logisches Netzwerk in Baumstruktur erzeugt, und die Kommunikation und Datenverwaltung in diesem Netzwerk berechnet. Die logischen Knoten werden hierbei mit geeigneten Strategien in das reale Netzwerk eingebettet. Diese Technik soll in der Diplomarbeit auf beliebige Netzwerk erweitert werden. Hierbei sollen sowohl die Art und Weise der Erzeugung und Einbettung des Baumnetzwerks, die Strategie der Datenverwaltung im Baumnetzwerk als auch die Routingsstrategie im realen Netzwerk in verschiedenen Ausprägungen getestet werden. Um die verschiedenen Strategien miteinander vergleichen zu können, soll eine Simulationsumgebung entwickelt werden, die die verschiedenen Strategien anwenden und unter unterschiedlichen Gesichtspunkten analysieren kann.

Valentina Damerow, Universität Paderborn

07. August 2002, 10:30, F1.110

Point Location Algorithms of Minimum Size: How fast can they be?

We consider the classical point location problem: for a fixed arrangement of hyperplanes and its induced partition of space report, upon input of some point, which face it lies in.

With sufficient memory this can be solved in logarithmic time. But how fast can algorithms of minimum size be? We give lower and upper bounds for the time complexity under this constraint. It turns out that, in addition to the number of hyperplanes, also the maximum number of walls of any cell in an arrangement is a crucial parameter.

Wolfram Klemisch, Universität Paderborn

04. September 2002, 14:30, F1.110

Occlusion-Culling interaktiver Szenen mit hohem dynamischen Anteil anhand eines Occlusion Tree

Ziel der Diplomarbeit war es, ein Occlusion-Culling Verfahren zu entwickeln, welches in der Lage ist, Visibility Culling von Szenen mit hohem Anteil bewegter Geometrie zu verarbeiten. Dabei sollte dieses Verfahren neben der statischen Geometrie auch die Integration der bewegten Objekte in den Prozess des Visibility-Cullings unterstützen. Um diese Ziele zu erreichen wurde basierend auf bekannten Datenstrukturen eine neue Struktur zum Management der bewegten Objekte hergeleitet und das gesamte Verfahren anhand verschiedener topologischer Szenen auf seine Anwendbarkeit überprüft.

Paul Kaufmann, Universität Paderborn

04. September 2002, 15:15, F1.110

Experimentelle Auswertung kurzperiodischer, insbesondere 2-dimensionaler Sortierverfahren

Sortiernetzwerke und periodische Sortiernetzwerke bilden ein einfaches Modell für das Problem des parallelen Sortierens. Für das periodische Sortieren auf Prozessorgittern geben Scherson, Sen und Shamir für ein bestimmtes Verfahren bessere Laufzeiten an, wenn es auf rechteckigem Gitter anstatt auf einem quadratischen Gitter ausgeführt wird. Im Vortrag werden weitere periodische Sortierverfahren vorgestellt und auf diese Eigenschaft experimentell untersucht.

Martin Ziegler, Universitaet Paderborn

Dienstag 10. September 2002, 14:00, F1.110 Oberseminar

Computable Geometry and Type-2 Theory of Effectivity

Algorithms in Computational Geometry are usually designed for algebraic models of computation, that is, presuming EXACT operations/tests on real numbers. Actual digital computers however can in finite time process only data from a countable set such as rational number (floating point) approximations to the reals. And indeed do many algorithms, upon implementation, reveal severe numerical instabilities leading to wrong or inconsistent output.

Recursive Analysis on the other hand considers a real number as limit of a sequence of rational approximations with corresponding error bounds. This notion of real number computation in fact dates back to Alan Turing himself and has turned out to reflect quite well whether, when experiencing numerical difficulties, these are inherent to the problem itself or merely a consequence of bad algorithm/careless implementation.

We apply this model to geometric problems in Euclidean space and investigate on COMPUTABILITY of for example "Convex Hull", "Voronoi Cells", "Affine Subspaces", and "Constrained Optimization".

In this research, a major part consists of comparing different notions of computability for (infinite) subsets rather than (finite) vectors of real numbers. It is for instance well-known that, for a closed set A,

  • approximating from ABOVE the distance function of A and
  • computing a sequence of reals which is dense in A are both equivalent (even uniformly in A) but not in generally equivalent to
  • approximating from BELOW the distance function of A nor to
  • the WMEM oracle used by Groetschel, Lovasz, and Schrijver in their famous book on "Combinatorial Optimization".

By comparing such different notions not on the whole class of closed sets but only on so-called REGULARLY closed ones and later even restricting to CONVEX regularly closed sets, several of these in general non-equivalent notions turn out to collapse and become equivalent.

For formalizing and actually performing such comparisons, the "Type-2 Theory of Effectivity" (TTE) introduced by Weihrauch et al offers a convenient common framework. It is however important to emphasize that TTE does not by itself imply any new notion of computability!

Stefan Rührup, Universität Paderborn

18. September 2002, 14:30, F1.110

Topologieaufbau und -erhaltung in mobilen Ad-hoc-Netzwerken

Mobile Ad-hoc-Netzwerke sind dynamische drahtlose Netze, die dezentral organisiert sind und ohne bestehende Infrastruktur auskommen. Dabei entscheidet jeder Knoten über die Verbindungen zu seinen Nachbarknoten. Diese Verbindungen bilden ein Basisnetzwerk, das als Grundlage für das Routing und die höheren Netzwerkschichten dient. Der Aufbau dieser Basisnetzwerke findet auf der Mediumzugriffsschicht statt und beinhaltet die direkte Kommunikation zwischen den Knoten.

Als Topologien für solche Basisnetzwerke wurden in dieser Arbeit der Yao-Graph und zwei Varianten ausgewählt. Die Sektorierung dieser Graphen eignet sich besonders für die gerichtete drahtlose Kommunikation (z.B. Infrarot-Übertragung). Als Topologie für die omnidirektionale Kommunikation (z.B. Übertragung durch Radiowellen) wurde der Hierarchical Layer Graph verwendet.

Aufbau und Eigenschaften dieser Topologien wurden in der Simulation untersucht, wobei auf ein realitätsnahes Simulationsmodell Wert gelegt wurde. Dazu wurden Übertragungsmodelle für Infrarotlicht und Radiowellen berücksichtigt. Ein Netzwerkknoten im Simulationsmodell orientiert sich an den Eigenschaften des Miniroboters "Khepera", der mit einem Kommunikationsmodul für Infrarot- oder Funkübertragung ausgestattet werden kann. Die Netzwerkknoten sollen ein Basisnetzwerk aufbauen können, ohne dass weitere Fähigkeiten wie Positions- oder Entfernungsbestimmung dazu nötig sind.

Für alle Topologien wurden Algorithmen entwickelt, die den verteilten Aufbau eines entsprechenden Basisnetzwerks ermöglichen. Diese Algorithmen wurden in der Simulation erprobt. Die resultierenden Basisnetzwerke wurden anhand der Maße Congestion (maximale Kantenbelastung), Energie (Energieverbrauch bei der Benutzung der Verbindungen) und Dilation (Durchmesser) bewertet.

Nicolas Cuntz, Universität Paderborn

25. September 2002, 14:30 Uhr, F1.110

Realzeitnavigation in komplexen 3D-Szenen mittels komprimierter Bilddaten

Es wird ein Verfahren vorgestellt und mit bereits existierenden Methoden verglichen, das eine Realzeitnavigation in komplexen 3D-Szenen ermöglicht. Dabei handelt es sich um ein bildbasiertes Verfahren, das intensiv die große Kapazität moderner Festplatten nutzt. Die Bildwiederholrate während der Navigation ist im Gegensatz zu geometrischen Methoden konstant und unabhängig von der Polygonanzahl des zugrundeliegenden Modells, da die Polygondaten in einem Präprozessor in komprimierte Bilddaten umgewandelt werden. Um die Geschwindigkeit der Navigation zu verbessern, wurde eine Prefetching-Strategie entwickelt. Das System funktioniert gut mit polygon-basierten Szenen, als Basis können allerdings auch digitale Fotographien dienen, die eine Szene beschreiben.

Michael Heidebuer, Universität Paderborn

25. September 2002, 15:00 Uhr, F1.110

Konfiguration und Leistungsbewertung verteilter Speichersysteme

Heutige Anwendungen, wie z.B. E-Commerce und Datenbanken, benötigen in zunehmenden Maße größere Speichersysteme, an die neue Anforderungen gestellt werden. Darunter fallen solche Aspekte wie ständige Verfügbarkeit, Ausfallsicherheit und Skalierbarkeit ebenso wie eine einfache Administration.

Als ein Ansatz zur Lösung für dieser Aufgabenstellungen wurden in den letzten Jahren verteilte Speichersysteme und insbesondere Storage Area Networks (SAN) entwickelt. Bei diesen werden die Daten über mehrere Speichersysteme verteilt, auf die unabhängig voneinander über ein dediziertes Netzwerk zugegriffen werden kann. Neben der Konsolidierung der Speichersysteme spielen Speichernetzwerke ihre Vorteile besonders bei der Sicherung von Daten und der Zugriffsgeschwindigkeit aus.

Im Rahmen dieser Diplomarbeit soll eine Java-basierte Konfigurations- und Benchmarking-Umgebung für verteilte Speichersysteme entwickelt werden, die eine einheitliche Modellierung, Konfiguration und Vermessung von Speichernetzwerken ermöglicht. Die Umgebung wird in das PReSto-System integriert, um in Anschluss daran Messungen über die Verteilungsgüte der Daten über die Speichersysteme und Leistungsmessungen durchzuführen.

Winter Term 2001 / 2002

Martin Ziegler, Universität Paderborn

17. Oktober 2001, 14:30 Uhr, F1.110

Paralleles Wuerfelschneiden: meine Rechnungen auf den Linux-PCs

Die sogenannte "Cut Number" des 5-dimensionalen Wuerfels zu bestimmen, war 30 Jahre lang ein offenes Problem. Erst 2000 konnte es an der Uni Paderborn geloest werden: mit Hilfe eines Computer-Beweises, siehe hierzu auch www.uni-paderborn.de/cs/cubecuts

Verbesserte Algorithmen und eine effizientere Parallelisierung (BSP-Methoden) zur Loesung gewisser 'dichter' Instanzen von "SET COVERING" ruecken nun auch die Dimensionen 6 und 7 in Reichweite.

Fedor Fomin, Universität Paderborn

17. Oktober 2001, 15:00 Uhr, F1.110

G-free colorings of planar graphs

We consider the problem of coloring a planar graph with the minimum number of colors such that each color class avoids one or more forbidden graphs as subgraphs. We perform a detailed study of the computational complexity of this problem. We present a complete complexity classification for the case with a single forbidden connected subgraph. The $2$-coloring problem is NP-hard if the forbidden subgraph is a tree with at least two edges, and it is polynomially solvable in all other cases. The $3$-coloring problem is NP-hard if the forbidden subgraph is a path, and it is polynomially solvable in all other cases. We also derive results for several forbidden sets of cycles.

Keywords: graph coloring; graph partitioning; forbidden subgraph; planar graph; computational complexity.

Joint work with Hajo Broersma, Gerhard J. Woeginger (Twente) and Jan Kratochvil (Prague)

Wolfram Klemisch, Universität Paderborn

24. Oktober 2001, 14:30 Uhr, F1.110

Occlusionculling interaktiver Szenen mit hohem dynamischen Anteil

In der heutigen Zeit ist die Komplexität dreidimensionaler Modelle in Walkthroughsystemen von zunehmender Wichtigkeit. Daher ist es von hoher Bedeutung, durch geeignete Occlusionculling Verfahren das an die Grafikhardware gelieferten Datenvolumen zu verringern. Eine erhebliche Problematik stellt sich in der Integration bewegter Objekte in den Cullingprozess dar. Ziel der Arbeit ist es daher, ein Walkthroughsystem zu entwickeln, bei dem eine große Anzahl auf zufälligen Bahnen bewegter Objekte mit in den Occlusionculling Vorgang einfließen.

Jörg Thienenkamp, Universität Paderborn

24. Oktober 2001, 15:00 Uhr, F1.110

Praktische Evaluierung eines parallelen Datenservers

Der an der Universität Paderborn entwickelte Datenserver PRESTO benutzt eine besonders geschickt Datenplatzierungsstrategie um Anforderungen wie hohe Zuverlässigkeit, einfache Skalierbarkeit und garantierte Realzeitfähigkeit erfüllen zu können. Kern der Datenplatzierung ist eine gleichmäßige Verteilung von Anfragen und Datenblöcke auf die vorhanden Festplatten.

In der Diplomarbeit soll die Verteilung von Anfragen mit Hilfe von existierenden Algorithmen experimentell untersucht werden. Dazu werden Probleme betrachtet, deren Eingabe sehr viel größer ist, als der zur Verfügung stehende Hauptspeicher. Ein ständiger Datenaustausch zwischen Festplatte und Hauptspeicher ist deshalb unumgänglich. Die dadurch verursachten Kosten müssen minimal gehalten werden.

Aus dem Bereich der Externen Memory Algorithmen kommen Modelle, die mittels paralleler I/O Operationen die Kosten gering halten. Hier biete sich eine erste Möglichkeit für den Einsatz der automatischen Anfrageverteilung durch den Datenserver.

Des weiteren werden parallele Algorithmen betrachtet, die für Externe Memory Probleme optimiert sind. Dadurch haben sie eine implizite Verteilung der Anfragen auf die lokalen Festplatten der beteiligten Rechnerknoten. Diese Verteilung im Vergleich mit der automatischen Verteilung eines Datenservers liefert ein weiteres Qualitätskriterium.

Ziel ist mit Hilfe verschiedenen Algorithmen und unterschiedlichen Eingabenvariablen wie die Größe des Hauptspeichers, die Anzahl der Datenserverknoten, die Anzahl der Rechnerknoten, I/O Geschwindigkeit, Netzbelastung u.s.w., die Einsatzmöglich einer automatischen Datenverteilung abzugrenzen.

Gunnar Schmidt, Universität Paderborn

24. Oktober 2001, 15:30 Uhr, F1.110

Über die Spektren wichtiger Graphklassen

In diesem Vortrag zur Studienarbeit werden die Adjazenz-Matrizen der Butterfly-Netzwerke mit und ohne Wrap-Around-Kanten bzgl. ihrer Eigenwerte analysiert. Die vollständigen Spektren beider Netzwerke werden berechnet.

Daniel Schepers, Universität Paderborn

24. Oktober 2001, 16:00 Uhr, F1.110

Zeitangriffe auf die Multiplikation in elliptischen Kurven

Algorithmen haben, abhängig von ihren Eingaben, unterschiedliche Laufzeiten. Bei Verschlüsselungsroutinen kann man sich dies zu Nutze machen und Informationen über den geheimen Teil des Schlüssels gewinnen.

Anhand von RSA werde ich zeigen, wie der Angriff arbeitet. Dann werde ich ihn auf elliptische Kurven übertragen.

Martin Ziegler, Universität Paderborn

31. Oktober 2001, 14:30 Uhr, F1.110

Complexity Issues in N-Body Simulations

Computer simulation of several physical objects under various kinds of attracting/repelling forces have become a very important tool in Theoretical Chemistry (molecular dynamics) as well as Astrophysics. Indeed, about one third of super computers' CPU time world-wide is consumed by such problems.

In the first part of our talk, we refer some theoretical results concerning the complexity of exact and approximate solution to this problem. The large class of \emph{Tree Code} algorithms performs comparatively well in practice.

In part two, we present a new approach for arbitrary dimensions which is based on polynomial multipoint evaluation (FFT) in combination with data structures from Computational Geometry.

Christian Schindelhauer, Universität Paderborn

07. November 2001, 14:30 Uhr, F1.110

Discrete Prediction-Games with Arbitrary Feedback and Loss

Antonio Piccolboni and Christian Schindelhauer

We investigate the problem of predicting a sequence when the information about the previous elements (feedback) is only partial and possibly dependent on the predicted values. This setting can be seen as a generalization of the classical multi-armed bandit problem and accommodates as a special case a natural bandwidth allocation problem. According to the approach adopted by many authors, we give up any statistical assumption on the sequence to be predicted. We evaluate the performance against the best constant predictor (regret), as it is common in iterated game analysis.

We show that for any discrete loss function and feedback function only one of two situations can occur: either there is a prediction strategy that achieves in $T$ rounds a regret of at most $O(T^{3/4}(\ln T)^{1/2})$ or there is a sequence which cannot be predicted by any algorithm without incurring a regret of $\Omega(T)$.

We prove both sides constructively, that is when the loss and feedback functions satisfy a certain condition, we present an algorithm that generates predictions with the claimed performance; otherwise we show a sequence that no algorithm can predict without incurring a linear regret with probability at least $1/2$.

Harald Räcke, Universität Paderborn

07. November 2001, 15:00 Uhr, F1.110

Randomized Pursuit Evasion in Graphs

Pursuit Evasion games deal with the problem how a fugitive can be catched by a given number of guards. The game is played in rounds. In each round the guards and the fugitive can change their positions according to certain rules. The fugitive is catched if its position at the end of a round is equal to the position of a guard. This talk adresses pursuit evasion games on graphs with a single guard that may use a randomized strategy, i.e., the fugitive does not know the random bits used by the guard. The goal is to bound the expected number of rounds needed to catch the fugitive.

Christian Schindelhauer, Universität Paderborn

14. November 2001, 14:30 Uhr - 15:00 Uhr, F1.110

Fair and Distributed Bandwidth Allocation under Adversarial Timing

Congestion control algorithms like, e.g., TCP have to meet the demands of high utilization and fairness simultaneously. We study the tradeoff of these two objectives in a plain model consisting of players, shared resources with bounded bandwidth capacities and rate update events, i.e., points of time at which players can adjust their shares of occupied bandwidth. The times at which players can perform their rate update operations is determined by an adversary. As feedback we allow players to receive the size of the unused bandwidth.

We investigate infinite games, where players can enter and leave at any time but focus our analysis on those periods in which the system is closed, i.e., the set of players that perform update operations is fixed. The major novelty of our model is the adversarial timing of the rate update events. Within this model, we present a simple allocation protocol achieving fairness and almost full utilization in the limit. For example, if players interact only on a single channel then their bandwidths converge polynomially to a state that yields fairness and almost full utilization simultaneously. In general networks the players' bandwidths converge to a state that is only a $(1+\epsilon)$-factor away from max-min fairness. Here the speed of convergence is determined by local parameters like the dilation and the congestion of routing paths.

Furthermore, as a lower bound we prove that there is no protocol achieving full utilization and fairness in the limit, if an adversary determines the order of rate update events and one cannot distinguish between slow and stalled players.

Jan Klein, Universität Paderborn

21. November 2001, 14:30 Uhr, F1.110

The Sample Tree: A New Data Structure for Efficient Point Sampling

Point/Polygon Sampling is a very promising method to realize a realtime navigation in very complex scenes: The randomized z-Buffer algorithm, a new point sampling method, has an output sensitive running time. However this and all other point sampling algorithms can handle the polygons only in the the main memory. Therefore these methods are not applicable to highly complex scenes, that cannot be stored in the main memory. In this talk we present a new data structure (the sample tree), that is supposed to allow a realtime navigation in scenes consisting of >> 1014 polygons. We describe the external construction of the sample tree that is stored on simple hard disks or on a huge dataserver like PRESTO.

Volker Krummel, Universität Paderborn

28. November 2001, 14:30 Uhr, F1.110

Advanced Encryption Standard

Sicherheit und Anwendungen des Advanced Encryption Standards (AES) Rijndael

In dem Vortrag moechte ich zunaechst das Verfahren des neuen Verschluesselungs- standards vorstellen. Ich werde kurz auf die einzelnen Transformationen eingehen und den gesamten Ablauf darstellen. Im zweiten Teil des Vortrags moechte ich auf den bislang staerksten Angriff auf Rijndael, den sogenannten SQUARE-Angriff eingehen. Dies ist ein Chosen Plaintext Angriff, der auf bis zu 7 Runden Rijndael anwendbar ist. Zunaechst moechte ich die Grundidee vorstellen und im Anschluss daran die Moeglichkeiten zur Erweiterung des Angriffs aufzeigen. Im letzten Teil moechte ich einen kurzen Ueberblick ueber die Ergebnisse meiner Diplomarbeit geben, in der ich mich unter anderem mit dem SQUARE-Angriff beschaeftigt habe.

Thomas Franke, Universität Paderborn

28. November 2001, 15:15 Uhr, F1.110

Konstruktion schlechter Eingaben für die Farthest-Insertion-Heuristik

In diesem Vortrag wird Hurkens Konstruktion von Instanzen für das metrische Traveling Salesperson Problem aus dem Jahr 1992 vorgestellt, für die die Farthest-Insertion-Heuristik Ausgaben produziert, die um einen Faktor von beinahe 6.5 länger sind als eine optimale Rundreise.

Deniz Deveci, Universität Paderborn

28. November 2001, 15:45 Uhr, F1.110

Vollständig verteiltes RSA-Kryptosystem

In dem Vortrag werde ich das vollständig verteilte RSA-Kryptosystem vorstellen. Die Aufgabe besteht darin, einen geheimen RSA-Schlüssel so zu erzeugen, daß seine Anteile auf n Knoten verteilt vorliegen. Nur die n Knoten gemeinsam sollen damit Nachrichten entschüsseln können. Die Schlüsselgenerierung und -verteilung kann beispielsweise mittels einer vertrauenswürdigen Instanz geschehen. Um die Nachteile dieses Ansatzes zu umgehen, soll die Schlüsselgenerierung von den n Knoten verteilt vorgenommen werden - und zwar so, daß keine geheime Information während der Schlüsselgenerierung öffentlich wird.

Kay Salzwedel, Universität Paderborn

05. Dezember 2001, 14:30 Uhr, F1.110

Combining data distribution strategies

In this talk we discuss the possibility to combine two data distribution algorithms to get a new distribution that keeps the good properties of its parents. The two strategies are our Cut-and-Paste-Strategy and the consitent hashing approach. Both are randomized algorithms that have their certain disadvantanges. We propose an approach that combines the two algorithms and discuss if all properties are preserved.

Klaus Volbert, Universität Paderborn

05. Dezember 2001, 15:00 Uhr, F1.110

Congestion, Energy and Delay in Radio Networks

We investigate the problem of path selection in radio networks for a given set of sites in two-dimensional space. For some given static point-to-point communication demand we define measures for congestion, energy consumption and dilation that take interferences between communication links into account. We introduce a new measure, the so-called diversity, that can be used to upperbound the number of inferfering edges. We show that we need different datastructures to optimize one given measure and a main result is that a spanner construction as a communication network allows to approximate the congestion optimal communication network by a factor of O(g(V)) where g(V) is defined as the diversity of V.

Furthermore, we show that there are vertex sets where only one of the performance parameters congestion, energy and dilation can be optimized at a time. We present trade-offs lowerbounding congestion and delay, delay and energy, but for congestion and energy the situtation is even worse. It is only possible to find a reasonable approximation for either congestion or energy minimization, while the other parameter is at least a polynomial factor worse than in the optimal network.

Christian Sohler, Universität Paderborn

12. Dezember 2001, 14:30 Uhr, F1.110

Online Scheduling for Sorting Assembly Buffers

(joint work with H. Räcke and M. Westermann)

A sorting buffer is a device that is used to rearrange an input sequence of items (e.g. cars) such that items that are identical w.r.t. a specific attribute (e.g. color) preferably appear in long blocks in the output sequence.

We model a sorting buffer as $k$ queues with depth $d$, i.e. each queue has the capacity to store at most $d$ items. An input sequence of items has to be processed one after the other. Whenever a new item arrives at the sorting buffer, it has to be appended to the tail of one of the $d$ queues. To prevent queue overflows, the item at the head of any queue can be removed. The removed items result in an output sequence which is a partial rearrangement of the input sequence. The goal of a scheduling strategy for sorting buffers is to minimize the number of maximal subsequences in the output sequence containing only items of the same attribute.

We analyze the efficiency of our strategy by competetive analysis, that is, we compare the schedule computed by our algorithm to the schedule computed by an optimal offline algorithm (an algorithm that knows the input sequence in advance). An online algorithm is $c$-competetive, if the cost of the online strategy is at most $c$ times the cost of an optimal offline strategy.

We show that there is a deterministic scheduling algorithm for sorting buffers of depth 1, that is $O(\log k2)$-competetive. We further show that some natural strategies achieve an (exponentially) worse competetive ration. For the general case, we show that there is a deterministic strategy that achieves a competetive ratio of $O(d \log (dk) \log3 k)$.

Matthias Fischer, Universität Paderborn

23. Januar 2002, 14:30 Uhr, F1.110

Point Sampling: Eine Methode zum Echtzeit-Rendering von großen 3D-Szenen

In den letzten beiden Jahren ist die bereits seit längerem bekannte Methode Point Sampling zur Echtzeitdarstellung von geometrischen 3D-Szenen verwendet worden. Der in diesem Bereich neue Ansatz bietet viele Vorteile, insbesondere um Szenen mit sehr vielen Polygonen darstellen zu können.

Es sind im Zeitraum 2000/2001 ca. ein Dutzend Arbeiten entstanden, eine dieser Arbeiten ist von uns erschienen. Im Vortrag werde ich in gekürzter Form diese Ansaetze vergleichend gruppieren und gegenüberstellen, um Gemeinsamkeiten sowie Vor- und Nachteile darzustellen.

Dr. Christian Schindelhauer, Universität Paderborn

30. Januar 2002, 14:30 Uhr, F1.110

Tree Network Design for the Cost-Distance-Model

We generalize the Cost-Distance problem: Given a set of n sites in k-dimensional Euclidean space and a weighting over pairs of sites, construct a network that minimizes the cost (i.e. weight) of the network and the weighted distances between all pairs of sites. It turns out that the optimal solution can contain Steiner points as well as cycles. Furthermore, there are instances where crossings optimize the network.

We then investigate how trees can approximate the weighted Cost-Distance problem. We show that for any given set of n sites and a non-negative weighting of pairs, provided the sum of the weights is polynomial, one can construct in polynomial time a tree that approximates the optimal network within a factor of O(log n). Finally, we show that better approximation rates are not possible for trees. We prove this by giving a counter-example. Thus, we show that for this instance that every tree solution differs from the optimal network by a factor $\Omega(\log n)$.

Martin Otto, Universität Paderborn

06. Februar 2002, 14:30 Uhr, F1.110

Optimal Asymmetric Encryption Padding (OAEP)

Abstract: The talk will give an introduction to the OAEP encryption scheme introduced by Bellare and Rogaway in 1995 and new results concerning the instantiation with RSA published last year.

Dr. Rolf Wanka, Universität Paderborn

13. Februar 2002, 14:30 Uhr, F1.110

Authoritative Sources in a Hyperlinked Environment

Kleinberg's approach to identify webpages that are authorities for answering so-called broad topic queries is presented. This approach is based on Random Walks on the graph that is formed by the webpages and the link between them. Via a Random Walk, authorities and hubs (pages that connect authorities) can be destilled from the enormous number of webpages that contain the query string as a subtext.

Dimitrios M. Thilikos, Universitat Politecnica de Catalunya, Barcelona, Spain

20. Februar 2002, 14:30 Uhr, F1.110

Fast approximation schemes for $K_{3,3}$-minor-free or $K_{5}$-minor-free graphs

As the class of graphs of bounded treewidth is of limited size, we need to solve NP-hard problems for wider classes of graphs than this class. Eppstein introduced a new concept which can be considered as a generalization of bounded treewidth. A graph $G$ has {\em locally bounded treewidth} if for each vertex $v$ of $G$, the treewidth of the subgraph of $G$ induced on all vertices of distance at most $r$ from $v$ is only a function of $r$, called {\em local treewidth}. So far the only graphs determined to have small local treewidth are planar graphs. In this paper, we prove that any graph excluding one of $K_{5}$ or $K_{3,3}$ as a minor has local treewidth bounded by $3k+4$. As a result, we can design {\sl practical} polynomial-time approximation schemes for both minimization and maximization problems on these classes of non-planar graphs.

Stefan Rührup, Universität Paderborn

27. Februar 2002, 15:00 Uhr, F1.110

Topologieaufbau und -erhaltung in mobilen Ad-hoc-Netzwerken

Mobile Ad-hoc-Netzwerke sind dynamische drahtlose Netze, die ohne bestehende Infrastruktur spontan gebildet werden und sich selbst organisieren. So vielfältig die Anwendungsbereiche sind, so verschieden sind auch die Szenarien, die man untersuchen kann. Wir betrachten mobile Ad-hoc-Netzwerke am Beispiel von Mini-Robotern, die per Infrarot miteinander kommunizieren und so ein Netzwerk bilden. Wie können diese Roboter ohne globale Kontrollinstanz ein Netzwerk aufbauen und welche Eigenschaften sollte dieses Netzwerk besitzen. Diese und andere Fragestellungen sind Gegenstand der Diplomarbeit.

Alex May, Universität Paderborn

27. Februar 2002, 14:30 Uhr, F1.110

Factoring Unbalanced RSA-Moduli with Small CRT-Exponents

We present lattice-based attacks on RSA with prime factors p and q of unbalanced size. In our scenario, the decryption exponent d is small modulo p-1. Small secret exponents are often used in efficient implementations that are based on the Chinese Remainder Theorem. We introduce two approaches that both make use of a modular bivariate polynomial equation with a small root. Extracting this root is in both cases equivalent to the factorization of the modulus N=pq. In our first approach, we prove that the desired root can be found in polynomial time. This method works if q < N^{0.382}. Our second technique uses a heuristic to find the root. This method improves upon the first one by allowing larger values of the secret exponent d modulo p-1.

Ute Schroefel, Universität Paderborn

27. Februar 2002, 15:30 Uhr, F1.110

Separation of a directory tree to achieve a dynamic load balancing

Betreuung: AG Meyer auf der Heide/IBM Deutschland Speichersysteme GmbH

This diploma thesis deals with the problem of backing up/restoring shared file systems in a cluster of backup-archive clients. To avoid backing up the same data objects of the file system the file system represented by its directory tree has to be shared out among the clients. And so each client is responsible for backing up a part of the entire shared file system. The cost of each client's backup describes the load. Tivoli Storage Manager already provides static load balancing. Because of the incremental backup the size of the backup depends on the changes, that have been made since the last backup. That's why static load balancing isn't enough for regular backups, especially when they are organized in a schedule. To achieve good results of dynamic load balancing the backup has to concern always the same directory tree.

Grzegorz Malewicz, University of Connecticut

07. Maerz 2002, 14:30 Uhr, F1.110

Establishing Wireless Conference Calls Under Delay Constraints

A prevailing feature of mobile telephony systems is that the cell where a mobile user is located may be unknown. Therefore when the system is to establish a call between users it needs to search, or page, all the cells that it suspects the users are located in, to find the cells where the users currently reside. The search consumes expensive wireless links and so it is desirable to develop search techniques that page as few cells as possible.

We consider a cellular system with $c$ cells and $m$ mobile users roaming among the cells. The location of the users is uncertain as given by probability distribution vectors. The search operation lasts a given number of rounds (the delay constraint). In each round the system may page an arbitrary subset of cells to find out which users are located there. In this setting the problem of finding one user with minimum expected number of cells paged is known to be solved optimally in polynomial time.

In this work we address the problem of finding several users with the same optimization goal. This task is motivated by the problem of establishing a conference call between mobile users. We first show that the problem is NP-hard. Then we prove that a natural and simple heuristic is a $\frac{e}{e-1}$ approximation solution. In this research we applied techniques from multidimensional convex optimization.

This is a joint work with Amotz Bar-Noy performed during a summer internship at the AT&T Shannon Lab, USA.

Daniel Schepers, Universität Paderborn

20. März 2002, 14:30 Uhr, F1.110

Zeitangriff auf Crypto-Systeme, die auf elliptischen Kurven basieren

Für RSA existiert ein Zeitangriff, der sehr schnell den geheimen Schlüssel liefert. Ausgehend von diesem Angriff werde ich die Ähnlichkeiten von RSA und Algorithmen mit Elliptischen Kurven aufzeigen. Da Elliptische Kurven eine komplexere Berechnung aufweisen, kann der Angriff nicht 1:1 übertragen werden. Jedoch ist ein Angriff möglich. Ich werde die Grundlagen des Angriffs darstellen.

Die Analysen sind keine echten Zeitangriffe. In meinen Analysen habe ich die anzugreifende Funktion (Montgomery-Multiplikation) direkt gezählt. Die Ergebnisse lassen aber vermuten, daß ein Angriff mit Zeitnahmen möglich ist.

Zum Abschluß werde ich Gegenmaßnahmen vorstellen.

Birgitta Weber, ETH Zürich

27. März 2002, 14:30 Uhr, F1.110

Genetic Algorithms for the Steiner Tree Problem

Genetic algorithms are widely used for solving NP-hard problems. They are easy to implement and quite efficient in many situations. Genetic algorithms are randomized search heuristics. They are problem independent and one can often find good solutions using black box implementations. The important part in designing genetic algorithms is to add problem specific components.

In this talk, we will give a short overview about the minimum steiner tree problem in the Euclidean plane and how to solve it using genetic algorithms. The minimum steiner tree problem is an important network design problem. All known genetic algorithms for the Euclidean problem do not take problem specific properties into account.

We will introduce a data structure for representing steiner trees in genetic algorithms and I will discuss the question how to find good start individuals.