LEA
Fakultät für Informatik der Technischen Universität München
Lehrstuhl für Effiziente Algorithmen
Postadresse: 80290 München; Hausadresse: Arcisstr.21, 80333 München

Oberseminar Theoretische Informatik

Brauer, Esparza, Mayr, Steger

Mittwochs um 14.00 Uhr s.t., Raum S2229

[Vortrag vom Mittwoch, 22. Juli. 1998]

*Mi,13.5.1998 Richard Mayr
Deciding Weak Bisimilarity of Infinite-State Systems and Finite-State Systems by Model Checking

Weak bisimulation is a semantic equivalence that is often used in process algebra. We present a general method for deciding weak bisimilarity of infinite-state systems and finite-state systems. We show that the equivalence problem can be reduced to the model checking problem for the branching-time temporal logic EF. Thus it is decidable for all classes of processes for which model checking with EF is decidable, e.g. BPA, BPP, PA and PAD.
*Mi,20.5.1998 Mark Scharbrodt (Lehrstuhl für Brauereianlagen und Lebensmittel-Verpackungstechnik)
Approximierbarkeit des Scheduling Problemes mit fixierten Jobs

Im Standardproblem des Maschinen-Scheduling sind n Jobs mit ganzzahligen Prozesszeiten gegeben, die derart auf m Maschinen zu verteilen sind, dass der Endzeitpunkt (Makespan) des zuletzt fertiggestellten Jobs minimiert wird. Wir erweitern das Modell indem wir erlauben, dass k der n Jobs bereits a priori auf bestimmten Maschinen und zu bestimmten Zeiten eingeplant sind. Die Aufgabe ist, die verbleibenden n - k Jobs auf den Maschinen einzuplanen, so daß der Makespan minimiert wird.

Ein solches Modell erlaubt ein realistischeres Abbilden von Anwendungen in der Produktionsplanung, denn nur in seltenen Fällen kann von der freien Verfügbarkeit aller Maschinen ausgegangen werden. Vielmehr müssen Unterbrechungen, bedingt etwa durch Wartung und Reperatur, Reinigungszeiten oder durch Schichtmodelle berücksichtigt werden. Da derartige "black out"-Zeiten in der Regel im voraus bekannt sind, können sie auf einfache Weise durch fixierte Jobs abgebildet werden. Für dieses Scheduling Problem mit fixierten Jobs werden wir die folgenden Ergebnisse vorstellen:

Wir präsentieren ein Polynomielles Approximations Schema (PAS) für den eingeschränkten Fall, dass die Zahl der Maschinen konstant ist. Ist die Maschinenzahl hingegen Teil der Eingabe, so ergibt unser Ansatz ein Asymptotisch Polynomielles Approximationsschema (APAS). Als zweites zeigen wir, dass kein PAS existiert, wenn die Zahl der Maschinen Teil der Eingabeinstanz ist und dass in beiden Fällen kein Voll Polynomielles Approximationsschema (FPAS) existieren kann (wenn nicht P = NP gilt). In diesem Sinne ist unser Resultat das best mögliche für das Scheduling Problem mit fixierten Jobs.
*Mi,27.5.1998 Frank Wallner
Model Checking of Logics for Communicating Sequential Agents

Distributed systems are often modelled as a fixed collection of autonomous, sequential components (agents) which can operate independently as well as cooperate by exchanging information. There is an increasing interest in investigating "local temporal logics" that allow to specify requirements of the individual components of a distributed system.

While there are several sound model checking procedures for such logics for the linear-time case, only recently the model checking problem for similar branching-time logics has been considered.

One such local branching-time logic was introduced by Lodaya, Ramanujam and Thiagarajan, intended to specify the behaviour of "Communicating Sequential Agents", a certain class of prime event structures supporting the notion of locality. The logic is interpreted at the local states of the contributing components and allows an agent i to refer to another agent j according to the "latest gossip", i.e., the most recent information i has about j via the messages wandering through the system.
We show how McMillan's net unfolding can be used to solve the model checking problem for this logic.

This is joint work with Michaela Huhn (Uni Karlsruhe) and Peter Niebert (Uni Hildesheim).
*Mi,3.6.1998 Prof. Dr. Javier Esparza
Broadcast Protocols
*Mi,10.6.1998 Jens Ernst
Ein System zur Visualisierung und Animation paralleler Graph-Algorithmen

Der Vortrag behandelt eine Diplomarbeit mit dem Titel "Ein System zur Visualisierung und Animation paralleler Graph-Algorithmen". Die Aufgabe war dabei der Entwurf und die Implementierung eines für den Lehr- und Praktikumsbetrieb geeigneten Visualisierungssystems für parallele und insbesondere verteilte Graph-Algorithmen. Das System bietet sowohl eine Programmierschnittstelle als auch eine Benutzerschnittstelle mit zahlreichen Möglichkeiten zur Editierung von Graphen und zur Steuerung der Animation.

Im Diplomarbeitsvortrag wird zunächst die Grobstruktur des Animationssystems und dann die für parallele Programmierung geeignete Sprache SR vorgestellt. Abschliessend wird das Visualisierungssystem aus der Benutzerperspektive betrachtet.
*Mi,17.6.1998 Martin Raab
Balls into Bins - A Simple and Tight Analysis

Bei der Entwicklung von Verfahren zur Lastverwaltung und bei der Analyse von Hash-Verfahren wird immer wieder das ``Balls into Bins''-Modell verwendet, bei dem m Bälle zufällig in n Urnen geworfen werden.

Ein wichtiger Parameter zur Untersuchung dieser Probleme ist die maximale Anzahl Bälle, die sich nach dem Experiment in einer Urne befindet.

In der Literatur findet man an vielen Stellen die Aussage, daß diese Zahl für den Fall m = n mit hoher Wahrscheinlichkeit in Theta(log n/(log log n)) ist. Dies wird von Gonnet in [1] mit relativ aufwendiger Technik bewiesen.
Im Vortrag werden wir zeigen, wie mit der Methode des ersten und zweiten Moments leicht scharfe Schranken nachgewiesen werden k"onnen, wobei die Anzahl der geworfenen Bälle eine beliebige Funktion der Anzahl Urnen ist. Wir werden dabei hauptsächlich auf die Methode des ersten und zweiten Moments eingehen, die in der Analyse von randomisierten Algorithmen häufig angewandt werden kann.

[1] Gaston H. Gonnet. Expected length of the longest probe sequence in hash code searching. Journal of the ACM, 28(2):289--304, April 1981
*Mi,24.6.1998 Thomas Decker (Universität-GH Paderborn)
Parallel Real Root Isolation

Given a univariate polynomial we compute isolating intervals for its real roots. These are disjoint intervals that each contain exactly one real root and together contain all the real roots. The intervals are obtained by a bisection method that uses Descartes' rule of signs and follows a binary search tree.

A first attempt to parallelize the Descartes method was made by Collins, Johnson, and Küchlin (1992). Their idea was to search left and right subtrees in parallel. This method is successful provided the search tree is wide; however, random polynomials have narrow search trees.

Since not much parallelism is available at the tree level, we parallelize the most time-consuming subalgorithm, namely the transformation T that transforms a polynomial P(x) into the polynomial Q(x) = P(x+1). Since T needs to be performed for each node of the tree, our algorithm scales well even when the tree is narrow.

We present an BSP*-algorithm for the translation by one which is 2-optimal, which means that the speedup tends to p/2 with growing input-size. This optimality is achieved for exact arithmetic as well as for floating point interval arithmetic.

Our experiments with interval arithmetic show that (a) the computation time can be significantly reduced and (b) that the required precision for random polynomials is surprisingly low. About 85% of the random polynomials of degree 1000 can be processed using just 29 bits of precision. We isolated the real roots of 100 random polynomials of degree 4000 and found that 58 bits of precision sufficed in every case. Going from 29 to 58 bits of precision increases the computing time by a factor of about 1.5. The reason why we use software supplied floating point arithmetic is not the need for precision but the need for large exponents.
*Mi,1.7.1998 Peter Rossmanith
Neue obere Schranken für MaxSat

Das Maximum Satisfiability Problem ist folgendermaßen definiert. Gegeben eine Formel in konjunktiver Normalform. Wie viele Klauseln lassen sich maximal durch eine Belegung der Variablen gleichzeitig erfüllen?

Es gibt viele Ergebnisse über exakte Lösungsalgorithmen, welche Heuristiken verwenden und über polynomielle Approximationsalgorithmen. Allerdings ist die Lücke zwischen einer beweisbaren oberen Schranke für die Worst-Case Komplexität des Problems und den experimentellen Ergebnissen sehr groß. In diesem Vortrag wird diese Lücke durch bessere obere Schranken in der Anzahl der Klauseln und der Länge der Formel verkleinert.
*Mi,8.7.1998 Thomas Schickinger
Effiziente Optimierung jenseits scharfer Approximationsschranken

Bei der Lösung NP-harter Optimierungsprobleme besteht ein gebräuchlicher Ansatz darin, auf Approximationsalgorithmen auszuweichen. Die Qualität solcher Algorithmen hängt davon ab, wie stark sich die gefundenen Näherungslösungen vom globalen Optimum unterscheiden. Wenn ein Verfahren zur Lösung eines Maximierungsproblems für alle Eingaben einen Wert erreicht, der mindestens halb so groß ist, wie das globale Optimum, so nennt man dies einen Approximationsalgorithmus der Güte zwei. Je näher die Güte bei Eins liegt, umso dichter liegen die gefundenen Lösungen beim globalen Optimum.

Während manche Probleme mit beliebiger Güte 1 + ε approximiert werden können, existieren für andere Approximationsschranken g > 1 mit der Eigenschaft, daß es keinen Approximationsalgorithmus mit Güte < g geben kann (außer es gilt P = NP oder ähnliches).

Für die Probleme MaxkSat und MaxLinEqk-2 (eine Verallgemeinerung von MaxCut) wurden 1997 von Johan Håstad scharfe Approximationsschranken gezeigt. Die bestmöglichen Approximationsgüten werden bei diesen Problemen von recht einfachen polynomiellen Algorithmen erreicht.

Wir beschäftigen uns mit der Frage, wie bei solchen Problemen mit scharfen Approximationsschranken bessere Lösungen als die polynomiell erreichbaren Approximationen gefunden werden können. Unser Ziel besteht also darin, exakte Algorithmen oder Approximationsalgorithmen jenseits der polynomiell erreichbaren Güten anzugeben, die (u. U. für eingeschränkte Problemklassen) die Laufzeit O(2n) für vollständige Suche über n Variablen unterbieten.
*Mi,15.7.1998 Matthias Westermann (Universität-GH Paderborn)
Data Management in Systems of Limited Bandwidth

This talk deals with data management in computer systems in which the computing nodes are connected by a relatively sparse network. We consider the problem of placing and accessing a set of shared objects that are read and written from the nodes in the network. These objects are, e.g., global variables in a parallel program, pages or cache lines in a virtual shared memory system, shared files in a distributed file system, or pages in the World Wide Web. A data management strategy consists of a placement strategy that maps the objects (possibly dynamically and with redundancy) to the nodes, and an access strategy that describes how reads and writes are handled by the system (including the routing). We investigate static and dynamic data management strategies.

In the static model, we assume that we are given an application for which the rates of read and write accesses for all node-object pairs are known. The goal is to calculate a static placement of the objects to the nodes in the network and to specify the routing such that the network congestion is minimized. We introduce efficient algorithms that calculate optimal or close-to-optimal solutions for tree-connected networks, meshes of arbitrary dimension, and internet-like clustered networks. These algorithms take time only linear in the input size.

In the dynamic model, we assume no knowledge about the access pattern. An adversary specifies accesses at runtime. Here we develop dynamic caching strategies that also aim to minimize the congestion on trees, meshes, and clustered networks. These strategies are investigated in a competitive model. For example, we achieve optimal competitive ratio 3 for tree-connected networks and competitive ratio O(d log n) for d-dimensional meshes of size n which is optimal for meshes of constant dimension.

This is a joint work with Bruce Maggs, Friedhelm Meyer auf der Heide, and Berthold Vöcking.
*Mi,22.7.1998 Anna Bernasconi, Michal Mnuk
Algorithmen und Komplexität von Radikalen

Radikale von Idealen sind Objekte, die den algebraischen Mengen, d.h. den Nullstellen einer endlichen Anzahl von Polynomen, entsprechen und diese beschreiben. Wir präsentieren einige Algorithmen zur Berechnung von Radikalen und analysieren die Komplexität der Entscheidung, ob ein Polynom im Radikal eines gegebenen Ideals liegt.


Martin Raab Last modified: Wed Nov 25 11:13:05 MEZ 1998
Thomas Erlebach, 1998-04-29