Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (26) (entfernen)
Schlagworte
- Algorithmus (3)
- Middleware (3)
- Abfrageverarbeitung (2)
- Ad-hoc-Netz (2)
- Mobile Computing (2)
- OBDD (2)
- OBDDs (2)
- Peer-to-Peer-Netz (2)
- Selbstorganisation (2)
- mobile computing (2)
- (general) boustrophedon (returning) finite automata (1)
- (general) jumping finite automata (1)
- (regular : regular) array grammars (1)
- (regulär: regulär) Array-Grammati (1)
- Algorithmische Lerntheorie (1)
- Amortisierte Laufzeitanalyse (1)
- Amortized run time analysis (1)
- Analyse (1)
- Ankunftsprozess (1)
- Applikationsunterstützung (1)
- Automata Theory (1)
- Automatentheorie (1)
- BMAP (1)
- Bilddatenverarbeitung (1)
- Client-server-Konzept (1)
- Cluster (1)
- Consistency (1)
- DICOM-image (1)
- Datenspeicherung (1)
- Datenstruktur (1)
- Datenverdichtung (1)
- Directed Graphs (1)
- Disambiguierung von Personennamen (1)
- Distributed Systems (1)
- Dokumentverarbeitung (1)
- E-Learning (1)
- Elektronische Bibliothek (1)
- Erweiterung (1)
- Eulerian trails (1)
- Exact Algorithms (1)
- Exakte Algorithmen (1)
- Exponental time algorithms (1)
- Exponentialzeit Algorithmen (1)
- Fallbasiertes Schließen (1)
- Flussdiagramm (1)
- Formal Verification (1)
- Formal languages (1)
- Gerichteter Graph (1)
- Graph Minors (1)
- Graph Rewriting (1)
- Graph Visualization (1)
- Graphen mit Eulerschen Pfaden (1)
- Graphvisualisierung (1)
- Hyperlink-Management (1)
- Hyperlink-Proposals (1)
- Immersion <Virtuelle Realität> (1)
- Information Visualization (1)
- Informationssystem (1)
- Informationsvisualisierung (1)
- Integrated Circuits (1)
- Internet (1)
- Internetdienst (1)
- Kollaboration <Informatik> (1)
- Kom (1)
- Kombinatorische Optimierung (1)
- Komplexe Netzwerke (1)
- Komplexe Systeme (1)
- Komplexität (1)
- Komponente <Software> (1)
- Konsistenz (1)
- Logischer Entwurf (1)
- MMVE (1)
- Markov Jump Process (1)
- Markov-Kette (1)
- Markov-Prozess (1)
- Mathematische Lerntheorie (1)
- Measure & Conquer (1)
- Metadaten (1)
- Minor <Graphentheorie> (1)
- Mobile Networks (1)
- Mobile Telekommunikation (1)
- Modellierung (1)
- Multicast Communication (1)
- Multicastingverfahren (1)
- NP-hartes Problem (1)
- Netzwerk (1)
- Netzwerksimulation (1)
- Nichtlineare Dynamik (1)
- Näherungsverfahren (1)
- Operations Research (1)
- Ordered Binary Decision Diagrams (1)
- Overlay Network (1)
- Overlay-Netz (1)
- Parameterisierte Algorithmen (1)
- Parameterized Algorithms (1)
- Parametrisierte Approximation (1)
- Peer-to-Peer Network (1)
- Periodic Queues (1)
- Personenname (1)
- Pipeline (1)
- Prozessor (1)
- Pufferspeicher (1)
- Queues (1)
- RPC (1)
- Radiologie (1)
- Rechnernetz (1)
- Reduktionssystem (1)
- Regular Expressions (1)
- Regulärer Ausdruck (1)
- Request-Prediction (1)
- Robustheit (1)
- Server (1)
- Software Visualization (1)
- Softwarevisualisierung (1)
- Speicherdirektzugriff (1)
- Standard ML (1)
- Statistical Mechanics of complex networks (1)
- Statistische Mechanik komplexer Netze (1)
- Store-And-Forward Network (1)
- Store-And-Forward Netzwerk (1)
- Streaming <Kommunikationstechnik> (1)
- Synchronisierung (1)
- Synergie (1)
- Syntaktische Analyse (1)
- Telekommunikationsnetz (1)
- Theoretische Informatik (1)
- Transitionssystem (1)
- Verifikation (1)
- Verteiltes System (1)
- Virtual Environment (1)
- Virtuelle Realität (1)
- Virtuelle Umgebung (1)
- Visualisierung (1)
- Visualization (1)
- Warteschlangentheorie (1)
- Wartesystem (1)
- Web-Applications (1)
- Website-Management (1)
- Weitverkehrsnetz (1)
- Workflow-Programm (1)
- XML (1)
- XOR Parity (1)
- Zufallsgraph (1)
- ad-hoc network (1)
- algorithm analysis (1)
- application support (1)
- archiving (1)
- cache behavior (1)
- clustering (1)
- complex networks (1)
- complex systems (1)
- complexity (1)
- compression (1)
- computational geometry (1)
- controlled queueing system (1)
- convex hull (1)
- digital library (1)
- divide and conquer (1)
- endliche Boustrophedon-Automaten (1)
- formal verification (1)
- grammatical inference (1)
- historical metadata (1)
- home pages (1)
- incremental algorithm (1)
- information retrieval (1)
- jumping endliche Automaten (1)
- memory distance (1)
- middleware (1)
- mobile Telekommunikation (1)
- mobile ad-hoc network (1)
- multicore (1)
- multihop Netzwerk (1)
- multihop network (1)
- network simulation (1)
- numerical analysis (1)
- optimal control (1)
- parameterised approximation (1)
- partitioning (1)
- person name disambiguation (1)
- processing (1)
- radiology (1)
- reordering (1)
- search engine (1)
- threshold (1)
- time complexity (1)
- web-based services (1)
- zurückkehrende(RFA) (1)
Institut
- Informatik (26) (entfernen)
The visualization of relational data is at the heart of information visualization. The prevalence of visual representations for this kind of data is based on many real world examples spread over many application domains: protein-protein interaction networks in the field of bioinformatics, hyperlinked documents in the World Wide Web, call graphs in software systems, or co-author networks are just four instances of a rich source of relational datasets. The most common visual metaphor for this kind of data is definitely the node-link approach, which typically suffers from visual clutter caused by many edge crossings. Many sophisticated algorithms have been developed to layout a graph efficiently and with respect to a list of aesthetic graph drawing criteria. Relations between objects normally change over time. Visualizing the dynamics means an additional challenge for graph visualization researchers. Applying the same layout algorithms for static graphs to intermediate states of dynamic graphs may also be a strategy to compute layouts for an animated graph sequence that shows the dynamics. The major drawback of this approach is the high cognitive effort for a viewer of the animation to preserve his mental map. To tackle this problem, a sophisticated layout algorithm has to inspect the whole graph sequence and compute a layout with as little changes as possible between subsequent graphs. The main contribution and ultimate goal of this thesis is the visualization of dynamic compound weighted multi directed graphs as a static image that targets at visual clutter reduction and at mental map preservation. To achieve this goal, we use a radial space-filling visual metaphor to represent the dynamics in relational data. As a side effect the obtained pictures are very aesthetically appealing. In this thesis we firstly describe static graph visualizations for rule sets obtained by extracting knowledge from software archives under version control. In a different work we apply animated node-link diagrams to code-developer relationships to show the dynamics in software systems. An underestimated visualization paradigm is the radial representation of data. Though this kind of data has a long history back to centuries-old statistical graphics, only little efforts have been done to fully explore the benefits of this paradigm. We evaluated a Cartesian and a radial counterpart of a visualization technique for visually encoding transaction sequences and dynamic compound digraphs with both an eyetracking and an online study. We found some interesting phenomena apart from the fact that also laymen in graph theory can understand the novel approach in a short time and apply it to datasets. The thesis is concluded by an aesthetic dimensions framework for dynamic graph drawing, future work, and currently open issues.
Synergieeffekte und Kollaboration bei e-Learning-Anwendungen in selbstorganisierenden Computernetzen
(2009)
In den letzten Jahren haben sich mehrere neue Netzklassen im Bereich der Verteilten Systeme etabliert. Diese können unter Ausnutzung von Selbstorganisationsprinzipien und verschiedener kollaborativer Aspekte viele der netzinhärenten Probleme wie Skalierbarkeit, Latenz- und Lastverteilungsbetrachtungen sowie Konsistenzwahrung entschärfen. Gleichzeitig kann die Nutzung entsprechender Prinzipien zu positiven Synergieeffekten führen, die von den verschiedenen auf diesen Netzen aufsetzten Applikationsdomänen genutzt werden können. Von besonderer Bedeutung sind diese Aspekte für die beiden neuartigen Netzklassen der Multi-Hop Adhoc-Netze (MANETs) und der globalen virtuellen Umgebungen (MMVEs). Beiden Netzklassen ist gemeinsam, dass sie aufgrund der erwähnten Problemstellungen nicht mit traditionellen verteilten Architekturen, wie zentralistischen und monolithischen Systemen, umgesetzt werden können. Hier muss ein Paradigmenwechsel hin zu dezentralen, selbstorganisierenden Systemstrukturen erfolgen, um den angesprochenen Herausforderungen zu begegnen. Die erste in dieser Arbeit untersuchte Netzklasse der MANETs zeichnet sich dadurch aus, dass sie Nutzern erlaubt, immer und überall auf Ihre Daten zugreifen zu können und mit der vor Ort vorhandenen Infrastruktur transparent zu kommunizieren. Dabei erfolgen die Daten-zugriffe vermehrt über immer kleiner werdende mobile Endgeräte, die sowohl aufgrund ihrer inhärenten Mobilität als auch ihrer eingeschränkten Ressourcen daran angepasste Netzstrukturen erfordern. Die neuartige Netzklasse der MMVEs dagegen soll Dateninhalte in einem dreidimensionalen Rahmen und damit nativ und intuitiver als die vorherrschende zweidimensionale Darstellung, wie z.B. im Internet, präsentieren. Der Datenzugriff erfolgt hier meist über eine virtuelle Benutzerrepräsentation " einen Avatar. MMVEs basieren zwar im Vergleich zu MANETs in der Regel auf physisch verlässlichen Netzen, benötigen aber aufgrund der massiven Verteilung und der großen Nutzerzahlen neue Netzwerkarchitekturen. Die Anwendungsdomäne e-Learning eignet sich in diesem Zusammenhang besonders gut für wissenschaftliche Untersuchungen, da hier eine ähnliche Entwicklung beobachtbar ist, wie bei den eingangs erwähnten Netzklassen. Genauso wie mobile Endgeräte immer kleiner und ubiquitär verfügbar werden und das Internet praktisch an jedem Ort der Welt mit hoher Bandbreite nutzbar ist, finden e-Learning Inhalte immer mehr Einzug in das tägliche Leben. Während sie früher nur eine vernachlässigbare Ergänzung zu etablierten Schulungsformen darstellten, die mehr oder weniger invasiv und starr zentral administriert wurde, steigt Ihre Bedeutung besonders im Zusammenhang mit neuen Zugangsformen täglich. Besonders das Bedürfnis an Schulen oder Universitäten sowie bei der innerbetrieblichen Aus- und Weiterbildung, immer und überall verteilt, nativ und transparent auf entsprechende Lehr- und Lerninhalte zugreifen zu können, steigt mit dem wachsenden und teilweise rein wirtschaftlich bedingten Bedarf nach einer qualitativ hohen, kontinuierlichen gesellschafts- und technikdurchdringenden Grund- und Weiterbildung. Die geforderte Transparenz und Ubiquität kann für die angesprochene Anwendungsdomäne dadurch erreicht werden, dass spezielle, auf die neuartigen verteilten Netzstrukturen abgestimmte, Applikationen entwickelt werden, die die netzinhärenten Selbstorganisations-prinzipien explizit ausnutzen. Eine wichtige Fragestellung in diesem Zusammenhang ist, welche Auswirkungen ein solcher Paradigmenwechsel auf die Qualität der Wissens-vermittlung und der Inhalte hat. Erste Evaluationen mit prototypischen Applikationen haben gezeigt, dass dieser Wechsel problemlos möglich ist. Dabei spiegeln auftretende Synergie-effekte die Abbildung auf soziale Netze wieder, die beiden Aspekten inhärent zugrunde liegt und einen Mehrwert erzeugen, der die dabei auftretenden technischen Herausforderungen und Probleme relativiert. Entsprechende Effekte lassen sich sogar noch weiter verstärken, indem kollaborative Aspekte sowohl auf Applikationsebene als auch in den darunter liegenden Basisstrukturen ausgenutzt werden. Die vorliegende Arbeit soll diese Annahmen durch adäquate Beispiele aus beiden Bereichen (MANETs und MMVEs) aus verschiedenen Perspektiven beleuchten und anhand von beispielhaften Anwendungen und darauf aufbauende Evaluationen den Synergiegewinn von e-Learning Applikationen und mögliche kollaborative Aspekte in diesem Umfeld aufzeigen.
In dieser Arbeit wird ein Middlewaremodell für Anwendungen in mobilen ad-hoc Netzwerken vorgestellt. Der primäre Fokus liegt dabei auf Netzen, die auf Basis von mobilen Endbenutzergeräten wie PDAs, PocketPCs oder Smartphones gebildet werden und die über eine drahtlose Kommunikationstechnik wie WLAN oder Bluetooth verfügen. Zur Identifizierung der Ansprüche an eine Middleware in diesen Netzen wurden Anwendungen aus dem universitären Umfeld untersucht. Da die Kommunikation in drahtlosen Netzen nicht immer so transparent wie in drahtgebundenen Infrastrukturnetzen erfolgen kann, enthält die Middleware ein Kommunikationsframework, welches die Adaption und auch die Kombination von Kommunikationsmechanismen ermöglicht. Neben der direkten Auslieferung von Nachrichten werden auch Mechanismen zur sukzessiven Weitergabe von Nachrichten, die so genannte Store-and-Forward Kommunikation, angeboten. Hier steht insbesondere die Weitergabe von Informationen im Vorbeigehen (En-Passant) im Vordergrund. Die Komponenten der Middleware und darauf basierenden Applikationen werden als interagierende mobile Objekte modelliert. Die Interaktion dieser Objekte erfolgt aufgrund der Dynamik der mobilen ad-hoc Netze ereignisorientiert. Sowohl die Interaktion, als auch die Adaption und Wahl von Kommunikationsmechanismen erfolgt auf Basis von Informationen über das direkte Umfeld, Applikationswissen über das Netzwerk und Erfahrungen aus der Vergangenheit. Diese Informationen, die von Objekten verbreitet und gesammelt werden können, werden als Spuren bezeichnet. Da eine Aufhebung der Transparenz der Middlewarekomponenten einen höheren Entwicklungsaufwand bedeutet, wird eine Realisierung der Objektinteraktion in Objektrepräsentanten vorgeschlagen. Objektrepräsentanten ermöglichen die Kommunikation mit entfernten Objekten, das lokale Verwalten von Informationen über diese Objekte und schließlich die Repräsentierung von Objekten ohne reale Objektinstanz. Objekte ohne Objektinstanz werden verwendet, um Gerätegruppen mit bestimmten Eigenschaften zusammenzufassen, beispielsweise Objekte an einem bestimmten geographischen Ort. Somit ist auch das Wissen über geographische Orte und deren Identifizierung ein wichtiger Aspekt des Modells. Aufgrund der Anwendungsuntersuchungen ist sukzessive ein Middlewareprototyp entstanden, der in eine Simulationsumgebung für mobile ad-hoc Netze integriert ist. Die Umgebung erlaubt neben der reinen Simulation mobiler ad-hoc Netze und der zu untersuchenden Anwendung auch die Integration realer Geräte und die Ausführung der Anwendungen auf realen Geräten. Somit konnte, neben einer simulativen Untersuchung, auch eine praktische Evaluation der Anwendungen in Feldversuchen durchgeführt werden.
Many real-life phenomena, such as computer systems, communication networks, manufacturing systems, supermarket checkout lines as well as structural military systems can be represented by means of queueing models. Looking at queueing models, a controller may considerably improve the system's performance by reducing queue lengths, or increasing the throughput, or diminishing the overhead, whereas in the absence of a controller the system behavior may get quite erratic, exhibiting periods of high load and long queues followed by periods, during which the servers remain idle. The theoretical foundations of controlled queueing systems are led in the theory of Markov, semi-Markov and semi-regenerative decision processes. In this thesis, the essential work consists in designing controlled queueing models and investigation of their optimal control properties for the application in the area of the modern telecommunication systems, which should satisfy the growing demands for quality of service (QoS). For two types of optimization criterion (the model without penalties and with set-up costs), a class of controlled queueing systems is defined. The general case of the queue that forms this class is characterized by a Markov Additive Arrival Process and heterogeneous Phase-Type service time distributions. We show that for these queueing systems the structural properties of optimal control policies, e.g. monotonicity properties and threshold structure, are preserved. Moreover, we show that these systems possess specific properties, e.g. the dependence of optimal policies on the arrival and service statistics. In order to practically use controlled stochastic models, it is necessary to obtain a quick and an effective method to find optimal policies. We present the iteration algorithm which can be successfully used to find an optimal solution in case of a large state space.
Diese Arbeit stellt eine einheitliche Workbench zur Entwicklung von mobilen Anwendungen in multihop Ad-Hoc-Netzwerken vor. Die einheitliche Workbench besteht aus drei Bausteinen: einem Simulator für diese Netzwerke, einer hybriden Emulationsumgebung für mobile multihop Ad-Hoc-Netzwerke und einer Ausführungsplattform für Anwendungen auf mobilen Geräten. Anwendungen können bereits im Simulator vollständig implementiert und evaluiert werden. Der entstandene Code kann unverändert sowohl im Emulationsteil als auch auf der Ausführungsplattform für mobile Geräte eingesetzt werden. Im passenden dreistufigen Entwicklungsprozeß wird die Anwendung im Simulator implementiert und getestet, bevor sie -- zusammen mit einer graphischen Oberfläche -- in der hybriden Emulationsumgebung weiter evaluiert und optimiert wird. Zuletzt erfolgt die Erprobung auf mobilen Geräten im Feldversuch. Mehrere tausend bis zehntausend mobile Geräte können in der Workbench durch die Beschränkung auf die topologischen Aspekte des Ad-Hoc-Netzwerks und eine besondere Bewegungsmodellabstraktion, die die besonders effiziente Berechnung der Bewegungs- und Konnektivitätsdaten der Geräte ermöglicht, effizient simuliert werden. Die Vorausberechnung und Wiederverwendung dieser Daten ist möglich. Simulationen können in Echtzeit detailliert visualisiert werden, wobei die Art der Visualisierung und das Ausgabeformat vom Benutzer definiert werden können. Die Workbench und der Softwareentwicklungsprozeß für Anwendungen in mobilen multihop Ad-Hoc-Netzwerken werden anhand einer Fallstudie erprobt. Dabei werden die Erfahrungen bei der Implementierung einer Middleware für Ad-Hoc-Anwendungen sowie bei der Entwicklung einer selbstorganisierenden Auktionsanwendung aufgezeigt.
Die Geschichte verteilter Systeme und Anwendungen hat die unterschiedlichsten Technologien hervorgebracht: Client-Server-Architekturen, Peer-To-Peer-Netzwerke und Komponentensysteme sind nur einige Vertreter. Die vorliegende Arbeit ist im Bereich der Middleware-Architekturen angesiedelt, einem zur Zeit sehr stark beachteten Zweig der verteilten Anwendungen. Als Mittler zwischen den Anwendungen auf der einen Seite sowie Datenbanken, eMail-Systemen oder weiterer Servern auf der anderen Seite, schlägt sie die Brücke zu heterogenen IT-Landschaften. Sie verbirgt Details und Änderungen dieser IT-Umgebungen und schafft gleichzeitig einen transparenten Zugriff auf sie. Die Forschung hat viele Technologien im Middleware-Umfeld hervorgebracht und setzt bei den Zielen unterschiedliche Schwerpunkte. Eine Sicht auf die Middleware hat den Entwickler im Fokus und soll ihn bei der Erstellung von Anwendungen und Lösungen unterstützen. Aus diesem Grund stehen hier die Schnittstellen zum Server und zur Server-Infrastruktur sowie die Einbettung der Dienste in die Middleware im Vordergrund. Der interne Aufbau sowie die inneren Datenflüsse der Middleware dienen nur der Erfüllung dieser Ziele. Eine andere Sichtweise stellt den inneren Aufbau in den Fokus der Forschung. Hier ist das Ziel die Schaffung von flexiblen und erweiterbaren Server-Strukturen sowie die Effizienz von internen Abläufen und Datenflüssen. Damit ist eine einfache Anpassung an verschiedene Einsatzumgebungen sowie die Fähigkeit, auf die Leistungsmerkmale von Clients individuell eingehen zu können, möglich. Die im Rahmen dieser Arbeit entstandene Middleware-Architektur "Smart Data Server (SDS)" setzt Konzepte um, die beide Sichtweisen miteinander kombiniert. Ein Schwerpunkt neben der Entwicklung neuer Konzepte, liegt in der praktischen Anwendbarkeit der entwickelten Middleware. Die vorliegende Arbeit zeigt, dass der Smart Data Server die Praxistauglichkeit seiner Konzepte unter realen Bedingungen unter Beweis stellen kann und zeigt gleichzeitig, welche Konstrukte für den praktischen Einsatz tatsächlich notwendig sind. Ein zweiter Schwerpunkt liegt in der Entwicklung von Mechanismen zur Abarbeitung von streamingfähigen Anfragen. Üblicherweise folgt auf die Übermittlung von Anfragen an einen Server zunächst die Berechnung einer Antwort und anschließend deren Rücktransport. Bei Streaming-Anfragen ist neben der Übermittlung von Anfrageparametern ein kontinuierlicher und in seiner Dimension nicht beschränkter Datenstrom Bestandteil der Anfrage. Der Server startet seine Berechnungen wenn möglich schon vor dem Ende der Datenübermittlung und liefert schon bei Vorliegen von Teilergebnissen diese an den Client. Der benötigte Bedarf an Speicherplatz im Server kann so optimiert werden, da nur so viele Daten der Anfrage im Server vorgehalten werden müssen wie zur Berechnung tatsächlich notwendig sind und nicht etwa die gesamte Anfrage. Die Entwicklung eines Streaming-Mechanismuses muss entsprechende Möglichkeiten in der Anfragestruktur sowie in der Architektur der Middleware vorsehen. Der Smart Data Server schafft mit der Einführung einer streamingfähigen Anfragestruktur die Voraussetzung für die Verarbeitung solcher Anfragen. Zusätzlich muss eine Server-Architektur geschaffen werden, die das Abarbeiten von Streaming-basierten Anfragen unterstützt. Hier liegt der dritte Schwerpunkt der Arbeit: die Schaffung einer flexiblen und erweiterbaren Server-Struktur sowie die Effizienz von internen Abläufen und Datenflüssen unter Berücksichtigung der Anforderung einer streamingfähigen Anfragebearbeitung. Diese Anforderungen werden mit der neu entwickelten Technologie der inneren Workflow-Programme erfüllt. Innere Workflow-Programme repräsentieren Netzwerke von hochgradig unabhängigen Serverkomponenten. Durch die Umgestaltung dieser Netze sind neue Serverstrukturen möglich, um neuen Einsatzbedingungen angepasst werden zu können. Neben diesem statischen Netzwerk von Server-Komponenten kann zur Laufzeit eine Pipeline zur Abarbeitung von Datenströmen aufgebaut werden, mit der dann letztendlich die Streamingfähigkeit des Servers hergestellt wird.
Insbesondere im wissenschaftlichen Bereich ist es zur Selbstverständlichkeit geworden, zur Befriedigung eines Informationsbedürfnisses zunächst das World Wide Web (Web) zu benutzen. Der komplexe Aufbau des Webs und die dort herrschende Unordnung machen das Auffinden bestimmter Dokumente zu einem diffizilen Vorgang. Suchmaschinen und Web-Verzeichnisse unterstützen den Benutzer hierbei; ihre effektive Nutzung ist jedoch nicht einfach. Es ist daher hilfreich, Suchdienste zu entwickeln, welche Kontextwissen mitbringen. In der vorliegenden Arbeit wird das Verfahren der thematisch spezialisierten Suche präsentiert und anhand der Menge der persönlicher Home Pages von Informatikern exemplifiziert. Der Bibliographie-Server DBLP.uni-trier.de liefert u.a. zu über 4.000 Wissenschaftlern manuell gesammelte persönliche Home Pages. Durch verschiedene Analysen werden in dieser Menge häufig vorkommende, also relevante Eigenschaften ermittelt. Dies ist ein kreativer Prozess, in den sowohl Suchwissen -- Wissen über Techniken des Suchens im Web -- als auch Fachwissen -- Wissen über die Beschaffenheit persönlicher Home Pages -- einfließen. Nach der Überprüfung dieser Eigenschaften auf ihre Signifikanz in der Gesamtheit der Web-Dokumente ist ein thematisch spezialisiertes Wissen erschaffen worden. Zur Durchführung der Suche würde man idealerweise alle Web-Dokumente mit Hilfe des erarbeiteten Wissens und des Anfrageterms -- des vollständigen Namens eines Informatikers -- untersuchen. Da das Web aus mehreren Milliarden Dokumenten besteht, ist dies praktisch nicht durchführbar: Es ist notwendig, eine geeignete Vorauswahl zu treffen. Suchmaschinen haben Daten zu vielen Web-Dokumenten erfasst. Deshalb wird mit ihrer Hilfe unter Verwendung des Anfrageterms eine Vorauswahl getroffen. Um nun die Dokumente der Vorauswahlmenge gemäß der Anfrage zu bewerten wird das thematisch spezialisierte Wissen adäquat in einer Bewertungsfunktion repräsentiert, welche jedem Dokument einen Wert zuweist und somit eine Rangfolge erstellt. Das Design der Bewertungsfunktion ist eine schöpferische Tätigkeit: Die sachgerechte Gewichtung der verschiedenen Eigenschaften bestimmt maßgeblich das Gelingen des Verfahrens. Der vornehmlich in Java implementierte, vollautomatisierte Web-Dienst HomePageSearch (hpsearch.uni-trier.de) führt regelmäßig für über 100.000 Namen diesen Suchvorgang durch. Der Benutzer kann auf das in einer DB2-Datenbank gespeicherte Ergebnis zurückgreifen. Durch die periodische Neuberechnung des thematisch spezialisierten Wissens wird der Dynamik des Webs Rechnung getragen. Der modulare und stark parametrisierte Aufbau des Systems erleichtert die Portierung des Verfahrens auf andere Mengen von Web-Dokumenten. Nicht zuletzt aufgrund der starken Verlinkung mit DBLP und ResearchIndex wird HomePageSearch von vielen Wissenschaftlern intensiv genutzt.
Hardware bugs can be extremely expensive, financially. Because microprocessors and integrated circuits have become omnipresent in our daily live and also because of their continously growing complexity, research is driven towards methods and tools that are supposed to provide higher reliability of hardware designs and their implementations. Over the last decade Ordered Binary Decision Diagrams (OBDDs) have been well proven to serve as a data structure for the representation of combinatorial or sequential circuits. Their conciseness and their efficient algorithmic properties are responsible for their huge success in formal verification. But, due to Shannon's counting argument, OBDDs can not always guarantee the concise representation of a given design. In this thesis, Parity Ordered Binary Decision Diagrams are presented, which are a true extension of OBDDs. In addition to the regular branching nodes of an OBDD, functional nodes representing a parity operation are integrated into the data structure, thus resulting in Parity-OBDDs. Parity-OBDDs are more powerful than OBDDs are, but, they are no longer a canonical representation. Besides theoretical aspects of Parity-OBDDs, algorithms for their efficient manipulation are the main focus of this thesis. Furthermore, an analysis on the factors that influence the Parity-OBDD representation size gives way for the development of heuristic algorithms for their minimization. The results of these analyses as well as the efficiency of the data structure are also supported by experiments. Finally, the algorithmic concept of Parity-OBDDs is extended to Mod-p-Decision Diagrams (Mod-p-DDs) for the representation of functions that are defined over an arbitrary finite domain.
Mobile computing poses different requirements on middleware than more traditional desktop systems interconnected by fixed networks. Not only the characteristics of mobile network technologies as for example lower bandwidth and unreliability demand for customized support. Moreover, the devices employed in mobile settings usually are less powerful than their desktop counterparts. Slow processors, a fairly limited amount of memory, and smaller displays are typical properties of mobile equipment, again requiring special treatment. Furthermore, user mobility results in additional requirements on appropriate middleware support. As opposed to the quite static environments dominating the world of desktop computing, dynamic aspects gain more importance. Suitable strategies and techniques for exploring the environment e.g. in order to discover services available locally are only one example. Managing resources in a fault-tolerant manner, reducing the impact ill-behaved clients have on system stability define yet another exemplary prerequisite. Most state of the art middleware has been designed for use in the realm of static, resource rich environments and hence is not immediately applicable in mobile settings as set forth above. The work described throughout this thesis aims at investigating the suitability of different middleware technologies with regard to application design, development, and deployment in the context of mobile networks. Mostly based upon prototypes, shortcomings of those technologies are identified and possible solutions are proposed and evaluated where appropriate. Besides tailoring middleware to specific communication and device characteristics, the cellular structure of current mobile networks may and shall be exploited in favor of more scalable and robust systems. Hence, an additional topic considered within this thesis is to point out and investigate suitable approaches permitting to benefit from such cellular infrastructures. In particular, a system architecture for the development of applications in the context of mobile networks will be proposed. An evaluation of this architecture employing mobile agents as flexible, network-side representatives for mobile terminals is performed, again based upon a prototype application. In summary, this thesis aims at providing several complementary approaches regarding middleware support tailored for mobile, cellular networks, a field considered to be of rising importance in a world where mobile communication and particularly data services emerge rapidly, augmenting the globally interconnecting, wired Internet.
Today, usage of complex circuit designs in computers, in multimedia applications and communication devices is widespread and still increasing. At the same time, due to Moore's Law we do not expect to see an end in the growth of the complexity of digital circuits. The decreasing ability of common validation techniques -- like simulation -- to assure correctness of a circuit design enlarges the need for formal verification techniques. Formal verification delivers a mathematical proof that a given implementation of a design fulfills its specification. One of the basic and during the last years widely used data structure in formal verification are the so called Ordered Binary Decision Diagrams (OBDDs) introduced by R. Bryant in 1986. The topic of this thesis is integration of structural high-level information in the OBDD-based formal verification of sequential systems. This work consist of three major parts, covering different layers of formal verification applications: At the application layer, an assertion checking methodology, integrated in the verification flow of the high-level design and verification tool Protocol Compiler is presented. At the algorithmic layer, new approaches for partitioning of transition relations of complex finite state machines, that significantly improve the performance of OBDD-based sequential verification are introduced. Finally, at the data structure level, dynamic variable reordering techniques that drastically reduce the time required for reordering without a trade-off in OBDD-size are described. Overall, this work demonstrates how a tighter integration of applications by using structural information can significantly improve the efficiency of formal verification applications in an industrial setting.