Filtern
Erscheinungsjahr
- 2013 (47) (entfernen)
Dokumenttyp
- Dissertation (35)
- Buch (Monographie) (5)
- Sonstiges (4)
- Wissenschaftlicher Artikel (2)
- Arbeitspapier (1)
Sprache
- Deutsch (27)
- Englisch (16)
- Mehrsprachig (3)
- Französisch (1)
Volltext vorhanden
- ja (47) (entfernen)
Schlagworte
- Europäische Union (4)
- Kirche (4)
- Law of the European Union (4)
- Optimierung (4)
- Recht der Europäischen Union (4)
- Religion (4)
- Religionsgemeinschaft (4)
- Religionsgemeinschaften (4)
- Religionsrecht (4)
- Stress (4)
Institut
- Raum- und Umweltwissenschaften (11)
- Mathematik (8)
- Rechtswissenschaft (8)
- Psychologie (5)
- Soziologie (3)
- Wirtschaftswissenschaften (3)
- Geschichte, mittlere und neuere (2)
- Kunstgeschichte (2)
- Germanistik (1)
- Japanologie (1)
In this thesis, global surrogate models for responses of expensive simulations are investigated. Computational fluid dynamics (CFD) have become an indispensable tool in the aircraft industry. But simulations of realistic aircraft configurations remain challenging and computationally expensive despite the sustained advances in computing power. With the demand for numerous simulations to describe the behavior of an output quantity over a design space, the need for surrogate models arises. They are easy to evaluate and approximate quantities of interest of a computer code. Only a few number of evaluations of the simulation are stored for determining the behavior of the response over a whole range of the input parameter domain. The Kriging method is capable of interpolating highly nonlinear, deterministic functions based on scattered datasets. Using correlation functions, distinct sensitivities of the response with respect to the input parameters can be considered automatically. Kriging can be extended to incorporate not only evaluations of the simulation, but also gradient information, which is called gradient-enhanced Kriging. Adaptive sampling strategies can generate more efficient surrogate models. Contrary to traditional one-stage approaches, the surrogate model is built step-by-step. In every stage of an adaptive process, the current surrogate is assessed in order to determine new sample locations, where the response is evaluated and the new samples are added to the existing set of samples. In this way, the sampling strategy learns about the behavior of the response and a problem-specific design is generated. Critical regions of the input parameter space are identified automatically and sampled more densely for reproducing the response's behavior correctly. The number of required expensive simulations is decreased considerably. All these approaches treat the response itself more or less as an unknown output of a black-box. A new approach is motivated by the assumption that for a predefined problem class, the behavior of the response is not arbitrary, but rather related to other instances of the mutual problem class. In CFD, for example, responses of aerodynamic coefficients share structural similarities for different airfoil geometries. The goal is to identify the similarities in a database of responses via principal component analysis and to use them for a generic surrogate model. Characteristic structures of the problem class can be used for increasing the approximation quality in new test cases. Traditional approaches still require a large number of response evaluations, in order to achieve a globally high approximation quality. Validating the generic surrogate model for industrial relevant test cases shows that they generate efficient surrogates, which are more accurate than common interpolations. Thus practical, i.e. affordable surrogates are possible already for moderate sample sizes. So far, interpolation problems were regarded as separate problems. The new approach uses the structural similarities of a mutual problem class innovatively for surrogate modeling. Concepts from response surface methods, variable-fidelity modeling, design of experiments, image registration and statistical shape analysis are connected in an interdisciplinary way. Generic surrogate modeling is not restricted to aerodynamic simulation. It can be applied, whenever expensive simulations can be assigned to a larger problem class, in which structural similarities are expected.
Religion, churches and religious communities have growing importance in the Law of the European Union. Since long a distinct law on religion of the European Union is developing. This collection of those norms of European Union Law directly concerning religion mirrors today's status of this dynamic process.
Das Recht der Europäischen Union erfasst Religion, Kirchen und Religionsgemeinschaften in zunehmendem Maße. Längst hat sich ein eigenes und eigenständiges Religionsrecht der Europäischen Union entwickelt, ein europäisches Religionsrecht im Werden. Die Sammlung der unmittelbar einschlägigen Normen dieses europäischen Religionsrecht spiegelt den gegenwärtigen Stand eines dynamischen Prozesses.
Le droit de l'Union européenne réglemente de manière croissante les domaines de la religion, des Églises et des Cultes. Il s'est développé depuis bien longtemps un droit de la religion de l'Union européenne distinct et autonome, un droit européen de la religion en devenir. Ce recueil de dispositions réglementant directement cette matière en droit européen de la religion est le reflet de la situation actuelle d'une évolution dynamique.
Il diritto dell"Unione Europea concerne in misura sempre crescente la religione, le chiese e le associazioni religiose. Da molto si è formato un diritto della religione dell"Unione Europea proprio e autonomo, un diritto della religione in evoluzione. La raccolta delle disposizioni che si riferiscono direttamente a questo diritto della religione europeo dimostra lo stato attuale di un processo dinamico.
In a paper of 1996 the british mathematician Graham R. Allan posed the question, whether the product of two stable elements is again stable. Here stability describes the solvability of a certain infinite system of equations. Using a method from the theory of homological algebra, it is proved that in the case of topological algebras with multiplicative webs, and thus in all common locally convex topological algebras that occur in standard analysis, the answer of Allan's question is affirmative.
In der Welt existieren zahlreiche Institutionen zur Verteidigung der Menschenrechte. Besonderes Interesse verdient dabei eine relativ neue Möglichkeit zur Wahrung dieser Rechte " das Amt des Bürgerbeauftragten. In Bulgarien sind die ersten derartigen Institutionen 1998 als Projekt auf Gemeindeebene ins Leben gerufen worden. Seit 2003 sind die Institutionen eines Ombudsmanns auf nationaler Ebene sowie eines gesellschaftlichen Vermittlers auf Gemeindeebene gesetzlich geregelt. Die wesentliche Aufgabe der Bürgerbeauftragten ist die Annahme von Bürgerbeschwerden über Verletzungen ihrer Rechte durch die Staats- oder Gemeindeverwaltung. Der Bürgerbeauftragte in Bulgarien stellt eine demokratische Garantie zur Wahrung der Menschenrechte sowie zur weiteren Entwicklung des Rechtsstaates dar.
Im Zentrum der Dissertation steht der in Augsburg geborene Maler Joseph Heintz d.J. (1600-1678), der Anfang der 1620er Jahre nach Venedig auswanderte, wo er über fünfzig Jahre bis zu seinem Tod lebte und arbeitete, und zum Hauptvertreter der venezianischen Festmalerei des 17. Jahrhunderts avancierte. Der erste Teil widmet sich der Rekonstruktion der bisher nahezu unbekannten Biographie Joseph Heintz' d.J., sowie seines Kunden- und Auftraggeberkreises, und somit der sozialen Verortung des Künstlers in Venedig. Im zweiten Teil erfolgt die Analyse der Festmalerei Joseph Heintz' d.J. unter besonderer Berücksichtigung der venezianischen Festkultur als Manifestation der Staatsidentität. Heintz d.J. stellte in seinen Gemälden festliche Prozessionen und die Investiturzeremonien des Dogen ebenso dar wie weltliche Spektakel und volkstümliche Wettkämpfe. Durch die quellenbasierte Recherche, sowie die Kontextualisierung der Festgemälde, konnte eine Neubewertung Joseph Heintz" d.J. als bedeutender, gut vernetzter Künstler erfolgen, dessen Werke einen nicht zu unterschätzenden Einfluss auf die venezianischen Vedutisten des 18. Jahrhunderts hatten.
Die Arbeit thematisiert die Weiterentwicklung des touristischen Angebots der Deutschen Bahn, das derzeit über den Reiseveranstaltervertrieb am Markt platziert wird. Kunden, die im Reisebüro oder Internet eine Städtereise über ihren Veranstalter buchen, erhalten mit dem RIT (Rail Inclusive Tours)-Angebot ein spezielles Kooperationsticket für ihre Zugfahrt. Im ersten Abschnitt der Arbeit wird zunächst auf die Besonderheiten des Dienstleistungsbereichs inklusive Auswirkungen auf die Angebotsgestaltung von Unternehmen eingegangen. In diesem Zusammenhang werden Hintergründe von Kundenzufriedenheit und Kundenbindung skizziert sowie deren Wechselwirkungen dargestellt. Über die Einordnung der Deutschen Bahn als Dienstleistungsunternehmen im Schienenpersonenfernverkehr wird deren Positionierung im zunehmenden Wettbewerbsmarkt in einer Umfeldanalyse erarbeitet und die Bedeutsamkeit für den Unternehmenserfolg aufgezeigt. Der praktische Teil der Arbeit befasst sich mit den Befragungsergebnissen von Bestandskunden in der fokussierten Zielgruppe der Städtereisenden. Neben der Analyse von Nutzerstruktur, Reisegewohnheiten und alternativer Verkehrsmittelwahl, werden Kundenzufriedenheiten und Wichtigkeiten einzelner Leistungsbestandteile der Bahnreise näher betrachtet. Durch die Identifizierung von Kundensegmenten lassen sich Ansatzpunkte für die Weiterentwicklung des Angebots ableiten, die eine Attraktivitätssteigerung der Bahnfahrt herbeiführen und die Kundenzufriedenheit nachhaltig erhöhen können. Einbindung von Essensgutscheinen, das Angebot von Kuriergepäck oder die Integration des City-Tickets sind denkbare, nutzensteigernde Maßnahmen für die Anreisealternative Bahnfahrt. Weiterer Forschungsbedarf für die betrachtete Zielgruppe besteht in der Erfassung von Hinderungsgründen für eine bevorzugte Bahnwahl in der Verkehrsmittelentscheidung. Darüber hinaus ist das Potenzial für eine Einbindung solcher Services zu erfassen, die sich auf Seiten der Reiseveranstalter in ein Leistungspaket integrieren lassen, um weitere Indikatoren zur Attraktivitätssteigerung der Bahnfahrt ableiten zu können. Zusammenfassend stellt die Arbeit eine Analyse der skizzierten Zielgruppe der Städtereisenden der Deutschen Bahn über den Veranstaltervertrieb dar und liefert einen Beitrag, der die Ableitung einiger relevanter Handlungsempfehlungen erlaubt. Denn nur durch attraktive Angebote und die Erzielung einer hohen Kundenzufriedenheit kann sich die Bahn als bevorzugtes Transportmittel behaupten und neue Kunden für die Zugfahrt begeistern.
This study examines the relationship between media content, its production, and its reception in Japanese popular culture with the example of the so-called yuri ("lily") genre that centers on representations of intimate relationships between female characters. Based on contemporary genre theory, which posits that genres are not inherent properties of texts, the central question of this study is how the yuri genre is discursively produced in Japan. To examine this question, the study takes a variety of sources into consideration: Firstly, it discusses ten exemplary texts from the 1910s to 2010s that in the Japanese discourse on the yuri genre are deemed the milestone texts of the yuri genre's historical development (Hana monogatari, Otome no minato, Secret Love, Shiroi heya no futari, BishÅjo senshi Sailor Moon, Maria-sama ga miteru, ShÅjo Sect, Aoi hana, Yuru yuri, and Yuri danshi). Secondly, interviews with ten editors working for Japanese manga magazines shed light on their assessment of the yuri genre. Finally, the results of an online survey among Japanese fans of the yuri genre, which returned 1,352 completed questionnaires, question hitherto assumptions about the fans and their reasons for liking the yuri genre. The central argument of this study is that the yuri genre is for the most part constructed not through assignments on part of the genre's producers but through interpretations on part of the genre's fans. The intimacy portrayed in the texts ranges from "friendship" to "love," and often the ideas of "innocence" and "beauty" are emphasized. Nevertheless, the formation of the yuri genre occurs outside the bounds of the texts, most importantly in fan works, i.e. derivative texts created by fans. The actual content of the originals merely serves as a starting point for these interpretations. Located at the intersection of Japanese studies, cultural studies, media studies, and sociology, this study contributes to our understanding of contemporary Japanese popular culture by showing the mutual dependencies between media content, production, and reception. It provides a deeper look at these processes through first-hand accounts of both producers and fans of the yuri genre.
The Hadamard product of two holomorphic functions which is defined via a convolution integral constitutes a generalization of the Hadamard product of two power series which is obtained by pointwise multiplying their coefficients. Based on the integral representation mentioned above, an associative law for this convolution is shown. The main purpose of this thesis is the examination of the linear and continuous Hadamard convolution operators. These operators map between spaces of holomorphic functions and send - with a fixed function phi - a function f to the convolution of phi and f. The transposed operator is computed and turns out to be a Hadamard convolution operator, too, mapping between spaces of germs of holomorphic functions. The kernel of Hadamard convolution operators is investigated and necessary and sufficient conditions for those operators to be injective or to have dense range are given. In case that the domain of holomorphy of the function phi allows a Mellin transform of phi, certain (generalized) monomials are identified as eigenfunctions of the corresponding operator. By means of this result and some extract of the theory of growth of entire functions, further propositions concerning the injectivity, the denseness of the range or the surjectivity of Hadamard convolution operators are shown. The relationship between Hadamard convolution operators, operators which are defined via the convolution with an analytic functional and differential operators of infinite order is investigated and the results which are obtained in the thesis are put into the research context. The thesis ends with an application of the results to the approximation of holomorphic functions by lacunary polynomials. On the one hand, the question under which conditions lacunary polynomials are dense in the space of all holomorphic functions is investigated and on the other hand, the rate of approximation is considered. In this context, a result corresponding to the Bernstein-Walsh theorem is formulated.
Der Aufbau einer Klassifikation von Einzugsgebieten (EZG) auf Basis des Abflussverhaltens und der Gebietseigenschaften sowie die Regionalisierung von Abflussparametern sind Kernthemen der Hydrologie. Die Ziele dieser Arbeit sind der Aufbau einer Klassifikation für EZGs mit hoher räumlicher Auflösung nach dem Abflussverhalten und der Gebietseigenschaften, die Identifikation abflussrelevanter, physiogeografischer und klimatischer Gebietseigenschaften und die Regionalisierung von Abflussverhalten und Modellparametern auf Basis von Klassifikationen. Dabei wird untersucht, ob sich 53 häufig benachbarte und z.T. ineinander geschachtelte Einzugsgebiete in Rheinland-Pfalz für eine Klassifikation eignen und wie das Abflussverhalten für die Beurteilung von Ähnlichkeiten beschrieben werden kann. Das Abflussverhalten der EZGs wird mit einer großen Anzahl von Ereignis-Abflussbeiwerten je EZG und Abflussdauerlinien (Flow-Duration Curves) der EZGs beschrieben, die das Abflussverhalten umfassend und mit einer ausreichenden Trennschärfe abbilden. Gebietseigenschaften, die das Abflussgeschehen dieser EZG dominieren, sind langjährige, mittlere Niederschlagssummen, die mittlere potentielle Verdunstung, die Topografie und die Speichermöglichkeiten im EZG. Für den Aufbau und die Anwendung der EZG-Klassifikationen wird ein hierfür entwickeltes Verfahren eingesetzt, dass auf Selbstorganisierenden Merkmalskarten (Self-Organizing Maps, SOM) basiert. Vorteile dieses Verfahrens gegenüber vielen konventionellen Verfahren sind Qualitätsmaße, die datenbasierte Bestimmung wichtiger Parameter, aussagestarke Visualisierungen der Ergebnisse und die Klassifikation und Regionalisierung mit einer Methode. Die Auswertung von zwei separaten Klassifikationen, nach dem Abflussverhalten und nach den physiogeografischen und klimatischen Gebietseigenschaften, stellen einen direkten Zusammenhang zwischen Abfluss- und Gebietseigenschaften her. Der Überschneidungsbereich der beiden Klassifikationen ist die Grundlage für die Übertragung von Abflussinformationen auf unbeobachtete Gebiete (Regionalisierung). Die Ergebnisse zeigen, dass die Methode der Clusteranalyse, Klassifikation und Regionalisierung mit SOM und den genannten Abfluss- und Gebietskennwerten geeignet ist, EZGs mit einer hohen räumlichen Auflösung treffend und detailliert zu klassifizieren sowie Abflussparameter zu regionalisieren.
Handeln in der Organisation Schule - Eine Fallstudie zur Selbstgestaltung der Realschule plus unter Einbezug politischer Rahmenbedingungen. Die in der rheinland-pfälzischen Schulstrukturreform von 2008 festgelegte Einführung der Realschule plus und damit verbundene schulische Fusionierungsprozesse wurden in der vorliegenden Dissertation mittels eines qualitativen Methodenmixes fallanalytisch untersucht. Im Zentrum stand dabei zum einen die Beleuchtung der schulischen Binnenstruktur, zum anderen wurde der Frage nachgegangen, welche Handlungsspielräume bzw. Entwicklungsstrategien zur individuellen Selbstgestaltung die einzelne Schule für sich erarbeiten kann. Forschungsleitend ist dabei der Befund aus schulübergreifenden Untersuchungen der "Agentur für Qualitätssicherung, Evaluation und Selbstständigkeit von Schulen" (AQS) gewesen, der besagt, dass sich unterschiedliche Schularten insgesamt nur wenig voneinander unterscheiden, jedoch die Differenzen zwischen einzelnen Schulen eine ausgedehnte Vielfalt aufweisen und im Kontext einzelschulischer Qualitätsentwicklung eine Fülle unterschiedlicher Merkmale und Handlungsstrategien offenbaren. Zur Operationalisierung sind dementsprechend folgende Forschungsfragen formuliert worden: Inwieweit gelingt es politische Rahmenbedingungen zum Schultyp der Realschule plus umzusetzen? Wie wird schulische Selbstverwaltung als Programmatik von Schulentwicklung verstanden? Welche Handlungsmuster und -strategien der Beteiligten können in diesem Zusammenhang herausgearbeitet werden? Abschließend wurde der Versuch unternommen, Handlungsempfehlungen aus den wichtigsten Ergebnissen der Arbeit abzuleiten, die aus Sicht der Verfasserin eine Relevanz für einen möglichst positiven Vollzug der gegenwärtigen Reformbemühungen besitzen.
Die Frage, wie die Lesekompetenz der Lernenden effizienter entwickelt werden kann, beschäftigt die Leseforschung im Bereich Chinesisch als Fremdsprache (ChaF) seit vielen Jahren. Bis heute werden dabei schriftstrukturelle Aspekte in den Vordergrund gestellt, so z. B. die Frage, wie den Lernenden der Aufbau der Schriftzeichen systematisch näher gebracht werden kann oder auch korpusrelevante Ansätze, die in Sammlungen hochfrequenter Schriftzeichen und Wörter ihren Niederschlag finden. So sinnvoll diese Herangehensweisen beispielsweise für die Entwicklung von Lehrwerken sind, so bleibt doch festzuhalten, dass die Wortebene (Wortschatzkenntnis und Worterkennung), die den Befunden der L1- und L2-Leseforschung zufolge der Schlüssel für das Verstehen von Texten ist, bis heute sowohl in der lesedidaktischen Diskussion als auch in den Lehrwerken stark vernachlässigt wird. In den letzten zwanzig Jahren ist von Seiten der ChaF-Leseforschung, insbesondere in den USA und in China, eine Reihe von psycholinguistischen Studien zur Entwicklung der Lesekompetenz, der Worterkennung und von Wortschatzkenntnissen sowie zur Beziehung dieser Kompetenz- und Wissensbereiche publiziert worden. Auch der Leseprozess geübter L1-Leser ist inzwischen gut erforscht. Allerdings lassen sich aus den Ergebnissen einzelner psycholinguistischer Studien, in denen unter Anwendung unterschiedlicher Forschungsparadigmen bestimmte Subprozesse des Lesens untersucht werden, nicht direkt Schlussfolgerungen für die nach kohärenten Erklärungen des Leseprozesses verlangende Lesedidaktik ziehen. Für die Entwicklung eines evidenzbasierten Ansatzes zur wortschatzzentrierten Lesevermittlung in ChaF wurde daher in der vorliegenden interdisziplinären Studie die gesamte relevante empirische Evidenz zum Lesen und zur Wortverarbeitung in ChaF kritisch im Rahmen konsensfähiger Theorien zur Sprachverarbeitung analysiert. Ergebnis dieser Analyse war, dass " ebenso wie in anderen Fremdsprachen auch " umfassende und gut vernetzte Wortschatzkenntnisse sowie eine automatisierte Worterkennung, die den zuverlässigen Abruf phonologischer Informationen mit einschließt, Grundvoraussetzungen für das fließende Lesen chinesischer Texte sind. Gleichzeitig verdeutlichen die empirischen Befunde auch, dass der Erwerb vertiefter Wortschatzkenntnisse aufgrund der sprachlichen Distanz des Chinesischen für westliche ChaF-Lernende eine große Herausforderung darstellt. Auch die Entwicklung der Worterkennung ist aufgrund der phonologischen Intransparenz der chinesischen Schrift und auch weil beim Lesen eine zusätzliche Wortsegmentierung vorgenommen werden muss, mit großen Schwierigkeiten verbunden. Im letzten Kapitel der Dissertation werden Empfehlungen für eine wortschatzzentrierte Lesedidaktik formuliert, die Ansätze aus der evidenzbasierten westlichen L2-Lesedidaktik mit der traditionellen Methode des lauten Lesens verbindet und die den Lernenden gleichzeitig die Möglichkeit bietet, im Rahmen inhaltsbezogener rezeptiver, reflexiver und produktiver Übungen aktiv mit chinesischen Wörtern umzugehen und deren Verwendung wiederholt einzuüben.
Bei synthetischen Simulationsgesamtheiten handelt es sich um künstlichernDaten, die zur Nachbildung von realen Phänomenen in Simulationen verwendetrnwerden. In der vorliegenden Arbeit werden Anforderungen und Methoden zur Erzeugung dieser Daten vorgestellt. Anhand von drei Beispielen wird gezeigt, wie erzeugte synthetische Daten in einer Simulation zur Anwendung kommen.
Die Notwendigkeit einer ökologischen Aufwertung kleiner urbaner Gewässer und damit einer effektiven Siedlungswasserwirtschaft ist in den Fokus gerückt und wurde zum Bestandteil der Wasserrahmenrichtlinie ( 2000/60/EG). Die Zunahme von Regenwassermanagementsystemen und die Renaturierung kanalisierter Gewässerabschnitte führt zu einer Integration von Flüssen und Bächen in das städtische Umfeld. Diese Arbeit fokussiert die zeitlich hochaufgelöste Analyse des Stofftransports während Abflussereignissen in mesoskaligen Einzugsgebieten. Es wird untersucht, ob die Landnutzung und die Entwässerungssysteme von Siedlungsflächen, die Abflusssdynamik und die Stoffkonzentrationen beeinflussen. Beleuchtet wird, inwieweit naturnahe Regenwassermanagementsysteme in Siedlungsgebieten den natürlichen Wasserhaushalt erhalten und eine Gewässerbelastung reduzieren. Untersucht werden die Schadstoffdynamiken und -frachten dreier verschiedener Einzugsgebiete, ähnlich hinsichtlich Einzugsgebietsgröße, Topographie und klimatischen Bedingungen, aber unterschiedlich in Landnutzung und Entwässerungssystemen. Darüber hinaus wird der Einfluss der Ableitungsart des Regenwassers aus den Siedlungsgebieten auf die Abflussdynamik und die Schadstoffverlagerung auf unterschiedlichen Skalen untersucht. Abflussganglinien und Chemographen aller Gewässer zeigen große Schwankungen während und zwischen Hochwasserereignissen. Kurzfristige Konzentrationen sind sehr hoch und können nur mittels zeitlich hochaufgelöster Beprobung bestimmt werden. Frachten und mittlere Ereigniskonzentrationen weisen eine hohe Variabilität in Abhängigkeit von vorangehenden hydro-klimatischen Bedingungen auf. Erhöhte Schadstoffkonzentrationen treten in einem ländlich geprägten Einzugsgebiet in Verbindung mit Regenfällen durch Remobilisierung von Schadstoffen aus der Kanalisation auf. In einem städtisch geprägten Vorfluter sind Schadstoffbelastungen mit dem Basisabfluss aufgrund sanitärer Fehlanschlüsse und Kläranlageneinleitungen das ganze Jahr über bedeutsam. Ein biologischer Test zur Bestimmung östrogener Aktivität zeigt, dass die Toxizität von der Kläranlagentechnologie und deren Elimination östrogener Wirkstoffe abhängt. Saisonale Effekte, durch steigende östrogene Aktivität im Sommer und abnehmende Aktivität im Winter aufgrund der Verdünnung durch Boden- und Grundwasser, konnten beobachtet werden. Dezentrale Regenrückhalte führen zum Erhalt des quasi-natürlichen Wasserhaushaltes und zur Dämpfung von Abflussspitzen im Vorfluter. Die Beprobung der Zuläufe und des Ablaufes einer Retentionsfläche zeigt die Reduktion der Maximalkonzentrationen sowie der jährlichen Frachten von Xenobiotika. Mit zunehmender Einzugsgebietsgröße nimmt die Anzahl und Diversität der Entwässerungssysteme zu. Die Skalenabhängigkeit der Gewässerbelastung ergibt sich aus dem Vorhandensein und Zusammenwirken von Misch- und Trennkanalisationen, sowie Regenwassermanagementsysteme, und Kläranlageneinläufen. Vor allem Mischwasserkanalüberläufe führen zu einer hydraulischen Belastung sowie zu hohen Momentankonzentrationen der Xenobiotika. Regenwassermanagementsysteme tragen zu einer deutlichen Reduktion der chemischen und hydraulischen Belastung des Gewässers bei. Dies führt zu einer Entlastung der Vorfluter und zu einem besseren ökologischen Zustand, wie durch die Wasserrahmenrichtlinie gefordert.
In der Forschung zur aktuellen Prozessdynamik der Bodenerosion sind Niederschlagssimulationen mit kleinen mobilen Beregnungsanlagen (KBA) ein unverzichtbarer Bestandteil. Weltweit werden sehr viele KBA unterschiedlicher Bauart, Plotgrößen, Tropfenerzeugung, Niederschlagsintensitäten, und -spektren eingesetzt. Eine Standardisierung der Anlagen ist aufgrund der Verschiedenheit der Forschungsfelder und -fragen nicht in Sicht. Darüber hinaus sind die erzeugten Niederschläge (Nd) der Anlagen unzureichend genau charakterisiert und es liegt keine einheitliche Datenbasis aller relevanten Parameter vor. Zudem werden mit KBA bisher ausschließlich Starkregen unter windstillen Bedingungen simuliert, obwohl Wind einen deutlichen Einfluss auf fallende Regentropfen ausübt. Die vorliegende Arbeit gliedert sich in drei Teile: (1) Weiterentwicklung und Anwendung von KBA: Wie lässt sich die Performance der Trierer KBA optimieren und eine einheitliche Mess- und Kalibrierungsmethode für den simulierten Niederschlag definieren? Welche Anforderungen, Möglichkeiten, Grenzen und Anwendungsbereiche gibt es? (2) Vergleich verschiedener Typen von KBA im Gelände: Inwieweit sind Nd-Charakteristika, Oberflächen-¬abflussgenerierungen und Bodenabträge europäischer KBA vergleichbar? (3) Implemen-¬tierung von windbeschleunigtem Regen in KBA mit dem neuen mobilen Trierer Windregenkanal (WiReKa): Wie kann Wind in ein KBA-Setting integriert werden? Wie sind Unterschiede von Erosionsraten mit und ohne Windeinfluss in-situ zu quantifizieren und wie hoch fallen sie aus? Im ersten Teil der Arbeit wurde zunächst die Nd-Charakteristik der langjährig von der Physischen Geographie eingesetzten KBA mit unterschiedlichen, weltweit angewandten Messmethoden untersucht. Dabei zeigten sich einige Schwächen der KBA bezüglich ihrer Funktionalität. Der Einsatz verschiedener Mess-¬methoden zur Charakterisierung des künstlich erzeugten Nd führte zu sehr unterschiedlichen Ergebnissen. Mittels Laser-Niederschlags-Monitor (LNM) und Nd-Sammlern wurde daher ein einheitliches Testverfahren entwickelt, das eine detaillierte Aufnahme, Auswertung und Darstellung der relevanten Nd-Parameter nahezu aller KBA-Designs ermöglicht. Mit Hilfe dieses Testverfahrens wurden Nd-Charakteristik, Funktionalität und Mobilität der Trierer KBA durch technische Veränderungen deutlich verbessert. Alle Parameter dieser Anlage sind nun bekannt und lassen sich zuverlässig reproduzieren. Die Anforderungen, Möglichkeiten und Grenzen des Einsatzes von KBA wurden detailliert erarbeitet und beschrieben. Auf dem "International Rainfall Simulator Workshop" in Trier konnte mit 40 Wissenschaftlern aus 11 Nationen Einigkeit über grundlegende Aspekte beim Bau und Einsatz von KBA erzielt werden. Der zweite Teil der Arbeit stellt die Arbeitsmethoden und Ergebnisse eines in internationaler Kooperation durchgeführten Projektes zu Messmethoden und Vergleichbarkeit von Simulatordesigns und Nd-Charakteristika unterschiedlicher europäischer KBA vor. An 13 Instituten in Deutschland, den Niederlanden, der Schweiz und Spanien wurde mit dem Trierer Testverfahren eine einheitliche Datenbasis aller wesentlichen Nd-Parameter erstellt. Im praktischen Teil des Rainfall Simulator Workshop in Trier wurden dann vergleichende Versuche mit sieben KBA auf einer universitätsnahen Versuchsfläche zur Oberflächenabflussgenerierung und zum Bodenabtrag durchgeführt. Vor allem die (maximale) Sedimentkonzentration einer Simulation hat sich dabei als gute Vergleichsgröße herausgestellt. Differenzen in den gemessenen Oberflachenabfluss- und Sedimentmengen sind ganz klar unterschiedlichen Nd zuzuordnen. Der zeitliche Ablauf des Oberflächenabfluss- und Erosionsverhalten differiert dagegen nur bei zunehmender Plotgröße. Im dritten Teil der Arbeit wird analysiert, wie windbeschleunigter Regen in einer KBA simuliert werden kann. Darüber hinaus wurde eine spezielle Testreihenfolge für die Erosionsmessungen entwickelt, deren Praktikabilität sich in der Anwendung bewährt hat. Es konnten stark erhöhte Abtragsraten aufgrund der Zuschaltung von Wind zu der Regensimulation auf kohäsionslosem sandigen Substrat quantifiziert werden. Das Dissertationsprojekt kann auf mehreren Ebenen als erfolgreich angesehen werden: Die Arbeit mit den Trierer KBA konnte qualitativ verbessert werden insofern, als die Anlagenparameter optimiert und die Güte der produzierten Daten gewährleistet werden konnte. Darüber hinaus konnten die gewonnenen Erkenntnisse durch eine gezielte internationale Vernetzung in Wert gesetzt und die Zusammenarbeit auf der operationalen Ebene gestärkt werden.
Spätestens seit dem Start ihrer zweiten Filmserie im Spätsommer 1912 war die dänische Schauspielerin Asta Nielsen ein gefeierter Filmstar. Auch in Prag hatte sich Asta Nielsen zu dieser Zeit mit ihren Langspielfilmen bereits ein beträchtliches Maß an Bekannt- und Beliebtheit "erspielt", welches die örtlichen Kinobetreiber werbestrategisch nutzten. Anhand der Werbeannoncen für die Asta-Nielsen-Filme, welche die Prager Kinobetreiber während der Kinosaisons 1910/1911 und 1911/1912 im Prager Tagblatt schalteten, zeichnet diese Arbeit nach, wie die anfangs unbekannte Schauspielerin Asta Nielsen in Prag allmählich zum Filmstar aufgebaut und etabliert wurde.rnAls Werbeträger rückt der Name der Hauptdarstellerin zunehmend in den Fokus dieser lokalen Kinoannoncen. In den ersten Werbeanzeigen für Filme mit Asta Nielsen in der Hauptrolle wird er nicht oder nur im Kleingedruckten erwähnt. Spätestens seit dem Start ihrer ersten Filmserie in Prag zur Saison 1911/1912 fungiert "Asta Nielsen" durchgehend als fettgedruckter Blickfänger. Ihr Name verdrängt und ersetzt andere, anfangs noch als Sensationen beworbene Attribute der Asta-Nielsen-Filme wie die lange Vorführungsdauer, das alleinige Aufführungsrecht oder den Autor und Regisseur Urban Gad. Die auf den Star zentrierte Werbestrategie gipfelt darin, dass einzelne Voranzeigen gänzlich auf den Filmtitel verzichten. Sie werben nicht mehr in erster Linie für den Film, sondern für den Auftritt des Filmstars. Sie werben für eine Erfolg versprechende Marke - Asta Nielsen.rn
Die in einem Einzugsgebiet herrschende räumliche Inhomogenität wird im Wasserhaushaltsmodell LARSIM (Large Area Runoff Simulation Modell) in den einzelnen Modellkomponenten unterschiedlich stark berücksichtigt. Insbesondere die räumliche Verteilung der Abflussprozesse wurde bisher nicht berücksichtigt, weil keine flächenhaft verfügbare Information über eben diese Verteilung vorlag. Für das Einzugsgebiet der Nahe liegt nun seit dem Jahr 2007 eine Bodenhydrologische Karte vor, die flächenhaft den bei ausreichenden Niederschlägen zu erwartenden Abflussprozess ausweist. In der vorliegenden Dissertation wird die Nutzung dieser Prozessinformation bei der Parametrisierung des Bodenmoduls von LARSIM beschrieben: Für drei Prozessgruppen " gesättigter Oberflächenabfluss, Abfluss im Boden, Tiefenversickerung " werden mittels zweier neuer Parameter P_Bilanz und P_Dämpfung inhomogene Parametersätze aus empirisch ermittelten Kennfeldern gewählt, um die Prozessinformation bei der Abflussbildung im Modell zu berücksichtigen. Für die Abbildung der Prozessintensitäten in den Gebietsspeichern werden zwei unterschiedliche Ansätze vorgestellt, die sich in ihrer Komplexität unterscheiden. In der ersten Variante werden fünf Oberflächenabflussspeicher für unterschiedlich schnell reagierende Prozessgruppen eingeführt, in der zweiten Variante wird der erste Ansatz mit dem ursprünglichen Schwellenwert zur Aufteilung in schnelle und langsame Oberflächenabflusskomponenten kombiniert. Es wird gezeigt, dass die Parametrisierung mit den beiden neuen Parametern P_Bilanz und P_Dämpfung einfacher, effektiver und effizienter ist, da beide Parameter minimale Interaktionen aufweisen und in ihrer Wirkungsweise leicht verständlich sind, was auf die ursprünglichen Bodenparameter nicht zutrifft. Es wird ein Arbeitsfluss vorgestellt, in dem die neuen Parameter in Kombination mit Signature Measures und unterschiedlichen Darstellungen der Abflussdauerlinie gemeinsam genutzt werden können, um in wenigen Arbeitsschritten eine Anpassung des Modells in neuen Einzugsgebieten vorzunehmen. Die Methode wurde durch Anwendung in drei Gebieten validiert. In den drei Gebieten konnte in wenigen Kalibrierungsschritten die Simulationsgüte der ursprünglichen Version erreicht und " je nach Zielsetzung " übertroffen werden. Hinsichtlich der Gütemaße zeigte sich bei der Variante, in der die Gebietsspeicher nicht modifiziert wurden, aber kein eindeutiges Bild, ob die ursprüngliche Parametrisierung oder die neue grundsätzlich überlegen ist. Neben der Auswertung der Validierungszeiträume wurden dabei auch die simulierten Ganglinien in geschachtelten Gebieten betrachtet. Die Version, in der die Gebietsspeicher modifiziert wurden, zeigt hingegen vor allem im Validierungszeitraum tendenziell bessere Simulationsergebnisse. Hinsichtlich der Abbildung der Abflussprozesse ist das neue Verfahren dem alten deutlich überlegen: Es resultiert in plausiblen Anteilen von Abflusskomponenten, deren Verteilung und Abhängigkeit von Speicherkapazitäten, Landnutzungen und Eingangsdaten systematisch ausgewertet wurden. Es zeigte sich, dass vor allem die Speicherkapazität des Bodens einen signifikanten Einfluss hat, der aber im hydrologischen Sinn richtig und hinsichtlich der Modellannahmen plausibel ist. Es wird deutlich gemacht, dass die Einschränkungen, die sich ergeben haben, aufgrund der Modellannahmen zustande kommen, und dass ohne die Änderung dieser Annahmen keine bessere Abbildung möglich ist. Für die Zukunft werden Möglichkeiten aufgezeigt, wie die Annahmen modifiziert werden können, um eine bessere Abbildung zu erzielen, indem der bereits bestehende Infiltrationsansatz in die Methode integriert wird.
Preisvergleiche zwischen verschiedenen Regionen spielen in zahlreichen wirtschaftlichen und politischen Zusammenhängen eine wichtige Rolle. Unabhängig davon, ob es darum geht, die Wirtschaftskraft von Regionen oder Ländern gegenüber zu stellen, die Lebensverhältnisse innerhalb eines Landes zu vergleichen, oder aber die Wirkungsweise sozial- und lohnpolitischer Entscheidungen einzuschätzen: Interregionale Preisvergleiche dienen in erster Linie als Instrument, um gesamtwirtschaftliche und ökonomische Größen zwischen verschiedenen Regionen oder Ländern real vergleichbar zu machen. Interregionale Preisvergleiche sind allgemeinhin besser bekannt als sogenannte Kaufkraftparitäten. Die enorme Bedeutung von Kaufkraftparitäten wurde in der Vergangenheit lange unterschätzt. Insbesondere bei Preisvergleichen innerhalb eines Landes mangelt es oftmals an einer soliden Datenbasis, sodass verlässliche Schätzungen regionaler Preisniveauunterschiede häufig nicht möglich sind. Die vorliegende Arbeit zeigt allerdings, dass ein breites Angebot verschiedener multilateraler Aggregationsmethoden bereit. Im Mittelpunkt des ersten Teils Arbeit steht die methodische Ausarbeitung verschiedener Aggregationsverfahren, mit deren Hilfe sich erhobene Daten zu verlässlichen und aussagekräftigen Preisvergleichskennzahlen aggregieren lassen. Im Unterschied zu intertemporalen Vergleichen sind gewöhnliche bilaterale Preisindizes für diesen Zweck nur begrenzt einsetzbar. Vielmehr sind spezielle multilaterale methodische Instrumente nötig, die den speziellen Anforderungen regionaler Preisvergleiche gerecht zu werden. Im Rahmen der Arbeit werden die verschiedenen multilateralen Aggregationsverfahren unterschiedlichen Berechnungsansätzen zugeordnet, wobei jeder dieser Ansätze durch bestimmte Eigenschaften charakterisiert ist. Neben den Mitgliedern der Klasse des Gini-Eltetö-Köves-Szulc (GEKS) und Minimum Spannning Tree (MST) Ansatzes sowie des Regressionsansatzes, widmet sich diese Arbeit schwerpunktmäßig den unterschiedlichen Verfahren des sogenannten Standardisierungsansatzes. Es stellt sich heraus, dass der Standardisierungsansatz grundsätzlich sehr dem Konstruktionsprinzip bilateraler Durchschnittswertindizes (GUV-Indizes) ähnelt, weshalb sich die Mitglieder dieser Klasse auch als multilaterale GUV-Indizes auffassen lassen. Darüber hinaus wird eine neue Unterklasse des Standardisierungsansatzes definiert, deren Mitglieder die breite Palette bereits existierender Verfahren ergänzen. Allerdings wird den Aggregationsverfahren des Standardisierungsansatzes nachgesagt, unter den Auswirkungen des sogenannten Gerschenkron-Effekts zu leiden und im Gegensatz zu anderen Aggregationsverfahren häufig verzerrte Preisvergleiche hervorzubringen. Der zweite Teil der Arbeit ist einem empirischen Vergleich der zuvor erörterten Aggregationsverfahren vorbehalten. Grundlage für die Berechnungen (auf und unterhalb der elementaren Güterebene) sind Daten des Europäischen Vergleichsprogramms (EVP). Eine wichtige Erkenntnis des empirischen Teils der Arbeit ist, dass viele der unterschiedlichen Aggregationsmethoden für die Berechnungen auf der Elementarebene sehr ähnliche Ergebnisse für die Preisvergleiche zwischen den Ländern im EVP generieren. Die Sorge verzerrter Preisvergleiche infolge der Auswirkungen des Gerschenkron-Effektes lässt sich auf Grundlage der empirischen Untersuchungen nicht (zweifelsfrei) bestätigen. Ferner zeigen die empirischen Untersuchungen, dass weitaus größere Schwierigkeiten bei der Berechnung von Preisvergleichen unterhalb der Elementarebene bestehen. Die Berechnungen offenbaren, dass die häufig in der Praxis eingesetzten Verfahren der GEKS-Methode in Situationen, in denen nur wenige Daten vorhanden sind, keine plausiblen Ergebnisse liefern. Es stellt sich heraus, dass in diesen Fällen die Verfahren des Regressionsansatzes eine unkompliziertere und verlässlichere Berechnung von Preisvergleichen erlauben. Nichtsdestotrotz decken die Ergebnisse schonungslos die Probleme und Schwächen interregionaler Preisvergleiche auf. Trotz intensiver Anstrengungen der internationalen statistischen Organisationen, eine vergleichbare und fundierte Datenbasis zu schaffen, sind die Dateninformationen einiger Regionen bzw. Länder nach wie vor sehr lückenhaft. Da verlässliche und aussagekräftige Preisvergleiche im Wesentlichen von der Verfügbarkeit und der Qualität der Daten abhängig sind, sollte der Forschungsschwerpunkt zukünftig daher mehr an der Bereitstellung eines soliden Datenfundaments ausgerichtet werden.