Filtern
Erscheinungsjahr
- 2013 (47) (entfernen)
Dokumenttyp
- Dissertation (35)
- Buch (Monographie) (5)
- Sonstiges (4)
- Wissenschaftlicher Artikel (2)
- Arbeitspapier (1)
Sprache
- Deutsch (27)
- Englisch (16)
- Mehrsprachig (3)
- Französisch (1)
Schlagworte
- Europäische Union (4)
- Kirche (4)
- Law of the European Union (4)
- Optimierung (4)
- Recht der Europäischen Union (4)
- Religion (4)
- Religionsgemeinschaft (4)
- Religionsgemeinschaften (4)
- Religionsrecht (4)
- Stress (4)
Institut
- Raum- und Umweltwissenschaften (11)
- Mathematik (8)
- Rechtswissenschaft (8)
- Psychologie (5)
- Soziologie (3)
- Wirtschaftswissenschaften (3)
- Geschichte, mittlere und neuere (2)
- Kunstgeschichte (2)
- Germanistik (1)
- Japanologie (1)
Die Notwendigkeit einer ökologischen Aufwertung kleiner urbaner Gewässer und damit einer effektiven Siedlungswasserwirtschaft ist in den Fokus gerückt und wurde zum Bestandteil der Wasserrahmenrichtlinie ( 2000/60/EG). Die Zunahme von Regenwassermanagementsystemen und die Renaturierung kanalisierter Gewässerabschnitte führt zu einer Integration von Flüssen und Bächen in das städtische Umfeld. Diese Arbeit fokussiert die zeitlich hochaufgelöste Analyse des Stofftransports während Abflussereignissen in mesoskaligen Einzugsgebieten. Es wird untersucht, ob die Landnutzung und die Entwässerungssysteme von Siedlungsflächen, die Abflusssdynamik und die Stoffkonzentrationen beeinflussen. Beleuchtet wird, inwieweit naturnahe Regenwassermanagementsysteme in Siedlungsgebieten den natürlichen Wasserhaushalt erhalten und eine Gewässerbelastung reduzieren. Untersucht werden die Schadstoffdynamiken und -frachten dreier verschiedener Einzugsgebiete, ähnlich hinsichtlich Einzugsgebietsgröße, Topographie und klimatischen Bedingungen, aber unterschiedlich in Landnutzung und Entwässerungssystemen. Darüber hinaus wird der Einfluss der Ableitungsart des Regenwassers aus den Siedlungsgebieten auf die Abflussdynamik und die Schadstoffverlagerung auf unterschiedlichen Skalen untersucht. Abflussganglinien und Chemographen aller Gewässer zeigen große Schwankungen während und zwischen Hochwasserereignissen. Kurzfristige Konzentrationen sind sehr hoch und können nur mittels zeitlich hochaufgelöster Beprobung bestimmt werden. Frachten und mittlere Ereigniskonzentrationen weisen eine hohe Variabilität in Abhängigkeit von vorangehenden hydro-klimatischen Bedingungen auf. Erhöhte Schadstoffkonzentrationen treten in einem ländlich geprägten Einzugsgebiet in Verbindung mit Regenfällen durch Remobilisierung von Schadstoffen aus der Kanalisation auf. In einem städtisch geprägten Vorfluter sind Schadstoffbelastungen mit dem Basisabfluss aufgrund sanitärer Fehlanschlüsse und Kläranlageneinleitungen das ganze Jahr über bedeutsam. Ein biologischer Test zur Bestimmung östrogener Aktivität zeigt, dass die Toxizität von der Kläranlagentechnologie und deren Elimination östrogener Wirkstoffe abhängt. Saisonale Effekte, durch steigende östrogene Aktivität im Sommer und abnehmende Aktivität im Winter aufgrund der Verdünnung durch Boden- und Grundwasser, konnten beobachtet werden. Dezentrale Regenrückhalte führen zum Erhalt des quasi-natürlichen Wasserhaushaltes und zur Dämpfung von Abflussspitzen im Vorfluter. Die Beprobung der Zuläufe und des Ablaufes einer Retentionsfläche zeigt die Reduktion der Maximalkonzentrationen sowie der jährlichen Frachten von Xenobiotika. Mit zunehmender Einzugsgebietsgröße nimmt die Anzahl und Diversität der Entwässerungssysteme zu. Die Skalenabhängigkeit der Gewässerbelastung ergibt sich aus dem Vorhandensein und Zusammenwirken von Misch- und Trennkanalisationen, sowie Regenwassermanagementsysteme, und Kläranlageneinläufen. Vor allem Mischwasserkanalüberläufe führen zu einer hydraulischen Belastung sowie zu hohen Momentankonzentrationen der Xenobiotika. Regenwassermanagementsysteme tragen zu einer deutlichen Reduktion der chemischen und hydraulischen Belastung des Gewässers bei. Dies führt zu einer Entlastung der Vorfluter und zu einem besseren ökologischen Zustand, wie durch die Wasserrahmenrichtlinie gefordert.
Preisvergleiche zwischen verschiedenen Regionen spielen in zahlreichen wirtschaftlichen und politischen Zusammenhängen eine wichtige Rolle. Unabhängig davon, ob es darum geht, die Wirtschaftskraft von Regionen oder Ländern gegenüber zu stellen, die Lebensverhältnisse innerhalb eines Landes zu vergleichen, oder aber die Wirkungsweise sozial- und lohnpolitischer Entscheidungen einzuschätzen: Interregionale Preisvergleiche dienen in erster Linie als Instrument, um gesamtwirtschaftliche und ökonomische Größen zwischen verschiedenen Regionen oder Ländern real vergleichbar zu machen. Interregionale Preisvergleiche sind allgemeinhin besser bekannt als sogenannte Kaufkraftparitäten. Die enorme Bedeutung von Kaufkraftparitäten wurde in der Vergangenheit lange unterschätzt. Insbesondere bei Preisvergleichen innerhalb eines Landes mangelt es oftmals an einer soliden Datenbasis, sodass verlässliche Schätzungen regionaler Preisniveauunterschiede häufig nicht möglich sind. Die vorliegende Arbeit zeigt allerdings, dass ein breites Angebot verschiedener multilateraler Aggregationsmethoden bereit. Im Mittelpunkt des ersten Teils Arbeit steht die methodische Ausarbeitung verschiedener Aggregationsverfahren, mit deren Hilfe sich erhobene Daten zu verlässlichen und aussagekräftigen Preisvergleichskennzahlen aggregieren lassen. Im Unterschied zu intertemporalen Vergleichen sind gewöhnliche bilaterale Preisindizes für diesen Zweck nur begrenzt einsetzbar. Vielmehr sind spezielle multilaterale methodische Instrumente nötig, die den speziellen Anforderungen regionaler Preisvergleiche gerecht zu werden. Im Rahmen der Arbeit werden die verschiedenen multilateralen Aggregationsverfahren unterschiedlichen Berechnungsansätzen zugeordnet, wobei jeder dieser Ansätze durch bestimmte Eigenschaften charakterisiert ist. Neben den Mitgliedern der Klasse des Gini-Eltetö-Köves-Szulc (GEKS) und Minimum Spannning Tree (MST) Ansatzes sowie des Regressionsansatzes, widmet sich diese Arbeit schwerpunktmäßig den unterschiedlichen Verfahren des sogenannten Standardisierungsansatzes. Es stellt sich heraus, dass der Standardisierungsansatz grundsätzlich sehr dem Konstruktionsprinzip bilateraler Durchschnittswertindizes (GUV-Indizes) ähnelt, weshalb sich die Mitglieder dieser Klasse auch als multilaterale GUV-Indizes auffassen lassen. Darüber hinaus wird eine neue Unterklasse des Standardisierungsansatzes definiert, deren Mitglieder die breite Palette bereits existierender Verfahren ergänzen. Allerdings wird den Aggregationsverfahren des Standardisierungsansatzes nachgesagt, unter den Auswirkungen des sogenannten Gerschenkron-Effekts zu leiden und im Gegensatz zu anderen Aggregationsverfahren häufig verzerrte Preisvergleiche hervorzubringen. Der zweite Teil der Arbeit ist einem empirischen Vergleich der zuvor erörterten Aggregationsverfahren vorbehalten. Grundlage für die Berechnungen (auf und unterhalb der elementaren Güterebene) sind Daten des Europäischen Vergleichsprogramms (EVP). Eine wichtige Erkenntnis des empirischen Teils der Arbeit ist, dass viele der unterschiedlichen Aggregationsmethoden für die Berechnungen auf der Elementarebene sehr ähnliche Ergebnisse für die Preisvergleiche zwischen den Ländern im EVP generieren. Die Sorge verzerrter Preisvergleiche infolge der Auswirkungen des Gerschenkron-Effektes lässt sich auf Grundlage der empirischen Untersuchungen nicht (zweifelsfrei) bestätigen. Ferner zeigen die empirischen Untersuchungen, dass weitaus größere Schwierigkeiten bei der Berechnung von Preisvergleichen unterhalb der Elementarebene bestehen. Die Berechnungen offenbaren, dass die häufig in der Praxis eingesetzten Verfahren der GEKS-Methode in Situationen, in denen nur wenige Daten vorhanden sind, keine plausiblen Ergebnisse liefern. Es stellt sich heraus, dass in diesen Fällen die Verfahren des Regressionsansatzes eine unkompliziertere und verlässlichere Berechnung von Preisvergleichen erlauben. Nichtsdestotrotz decken die Ergebnisse schonungslos die Probleme und Schwächen interregionaler Preisvergleiche auf. Trotz intensiver Anstrengungen der internationalen statistischen Organisationen, eine vergleichbare und fundierte Datenbasis zu schaffen, sind die Dateninformationen einiger Regionen bzw. Länder nach wie vor sehr lückenhaft. Da verlässliche und aussagekräftige Preisvergleiche im Wesentlichen von der Verfügbarkeit und der Qualität der Daten abhängig sind, sollte der Forschungsschwerpunkt zukünftig daher mehr an der Bereitstellung eines soliden Datenfundaments ausgerichtet werden.
Im Zentrum der Dissertation steht der in Augsburg geborene Maler Joseph Heintz d.J. (1600-1678), der Anfang der 1620er Jahre nach Venedig auswanderte, wo er über fünfzig Jahre bis zu seinem Tod lebte und arbeitete, und zum Hauptvertreter der venezianischen Festmalerei des 17. Jahrhunderts avancierte. Der erste Teil widmet sich der Rekonstruktion der bisher nahezu unbekannten Biographie Joseph Heintz' d.J., sowie seines Kunden- und Auftraggeberkreises, und somit der sozialen Verortung des Künstlers in Venedig. Im zweiten Teil erfolgt die Analyse der Festmalerei Joseph Heintz' d.J. unter besonderer Berücksichtigung der venezianischen Festkultur als Manifestation der Staatsidentität. Heintz d.J. stellte in seinen Gemälden festliche Prozessionen und die Investiturzeremonien des Dogen ebenso dar wie weltliche Spektakel und volkstümliche Wettkämpfe. Durch die quellenbasierte Recherche, sowie die Kontextualisierung der Festgemälde, konnte eine Neubewertung Joseph Heintz" d.J. als bedeutender, gut vernetzter Künstler erfolgen, dessen Werke einen nicht zu unterschätzenden Einfluss auf die venezianischen Vedutisten des 18. Jahrhunderts hatten.
Der Aufbau einer Klassifikation von Einzugsgebieten (EZG) auf Basis des Abflussverhaltens und der Gebietseigenschaften sowie die Regionalisierung von Abflussparametern sind Kernthemen der Hydrologie. Die Ziele dieser Arbeit sind der Aufbau einer Klassifikation für EZGs mit hoher räumlicher Auflösung nach dem Abflussverhalten und der Gebietseigenschaften, die Identifikation abflussrelevanter, physiogeografischer und klimatischer Gebietseigenschaften und die Regionalisierung von Abflussverhalten und Modellparametern auf Basis von Klassifikationen. Dabei wird untersucht, ob sich 53 häufig benachbarte und z.T. ineinander geschachtelte Einzugsgebiete in Rheinland-Pfalz für eine Klassifikation eignen und wie das Abflussverhalten für die Beurteilung von Ähnlichkeiten beschrieben werden kann. Das Abflussverhalten der EZGs wird mit einer großen Anzahl von Ereignis-Abflussbeiwerten je EZG und Abflussdauerlinien (Flow-Duration Curves) der EZGs beschrieben, die das Abflussverhalten umfassend und mit einer ausreichenden Trennschärfe abbilden. Gebietseigenschaften, die das Abflussgeschehen dieser EZG dominieren, sind langjährige, mittlere Niederschlagssummen, die mittlere potentielle Verdunstung, die Topografie und die Speichermöglichkeiten im EZG. Für den Aufbau und die Anwendung der EZG-Klassifikationen wird ein hierfür entwickeltes Verfahren eingesetzt, dass auf Selbstorganisierenden Merkmalskarten (Self-Organizing Maps, SOM) basiert. Vorteile dieses Verfahrens gegenüber vielen konventionellen Verfahren sind Qualitätsmaße, die datenbasierte Bestimmung wichtiger Parameter, aussagestarke Visualisierungen der Ergebnisse und die Klassifikation und Regionalisierung mit einer Methode. Die Auswertung von zwei separaten Klassifikationen, nach dem Abflussverhalten und nach den physiogeografischen und klimatischen Gebietseigenschaften, stellen einen direkten Zusammenhang zwischen Abfluss- und Gebietseigenschaften her. Der Überschneidungsbereich der beiden Klassifikationen ist die Grundlage für die Übertragung von Abflussinformationen auf unbeobachtete Gebiete (Regionalisierung). Die Ergebnisse zeigen, dass die Methode der Clusteranalyse, Klassifikation und Regionalisierung mit SOM und den genannten Abfluss- und Gebietskennwerten geeignet ist, EZGs mit einer hohen räumlichen Auflösung treffend und detailliert zu klassifizieren sowie Abflussparameter zu regionalisieren.
Die Frage, wie die Lesekompetenz der Lernenden effizienter entwickelt werden kann, beschäftigt die Leseforschung im Bereich Chinesisch als Fremdsprache (ChaF) seit vielen Jahren. Bis heute werden dabei schriftstrukturelle Aspekte in den Vordergrund gestellt, so z. B. die Frage, wie den Lernenden der Aufbau der Schriftzeichen systematisch näher gebracht werden kann oder auch korpusrelevante Ansätze, die in Sammlungen hochfrequenter Schriftzeichen und Wörter ihren Niederschlag finden. So sinnvoll diese Herangehensweisen beispielsweise für die Entwicklung von Lehrwerken sind, so bleibt doch festzuhalten, dass die Wortebene (Wortschatzkenntnis und Worterkennung), die den Befunden der L1- und L2-Leseforschung zufolge der Schlüssel für das Verstehen von Texten ist, bis heute sowohl in der lesedidaktischen Diskussion als auch in den Lehrwerken stark vernachlässigt wird. In den letzten zwanzig Jahren ist von Seiten der ChaF-Leseforschung, insbesondere in den USA und in China, eine Reihe von psycholinguistischen Studien zur Entwicklung der Lesekompetenz, der Worterkennung und von Wortschatzkenntnissen sowie zur Beziehung dieser Kompetenz- und Wissensbereiche publiziert worden. Auch der Leseprozess geübter L1-Leser ist inzwischen gut erforscht. Allerdings lassen sich aus den Ergebnissen einzelner psycholinguistischer Studien, in denen unter Anwendung unterschiedlicher Forschungsparadigmen bestimmte Subprozesse des Lesens untersucht werden, nicht direkt Schlussfolgerungen für die nach kohärenten Erklärungen des Leseprozesses verlangende Lesedidaktik ziehen. Für die Entwicklung eines evidenzbasierten Ansatzes zur wortschatzzentrierten Lesevermittlung in ChaF wurde daher in der vorliegenden interdisziplinären Studie die gesamte relevante empirische Evidenz zum Lesen und zur Wortverarbeitung in ChaF kritisch im Rahmen konsensfähiger Theorien zur Sprachverarbeitung analysiert. Ergebnis dieser Analyse war, dass " ebenso wie in anderen Fremdsprachen auch " umfassende und gut vernetzte Wortschatzkenntnisse sowie eine automatisierte Worterkennung, die den zuverlässigen Abruf phonologischer Informationen mit einschließt, Grundvoraussetzungen für das fließende Lesen chinesischer Texte sind. Gleichzeitig verdeutlichen die empirischen Befunde auch, dass der Erwerb vertiefter Wortschatzkenntnisse aufgrund der sprachlichen Distanz des Chinesischen für westliche ChaF-Lernende eine große Herausforderung darstellt. Auch die Entwicklung der Worterkennung ist aufgrund der phonologischen Intransparenz der chinesischen Schrift und auch weil beim Lesen eine zusätzliche Wortsegmentierung vorgenommen werden muss, mit großen Schwierigkeiten verbunden. Im letzten Kapitel der Dissertation werden Empfehlungen für eine wortschatzzentrierte Lesedidaktik formuliert, die Ansätze aus der evidenzbasierten westlichen L2-Lesedidaktik mit der traditionellen Methode des lauten Lesens verbindet und die den Lernenden gleichzeitig die Möglichkeit bietet, im Rahmen inhaltsbezogener rezeptiver, reflexiver und produktiver Übungen aktiv mit chinesischen Wörtern umzugehen und deren Verwendung wiederholt einzuüben.
Bei synthetischen Simulationsgesamtheiten handelt es sich um künstlichernDaten, die zur Nachbildung von realen Phänomenen in Simulationen verwendetrnwerden. In der vorliegenden Arbeit werden Anforderungen und Methoden zur Erzeugung dieser Daten vorgestellt. Anhand von drei Beispielen wird gezeigt, wie erzeugte synthetische Daten in einer Simulation zur Anwendung kommen.
Nicht von einer Hand Fallbeispiele der künstlerischen Zusammenarbeit in der Gemäldeproduktion vom 17. bis 19. Jahrhundert Das Phänomen der künstlerischen Zusammenarbeit mehrerer Maler auf einem Bildträger wurde in den vergangenen zehn Jahren in der Forschung und in der praktischen Museumsarbeit mit immer größerem Interesse betrachtet. Das hängt mit dem generellen Wandel in der Wahrnehmung von historischen Sammlungen und der Hinterfragung von tradierten Wahrnehmungsmustern in der Kunstgeschichte zusammen. Diese Dissertation hat sich die Frage nach der Entstehung dieser Form der Zusammenarbeit in verschiedenen Regionen und deren Rezeption im 18. und 19. Jahrhundert gestellt. Wenngleich in der Forschung die Kooperationstätigkeiten einzelner Künstler zunehmend Beachtung finden, so war es mein Anliegen, das Phänomen der Kooperationspraxis umfassend anhand verschiedener Fallbeispiele zu beschreiben. In vielen Fällen können diese Beispiele ergänzt und erweitert werden. Im Kern aber bleibt die Feststellung, dass die Kooperationspraxis als künstlerische Produktionsweise eine Entwicklung vollzogen hat. Kooperationen im beschriebenen Umfang hat es immer gegeben. Die produktive Phase der niederländischen und flämischen Malerei wäre im 17. Jahrhundert nicht möglich gewesen, hätten sich vor allem in Antwerpen die Maler nicht zu Kooperationsgemeinschaften zusammengeschlossen. Die Entwicklung der Genres, der Transfer unterschiedlichster Bildthemen und Motive hängt im engen Maße mit der Kooperationstätigkeit zusammen. Entscheidend für die horizontale Kooperation, also die Kooperation unter (mehr oder minder) gleichgestellten autonomen Meistern, war die Entwicklung dieser verschiedenen Genres. Einige dieser Gattungen eigneten sich besonders gut für die Praxis der Künstlerkooperation. Sie wurden zum Teil überhaupt erst durch diesen intensiven Austausch unter den Malern so erfolgreich und konnten erst durch eine ökonomische Produktionsweise in großer Menge für den freien Kunstmarkt hergestellt werden. Bei der Gegenüberstellung der Kooperationsbedingungen in Deutschland und in den Niederlanden wurden signifikante Gründe für die unterschiedliche Entwicklung der künstlerischen Zusammenarbeit herausgestellt. Im Alten Reich unterschieden sich im 16. und 17. Jahrhundert die sozial-ökonomischen Verhältnisse deutlich von denen in den südlichen und nördlichen Niederlanden. Die Grenzen zwischen der werkstattinternen Arbeitsteilung und der Kooperation zwischen autonomen Meistern verliefen fließend. Die Entwicklung in der Arbeitsweise der Maler verlief über einen langen Zeitraum und kann nicht als homogener Entwicklungsstrang festgeschrieben werden. Waren es anfangs die herrschaftlich motivierten Ansprüche für die Ausstattung der Residenzen oder für exorbitante Memorialprojekte, welche die bekanntesten Maler an einem Projekt unter der Koordination eines Höflings wirken ließen, so ging mit dem Erstarken des freien Kunstmarktes die Künstlerkooperation mit dem Ziel einer effektiven und absatzstarken Gemäldeproduktion einher. Die Produktionsverfahren des 18. und 19. Jahrhunderts folgten, mehr und mehr politischen, gesellschaftlichen und ökonomischen Motiven, wobei die Künstlerkooperation als soziales Arbeitsmodell bestätigt wurde. Damit wurde gleichsam der Weg für Künstlergemeinschaften und Künstlerkolonien geebnet, die vor allem im 20. Jahrhundert ein globales Phänomen darstellten und das künstlerische Selbstverständnis bis zum heutigen Tag prägen.
In der Forschung zur aktuellen Prozessdynamik der Bodenerosion sind Niederschlagssimulationen mit kleinen mobilen Beregnungsanlagen (KBA) ein unverzichtbarer Bestandteil. Weltweit werden sehr viele KBA unterschiedlicher Bauart, Plotgrößen, Tropfenerzeugung, Niederschlagsintensitäten, und -spektren eingesetzt. Eine Standardisierung der Anlagen ist aufgrund der Verschiedenheit der Forschungsfelder und -fragen nicht in Sicht. Darüber hinaus sind die erzeugten Niederschläge (Nd) der Anlagen unzureichend genau charakterisiert und es liegt keine einheitliche Datenbasis aller relevanten Parameter vor. Zudem werden mit KBA bisher ausschließlich Starkregen unter windstillen Bedingungen simuliert, obwohl Wind einen deutlichen Einfluss auf fallende Regentropfen ausübt. Die vorliegende Arbeit gliedert sich in drei Teile: (1) Weiterentwicklung und Anwendung von KBA: Wie lässt sich die Performance der Trierer KBA optimieren und eine einheitliche Mess- und Kalibrierungsmethode für den simulierten Niederschlag definieren? Welche Anforderungen, Möglichkeiten, Grenzen und Anwendungsbereiche gibt es? (2) Vergleich verschiedener Typen von KBA im Gelände: Inwieweit sind Nd-Charakteristika, Oberflächen-¬abflussgenerierungen und Bodenabträge europäischer KBA vergleichbar? (3) Implemen-¬tierung von windbeschleunigtem Regen in KBA mit dem neuen mobilen Trierer Windregenkanal (WiReKa): Wie kann Wind in ein KBA-Setting integriert werden? Wie sind Unterschiede von Erosionsraten mit und ohne Windeinfluss in-situ zu quantifizieren und wie hoch fallen sie aus? Im ersten Teil der Arbeit wurde zunächst die Nd-Charakteristik der langjährig von der Physischen Geographie eingesetzten KBA mit unterschiedlichen, weltweit angewandten Messmethoden untersucht. Dabei zeigten sich einige Schwächen der KBA bezüglich ihrer Funktionalität. Der Einsatz verschiedener Mess-¬methoden zur Charakterisierung des künstlich erzeugten Nd führte zu sehr unterschiedlichen Ergebnissen. Mittels Laser-Niederschlags-Monitor (LNM) und Nd-Sammlern wurde daher ein einheitliches Testverfahren entwickelt, das eine detaillierte Aufnahme, Auswertung und Darstellung der relevanten Nd-Parameter nahezu aller KBA-Designs ermöglicht. Mit Hilfe dieses Testverfahrens wurden Nd-Charakteristik, Funktionalität und Mobilität der Trierer KBA durch technische Veränderungen deutlich verbessert. Alle Parameter dieser Anlage sind nun bekannt und lassen sich zuverlässig reproduzieren. Die Anforderungen, Möglichkeiten und Grenzen des Einsatzes von KBA wurden detailliert erarbeitet und beschrieben. Auf dem "International Rainfall Simulator Workshop" in Trier konnte mit 40 Wissenschaftlern aus 11 Nationen Einigkeit über grundlegende Aspekte beim Bau und Einsatz von KBA erzielt werden. Der zweite Teil der Arbeit stellt die Arbeitsmethoden und Ergebnisse eines in internationaler Kooperation durchgeführten Projektes zu Messmethoden und Vergleichbarkeit von Simulatordesigns und Nd-Charakteristika unterschiedlicher europäischer KBA vor. An 13 Instituten in Deutschland, den Niederlanden, der Schweiz und Spanien wurde mit dem Trierer Testverfahren eine einheitliche Datenbasis aller wesentlichen Nd-Parameter erstellt. Im praktischen Teil des Rainfall Simulator Workshop in Trier wurden dann vergleichende Versuche mit sieben KBA auf einer universitätsnahen Versuchsfläche zur Oberflächenabflussgenerierung und zum Bodenabtrag durchgeführt. Vor allem die (maximale) Sedimentkonzentration einer Simulation hat sich dabei als gute Vergleichsgröße herausgestellt. Differenzen in den gemessenen Oberflachenabfluss- und Sedimentmengen sind ganz klar unterschiedlichen Nd zuzuordnen. Der zeitliche Ablauf des Oberflächenabfluss- und Erosionsverhalten differiert dagegen nur bei zunehmender Plotgröße. Im dritten Teil der Arbeit wird analysiert, wie windbeschleunigter Regen in einer KBA simuliert werden kann. Darüber hinaus wurde eine spezielle Testreihenfolge für die Erosionsmessungen entwickelt, deren Praktikabilität sich in der Anwendung bewährt hat. Es konnten stark erhöhte Abtragsraten aufgrund der Zuschaltung von Wind zu der Regensimulation auf kohäsionslosem sandigen Substrat quantifiziert werden. Das Dissertationsprojekt kann auf mehreren Ebenen als erfolgreich angesehen werden: Die Arbeit mit den Trierer KBA konnte qualitativ verbessert werden insofern, als die Anlagenparameter optimiert und die Güte der produzierten Daten gewährleistet werden konnte. Darüber hinaus konnten die gewonnenen Erkenntnisse durch eine gezielte internationale Vernetzung in Wert gesetzt und die Zusammenarbeit auf der operationalen Ebene gestärkt werden.
In der modernen Survey-Statistik treten immer häufifiger Optimierungsprobleme auf, die es zu lösen gilt. Diese sind oft von hoher Dimension und Simulationsstudien erfordern das mehrmalige Lösen dieser Optimierungsprobleme. Um dies in angemessener Zeit durchführen zu können, sind spezielle Algorithmen und Lösungsansätze erforderlich, welche in dieser Arbeit entwickelt und untersucht werden. Bei den Optimierungsproblemen handelt es sich zum einen um Allokationsprobleme zur Bestimmung optimaler Teilstichprobenumfänge. Hierbei werden neben auf einem Nullstellenproblem basierende, stetige Lösungsmethoden auch ganzzahlige, auf der Greedy-Idee basierende Lösungsmethoden untersucht und die sich ergebenden Optimallösungen miteinander verglichen.Zum anderen beschäftigt sich diese Arbeit mit verschiedenen Kalibrierungsproblemen. Hierzu wird ein alternativer Lösungsansatz zu den bisher praktizierten Methoden vorgestellt. Dieser macht das Lösen eines nichtglatten Nullstellenproblemes erforderlich, was mittels desrnnichtglatten Newton Verfahrens erfolgt. Im Zusammenhang mit nichtglatten Optimierungsalgorithmen spielt die Schrittweitensteuerung eine große Rolle. Hierzu wird ein allgemeiner Ansatz zur nichtmonotonen Schrittweitensteuerung bei Bouligand-differenzierbaren Funktionen betrachtet. Neben der klassischen Kalibrierung wird ferner ein Kalibrierungsproblem zur kohärenten Small Area Schätzung unter relaxierten Nebenbedingungen und zusätzlicher Beschränkung der Variation der Designgewichte betrachtet. Dieses Problem lässt sich in ein hochdimensionales quadratisches Optimierungsproblem umwandeln, welches die Verwendung von Lösern für dünn besetzte Optimierungsprobleme erfordert.Die in dieser Arbeit betrachteten numerischen Probleme können beispielsweise bei Zensen auftreten. In diesem Zusammenhang werden die vorgestellten Ansätze abschließend in Simulationsstudien auf eine mögliche Anwendung auf den Zensus 2011 untersucht, die im Rahmen des Zensus-Stichprobenforschungsprojektes untersucht wurden.
Die in einem Einzugsgebiet herrschende räumliche Inhomogenität wird im Wasserhaushaltsmodell LARSIM (Large Area Runoff Simulation Modell) in den einzelnen Modellkomponenten unterschiedlich stark berücksichtigt. Insbesondere die räumliche Verteilung der Abflussprozesse wurde bisher nicht berücksichtigt, weil keine flächenhaft verfügbare Information über eben diese Verteilung vorlag. Für das Einzugsgebiet der Nahe liegt nun seit dem Jahr 2007 eine Bodenhydrologische Karte vor, die flächenhaft den bei ausreichenden Niederschlägen zu erwartenden Abflussprozess ausweist. In der vorliegenden Dissertation wird die Nutzung dieser Prozessinformation bei der Parametrisierung des Bodenmoduls von LARSIM beschrieben: Für drei Prozessgruppen " gesättigter Oberflächenabfluss, Abfluss im Boden, Tiefenversickerung " werden mittels zweier neuer Parameter P_Bilanz und P_Dämpfung inhomogene Parametersätze aus empirisch ermittelten Kennfeldern gewählt, um die Prozessinformation bei der Abflussbildung im Modell zu berücksichtigen. Für die Abbildung der Prozessintensitäten in den Gebietsspeichern werden zwei unterschiedliche Ansätze vorgestellt, die sich in ihrer Komplexität unterscheiden. In der ersten Variante werden fünf Oberflächenabflussspeicher für unterschiedlich schnell reagierende Prozessgruppen eingeführt, in der zweiten Variante wird der erste Ansatz mit dem ursprünglichen Schwellenwert zur Aufteilung in schnelle und langsame Oberflächenabflusskomponenten kombiniert. Es wird gezeigt, dass die Parametrisierung mit den beiden neuen Parametern P_Bilanz und P_Dämpfung einfacher, effektiver und effizienter ist, da beide Parameter minimale Interaktionen aufweisen und in ihrer Wirkungsweise leicht verständlich sind, was auf die ursprünglichen Bodenparameter nicht zutrifft. Es wird ein Arbeitsfluss vorgestellt, in dem die neuen Parameter in Kombination mit Signature Measures und unterschiedlichen Darstellungen der Abflussdauerlinie gemeinsam genutzt werden können, um in wenigen Arbeitsschritten eine Anpassung des Modells in neuen Einzugsgebieten vorzunehmen. Die Methode wurde durch Anwendung in drei Gebieten validiert. In den drei Gebieten konnte in wenigen Kalibrierungsschritten die Simulationsgüte der ursprünglichen Version erreicht und " je nach Zielsetzung " übertroffen werden. Hinsichtlich der Gütemaße zeigte sich bei der Variante, in der die Gebietsspeicher nicht modifiziert wurden, aber kein eindeutiges Bild, ob die ursprüngliche Parametrisierung oder die neue grundsätzlich überlegen ist. Neben der Auswertung der Validierungszeiträume wurden dabei auch die simulierten Ganglinien in geschachtelten Gebieten betrachtet. Die Version, in der die Gebietsspeicher modifiziert wurden, zeigt hingegen vor allem im Validierungszeitraum tendenziell bessere Simulationsergebnisse. Hinsichtlich der Abbildung der Abflussprozesse ist das neue Verfahren dem alten deutlich überlegen: Es resultiert in plausiblen Anteilen von Abflusskomponenten, deren Verteilung und Abhängigkeit von Speicherkapazitäten, Landnutzungen und Eingangsdaten systematisch ausgewertet wurden. Es zeigte sich, dass vor allem die Speicherkapazität des Bodens einen signifikanten Einfluss hat, der aber im hydrologischen Sinn richtig und hinsichtlich der Modellannahmen plausibel ist. Es wird deutlich gemacht, dass die Einschränkungen, die sich ergeben haben, aufgrund der Modellannahmen zustande kommen, und dass ohne die Änderung dieser Annahmen keine bessere Abbildung möglich ist. Für die Zukunft werden Möglichkeiten aufgezeigt, wie die Annahmen modifiziert werden können, um eine bessere Abbildung zu erzielen, indem der bereits bestehende Infiltrationsansatz in die Methode integriert wird.
In his article, the author asks how legitimacy of law and the concept of rules of law can be described taking into account the interaction between aspects of philosophy and sociology as well as the will of the state in states' constitutions. As the rule of law, versus other kinds of rules in our society, should be regarded as a rule of "three-dimensionality" " an interaction between the will of the state, the social, historical, and economic factors, and the idea or concept of justice ", the author focuses his interest on the examination of these three factors always taking into account that law is the will of the state, but that not every decision of the state can be considered as law.
Das Judenschutzprivileg Karls d. Gr. setzte voraus, daß den Juden eine die Königsherrschaft bzw. den Staat stützende Funktion zugedacht war. Damit vollzog der Kaiser eine Wende um 1800 gegenüber den antiken Herrschern, die in den Juden eine Gefahr für ihren zentralisierten Einheitsstaat erblickt hatten. Unter dem Dach des von Kaiser Karl begründeten Judenschutzes lebte das traditionelle politische Motiv einer sich in zahlreichen Repressionen bis hin zu Verfolgungen und Vertreibungen äußernden Judenfeindschaft im nordalpinen Raum weiter, modifiziert infolge geänderter Voraussetzungen. Die Juden fanden sich hinfort in einem politischen Spannungsfeld zwischen Judenschutz und Anfeindung eingebunden und zwar innerhalb eines sich horizontal zunächst bipolar (Rivalität Kaiser/König - Papst), dann auch multipolar ausweitenden Herrschaftsbereiches mit zum Teil rivalitätsbedingten Übergriffen bis hin zu Verfolgungen.- Wegen der Beteiligung anderer Gewalten neben dem König an der Herrschaft über die Juden und damit an der Ausübung des Judenschutzes wurden die Juden oftmals Leidtragende separater materieller und politischer Konflikte, weil sie politisch als Stütze konkurrierender bzw. einander verfeindeter Herrschaftsträger wahrgenommen wurden, womit eine der Modifikationen des traditionellen Motivs faßbar wird - die Gefährdung eigener Herrschaftspositionen durch den politischen Widersacher. Folgt man dem Ritter und Ministerialen Johann von Rinberg als Leitfigur - 1298 wird er dann definitiv zur Hauptfigur -, erschließt sich ein neuer bisher in der Forschung vernachlässigter Täterkreis - die Rolle der Ministerialen bei Judenverfolgungen gerät in den Focus der Aufmerksamkeit und nicht der Mob, die blind wütende, die Juden mit oder ohne pseudoreligiösem Bezug kriminalisierende und lynchende Masse, sondern vielmehr die Frage nach den Drahtziehern bzw. Strippenziehern im Hintergrund, den Hintermännern der stereotyp wiederkehrenden Standardbeschuldigungen (Brunnen- vergiftung, Hostienfrevel, Ritualmord,...). Der im Rheingau gelegene Salhof Lorch entpuppte sich als das Zentrum ministerialischer Opposition unter Führung des Rheingrafen gegen den Ausbau der Landesherrschaft des Mainzer Erzbischofs. Hier in Lorch selbst veranlaßten die Ministerialen während eines "Krieges" gegen den Erzbischof Werner von Mainz ihre erste Judenverfolgung im Jahre 1274/5, worin auch die Familie der Rinbergs involviert war. In den Verhandlungen eines Schiedsgerichts wird die von den Ministerialen eingeschlagene Taktik erkennbar, ihre Verantwortung und Mitschuld zu verschleiern und die Schuld ausschließlich den eigentlichen Judenschlägern anzulasten, was freilich nicht ganz gelingt, da der Erzbischof auf vollem Schadenersatz bestand, den die ärmeren Judenschläger selbst nicht zu leisten vermochten. Mit dem Sieg des Erzbischofs 1279 in der Schlacht bei Gensingen gegen die Ministerialität unter Führung des Rheingrafen und seinem Sieg auch in der sich anschließenden "Sponheimer Fehde" des Jahres 1281 kam die Wende auch für die Truchsessenfamilie von Rinberg. Ihre und des Rheingrafen Burg Rheinberg im Wispertal wurde 1281 erobert und zerstört und das Truchsessenamt ihnen entzogen. Sigfrid von Rinberg und sein Sohn Johann gerieten nicht wie der Rheingraf und dessen Sohn in Gefangenschaft, sie konnten sich ihr durch die Flucht entziehen, unterwarfen sich nicht und wurden von nun an ausdrücklich als "Feinde" des Erzbischofs und der Mainzer Kirche bezeichnet. Der Rheingraf wurde aus dem Rheingau verdrängt und mußte sich verpflichten, keine konspirativen Kontakte zu diesen Feinden aufzunehmen bzw. zu pflegen, sie nicht zu beherbergen. Gleiches galt natürlich auch für die unterworfene Ministerialität. Indizien legen den Schluß nahe, daß sich Johann von Rinberg zwischen 1281 und 1292 in Reichweite des Salhofes Lorch aber dennoch an einem sicheren Ort aufhielt, in der Reichsstadt Oberwesel. Von hier aus ließen sich durch ihn als erklärtem Feind des Erzbischofs hervorragend konspirativ Verbindungen knüpfen und koordinieren. Die Ministerialenopposition lebte im Verborgenen wieder auf. Gesucht wurde nach Wegen, scheinlegal im Zusammenspiel mit dem verbündeten Mainzer Stadtrat gegen Positionen des Erzbischofs - hier gegen dessen Juden - vorzugehen. So kann es nicht verwundern, daß diesesmal der nächste Vorstoß gegen die Juden 1282/3 nicht von Lorch her sondern von Olm aus erfolgte durch den Ritter und Ministerialen Herbord Ring von Olm, der bezeichnenderweise enge Verbindungen zum Salhof Lorch unterhielt, der jetzt in Begleitung weiterer Ministerialen vor der Stadt Mainz erschien, um wegen der Ermordung angeblich seines Neffen und angeblich durch Juden der Stadt Mainz Einlaß zu begehren und eine ordentliche Gerichtsverhandlung zu verlangen. Das Komplott des Herbord im Zusammenspiel mit dem Mainzer Stadtrat, der danach trachtete, den Judenschutz und die Gerichtsbarkeit über die Juden zu gewinnen, wurde von Erzbischof Werner von Anfang an durchschaut. Eine "kleine", vom Stadtrat kontrollierte und beendete Judenverfolgung wurde wie schon 1281 zugelassen, um so das Unvermögen des Judenschutzes durch den Erzbischof offenkundig zu machen. 1287 transportierten Ministerialen den zu Oberwesel angeblich von dortigen Juden ermordeten "Guten Werner" per Schiff gen Mainz, um so das Schauspiel des Herbord von Olm aus dem Jahre 1282/3 zu wiederholen. Eine Koordination muß der Übernahme vorausgegangen sein, eingefädelt wurde der Fall sehr wahrscheinlich durch ihren externen Komplizen Johann von Rinberg, der sich hier in Oberwesel aufgehalten haben dürfte. Etwas Unvorhergesehenes durchkreuzte den Plan der Ministerialen und zwang sie zur vorzeitigen Anlandung in Bacharach. Von Standesgenossen des Salhofes Lorch gewarnt und an Land gewunken erfuhren sie, daß König Rudolf soeben in Mainz eingetroffen war, der hier die Mainzer Bürgerschaft wegen der vorausgegangenen Judenverfolgung des Jahres 1286 zu einer Geldstrafe verurteilte. Die inszenierte Verfolgungswelle des "Guten Werner" ließ sich indes hierdurch nicht aufhalten,die von den Ministerialen und speziell von Johann von Rinberg auf die Weinbau betreibende Bevölkerung der Rheingegend zugeschnittene Märtyrergeschichte des "Guten Werner" fand ihren Zuspruch. König Adolf nahm Johann von Rinberg als bewährten Feind des Mainzer Erzbischofs 1294 in seinen Dienst als Folge des Zerwürfnisses mit Erzbischof Gerhard. Johann wurde zum königlichen Vogt des Speyergaues ernannt. Zu Beginn des Thronstreites zwischen König Adolf von Nassau und Herzog Albrecht von Österreich und noch vor dem ersten Auftritt Johanns von Rinberg zu Röttingen als Judenverfolger namens Rindfleisch (20.04.) setzte in den Kreisen des königstreuen Adels Schwabens und auch Frankens eine gegen die Juden gerichtete Bewegung ein - von einem "heftigen Geschrei" gegen die dem Erzbischof von Mainz und damit einem der Hauptgegner König Adolfs unterstehenden Juden der Region ist die Rede. Konkretisiert wird das "Geschrei" in einem Fall,einer Standardbeschuldigung: Die Juden hätten den Sohn eines mächtigen Adligen erdrosselt. Die wahren Hintergründe erhellen sich am Verhalten eines dieser Adligen, des Kraft von Hohenlohe, Herrn von Weikersheim und auch Röttingens. Wegen des reichspolitischen Konflikts und der Gegnerschaft des Mainzer Erzbischofs als dem Herrn der Juden wittern sie die Möglichkeit, sich ihrer Schulden bei den Juden durch deren Vernichtung zu entledigen. Aber man ist sich des Risikos politischer Wechselfälle bewußt. - So erlangt der Erzbischof von Mainz nach dem Sieg über König Adolf vom neuen König Albrecht von Habsburg das Privileg, daß ihm die Schuldforderungen der getöteten Juden, welche keine Erben haben, zufallen sollen.- Risikobewußt und zögerlich verhält sich Kraft von Hohenlohe, der zunächst Rücksprache mit dem Bischof von Würzburg hält, um danach gegen die Juden seiner Herrschaft vorgehen zu können und sich so seiner Schulden zu entledigen, was in Weikersheim auch geschah, wohingegen er die Verfolgung in Röttingen Rindfleisch überließ. Der Adel hielt Ausschau nach einem erfolgversprechenden Exekutor, hinter dem man sich verstecken konnte. Man fand ihn in der Person des Speyerer Landvogtes Johann von Rinberg, eines allseits bekannten Feindes des Mainzer Erzbischofs und zugleich eines Judenfeindes, der mit Conrad Rindfleisch einen namentlich ausgewiesenen Judenverfolger zu seinem Stellvertreter ernannt hatte. "Iussu et consensu superiorum" verfolgte Johann von Rinberg die Juden, wie die "Historiae memorabiles" bezeugen, und zwar unter einer jetzt auch beim einfachen Volk, den "arme(n) lude(n)", zugkräftigen Parole: Die Juden hätten dem Heer König Adolfs vergiftetes Rindfleisch geliefert und seien die Verursacher der sich auf Landgebiete ausbreitenden Seuche.- Während der mit dem Schlachtentod König Adolfs in Göllheim endenden Kämpfe um die Krone brach im Heer des Königs eine Seuche aus, die sich auch auf Breisach und weitere Landgebiete ausweitete. Man schrieb dies dem Genuß verdorbenen Rindfleisches zu.Johann von Rinberg machte sich dies zunutze, setzte über den Rhein , begab sich in die königsnahe Landschaft Schwabens und Frankens, um hier gegen die Juden als angeblichen Verursachern der Seuche zu hetzen. Wegen seiner Parole gab man ihm den Namen "Rindfleisch". Begrüßt vom Adel der königsnahen Landschaften und mit Zulauf aus den ärmeren Bevölkerungskreisen zogen seine Scharen die Juden mordend über das Land. Vor Würzburg scheiterte er zunächst allerdings am Widerstand des dortigen Stadtrates. In den Speyergau zurückgekehrt, schloß er sich dem jetzt linksrheinisch operierenden Heer König Adolfs an, kämpfte in der Schlacht bei Göllheim, wurde gefangengenommen, dann aber von dem neuen König Albrecht I. von Habsburg vorzeitig unter Bedingungen entlassen, mit einer Sondermission betraut, die sich inzwischen verselbständigten Judenverfolgungen in Franken kraft seines Einflusses als "capitaneus" und "rex Rintfleisch" auf diese Scharen der Judenverfolger zu beenden. In Würzburg mit seiner Mannschaft angekommen, brach Johann von Rinberg seinen dem König geleisteten Eid, wurde rückfällig, ließ die Juden der Stadt unter Beihilfe einer Bürgeropposition ermorden und startete von hier aus eine neue Verfolgungswelle. Anschließend befreite er mit einem tollkühnen Handstreich den Sohn des getöteten Königs Adolf von Nassau aus der Gefangenschaft Erzbischof Gerhards von Mainz und begab sich daraufhin in Dienst und Schutz des Nassauer Grafenhauses und Erzbischof Dieters von Trier, der ihn zu seinen "Freunden" zählte. Die Identifizierung des berüchtigten Judenverfolgers Rindfleisch des Jahres 1298 setzte bei den Quellen an, die ihn als Edelmann mit Namen de Rinberch nennen. Es konnte geklärt werden, wieso man den Edelmann de Rinberch/Rinberg auch "Rindfleisch" nannte und zwar über Ermittlungen zum Reichslandvogt im Speyergau, Johann von Rinberg und dessen Stellvertreter mit Namen Conrad Rindfleisch angesichts einer sich in der Nachbarschaft und im Operationsgebiet des königlichen Heeres ausbreitenden Seuche, die man auf den Genuß des Rindfleisches zurückführte. Die im Quellenhorizont der Wende des 13. zum 14. Jahrhundert ermittelten Träger dieses Namens wurden überprüft mit dem Ergebnis, daß nur Johann von Rinberg dieser Judenverfolger gewesen sein konnte. Die Hypothese, es könne schließlich noch weitere Rinbergs gegeben haben, die als Täter in Frage kämen, disqualifiziert sich vor diesem Hintergrund als "argumentum ex silentio"! Zu seinem "Täterprofil" paßt sein Motivationshintergrund, sein engeres familiäres und weiteres soziales und politisches Umfeld mit der Anbindung von Judenverfolgungen an die Kämpfe der Ministerialen mit ihrem Landesherrn sowie weitere Ermittlungen - keine Hypothesen sondern Indizien: Vereinbarkeit der Itinerarien Rindfleischs und Johanns von Rinberg / der Name des Stellvertreters Johanns von Rinberg im Speyergau, Conrad Rindfleisch : keine Zufälligkeit sondern Vorbildfunktion / der Vorname des nach Koblenz verzogenen Rindfleisch : Johannes / Rinbergs Mission im Auftrag König Albrechts von Habsburg gegen die Scharen der Judenverfolger und sein Rückfall, seine Konversion : nur Johann von Rinberg kam in Königsnähe hierfür in Frage, zumal sein Name in der Kombination Rint-berg Zeugnis ablegt von der Kenntnis seiner Identität als Rintfleisch (Rintfleisch / Rinberg).
Religion, churches and religious communities have growing importance in the Law of the European Union. Since long a distinct law on religion of the European Union is developing. This collection of those norms of European Union Law directly concerning religion mirrors today's status of this dynamic process.
Das Recht der Europäischen Union erfasst Religion, Kirchen und Religionsgemeinschaften in zunehmendem Maße. Längst hat sich ein eigenes und eigenständiges Religionsrecht der Europäischen Union entwickelt, ein europäisches Religionsrecht im Werden. Die Sammlung der unmittelbar einschlägigen Normen dieses europäischen Religionsrecht spiegelt den gegenwärtigen Stand eines dynamischen Prozesses.
Ausgangspunkt der vorliegenden Untersuchung sind die deutlichen Unterschiede in den Ukrainepolitiken Polens und Tschechiens. Das Erkenntnisinteresse ist, worauf diese Unterschiede im außenpolitischen Verhalten zweier Staaten, die in der Außenpolitikforschung meistens als Vertreter einer relativ homogenen Gruppe betrachtet werden, zurückzuführen sind. Die Studie geht auf Basis bisheriger konstruktivistischer Forschung zur polnischen Sicherheitspolitik von der Hypothese aus, dass dies mit kulturellen Faktoren zu tun hat, speziell der unterschiedlichen sicherheitspolitischen Bewertung der Ukraine und Osteuropas im Allgemeinen sowie unterschiedlichen ukrainepolitischen Rollenkonzeptionen, die sich hieraus ergeben. Die Fragestellung lautet daher, welche ukrainebezogenen, sicherheitspolitisch motivierten Rollenkonzeptionen sich in Polen und Tschechien nach 1989 herausgebildet haben.Zur Beantwortung dieser Fragestellung wird zunächst auf Grundlage der Forschung zur politischen und zur strategischen Kultur das Konzept der sicherheitspolitischen Kultur entwickelt und die Rollentheorie als bislang in der diesbezüglichen Forschung kaum rezipiertes Analyseinstrument vorgestellt, das aus mehreren Gründen Vorteile gegenüber anderen Ansätzen hat. Methodisch wird eine wissenssoziologische Diskursanalyse durchgeführt, die als Instrument zur Erfassung von sozial konstruierter Wirklichkeit dient, sich aufgrund derselben metatheoretischen Grundlagen hervorragend in das Modell sicherheitspolitischer Kultur einfügt und daher für eine Analyse der Entstehung von Rollenkonzeptionen geeignet ist. Die Untersuchung ergibt, dass in Polen die Bedrohungskonstruktion einer möglichen Wiederkehr des russischen Imperiums zentral ist und eine unabhängige, stabilisierte Ukraine als Schutz hiergegen aufgefasst wird. Die sich ergebenden ukrainepolitischen Rollenkonzeptionen sind Teil eines weitgehend konsensuellen Komplexes sicherheitspolitischer Rollenkonzeptionen, die abgesehen von rollenspezifischen sicherheitspolitischen Zielen auch zentral durch die Bedrohungskonstruktion der politischen Marginalisierung motiviert und daher häufig als Führungsrollen charakterisierbar sind. Tschechien zeichnet sich hingegen durch das weitgehende Fehlen einer Bedrohungskonstruktion des russischen Imperialismus aus, stattdessen wird die Ukraine stärker als Quelle von Gefahren konstruiert. Zudem ist die sicherheitspolitische Kultur Tschechiens von einer konzeptionellen Unterkomplexität, einem Mangel an Konsens, einer Konstruktion Tschechiens als machtloser Akteur sowie einer Unterordnung der Außenpolitik unter innenpolitische Fragen gekennzeichnet. Daher fehlen im tschechischen Falle nicht nur jegliche ukrainepolitische Rollenkonzeptionen, es ist grundsätzlich ein Mangel an klaren Vorstellungen darüber festzustellen, welche Rollen Tschechien in der internationalen Politik spielen soll.
Copositive programming is concerned with the problem of optimizing a linear function over the copositive cone, or its dual, the completely positive cone. It is an active field of research and has received a growing amount of attention in recent years. This is because many combinatorial as well as quadratic problems can be formulated as copositive optimization problems. The complexity of these problems is then moved entirely to the cone constraint, showing that general copositive programs are hard to solve. A better understanding of the copositive and the completely positive cone can therefore help in solving (certain classes of) quadratic problems. In this thesis, several aspects of copositive programming are considered. We start by studying the problem of computing the projection of a given matrix onto the copositive and the completely positive cone. These projections can be used to compute factorizations of completely positive matrices. As a second application, we use them to construct cutting planes to separate a matrix from the completely positive cone. Besides the cuts based on copositive projections, we will study another approach to separate a triangle-free doubly nonnegative matrix from the completely positive cone. A special focus is on copositive and completely positive programs that arise as reformulations of quadratic optimization problems. Among those we start by studying the standard quadratic optimization problem. We will show that for several classes of objective functions, the relaxation resulting from replacing the copositive or the completely positive cone in the conic reformulation by a tractable cone is exact. Based on these results, we develop two algorithms for solving standard quadratic optimization problems and discuss numerical results. The methods presented cannot immediately be adapted to general quadratic optimization problems. This is illustrated with examples.
Krylov subspace methods are often used to solve large-scale linear equations arising from optimization problems involving partial differential equations (PDEs). Appropriate preconditioning is vital for designing efficient iterative solvers of this type. This research consists of two parts. In the first part, we compare two different kinds of preconditioners for a conjugate gradient (CG) solver attacking one partial integro-differential equation (PIDE) in finance, both theoretically and numerically. An analysis on mesh independence and rate of convergence of the CG solver is included. The knowledge of preconditioning the PIDE is applied to a relevant optimization problem. The second part aims at developing a new preconditioning technique by embedding reduced order models of nonlinear PDEs, which are generated by proper orthogonal decomposition (POD), into deflated Krylov subspace algorithms in solving corresponding optimization problems. Numerical results are reported for a series of test problems.
In a paper of 1996 the british mathematician Graham R. Allan posed the question, whether the product of two stable elements is again stable. Here stability describes the solvability of a certain infinite system of equations. Using a method from the theory of homological algebra, it is proved that in the case of topological algebras with multiplicative webs, and thus in all common locally convex topological algebras that occur in standard analysis, the answer of Allan's question is affirmative.
Im querschnittlichen Vergleich zwischen 10- bis 18-jährigen Mädchen mit Major Depression und gleichaltrigen gesunden Probandinnen wiesen die depressiven Mädchen mehr Probleme, mehr körperliche und psychische Stresssymptome, erhöhte Cortisolsekretion sowie eine ungünstigere Stressverarbeitung auf. Im Längsschnitt zeigte sich die Bedeutsamkeit von psychischer Stressbelastung und der Einfluss von Bewältigungsstrategien auf den Verlauf der Depression.
Design and structural optimization has become a very important field in industrial applications over the last years. Due to economical and ecological reasons, the efficient use of material is of highly industrial interest. Therefore, computational tools based on optimization theory have been developed and studied in the last decades. In this work, different structural optimization methods are considered. Special attention lies on the applicability to three-dimensional, large-scale, multiphysic problems, which arise from different areas of the industry. Based on the theory of PDE-constraint optimization, descent methods in structural optimization require knowledge of the (partial) derivatives with respect to shape or topology variations. Therefore, shape and topology sensitivity analysis is introduced and the connection between both sensitivities is given by the Topological-Shape Sensitivity Method. This method leads to a systematic procedure to compute the topological derivative by terms of the shape sensitivity. Due to the framework of moving boundaries in structural optimization, different interface tracking techniques are presented. If the topology of the domain is preserved during the optimization process, explicit interface tracking techniques, combined with mesh-deformation, are used to capture the interface. This techniques fit very well the requirements in classical shape optimization. Otherwise, an implicit representation of the interface is of advantage if the optimal topology is unknown. In this case, the level set method is combined with the concept of the topological derivative to deal with topological perturbation. The resulting methods are applied to different industrial problems. On the one hand, interface shape optimization for solid bodies subject to a transient heat-up phase governed by both linear elasticity and thermal stresses is considered. Therefore, the shape calculus is applied to coupled heat and elasticity problems and a generalized compliance objective function is studied. The resulting thermo-elastic shape optimization scheme is used for compliance reduction of realistic hotplates. On the other hand, structural optimization based on the topological derivative for three-dimensional elasticity problems is observed. In order to comply typical volume constraints, a one-shot augmented Lagrangian method is proposed. Additionally, a multiphase optimization approach based on mesh-refinement is used to reduce the computational costs and the method is illustrated by classical minimum compliance problems. Finally, the topology optimization algorithm is applied to aero-elastic problems and numerical results are presented.