Refine
Year of publication
- 2013 (47) (remove)
Document Type
- Doctoral Thesis (35)
- Book (5)
- Other (4)
- Article (2)
- Working Paper (1)
Language
- German (27)
- English (16)
- Multiple languages (3)
- French (1)
Keywords
- Europäische Union (4)
- Kirche (4)
- Law of the European Union (4)
- Optimierung (4)
- Recht der Europäischen Union (4)
- Religion (4)
- Religionsgemeinschaft (4)
- Religionsgemeinschaften (4)
- Religionsrecht (4)
- Stress (4)
Institute
- Raum- und Umweltwissenschaften (11)
- Mathematik (8)
- Rechtswissenschaft (8)
- Psychologie (5)
- Soziologie (3)
- Wirtschaftswissenschaften (3)
- Geschichte, mittlere und neuere (2)
- Kunstgeschichte (2)
- Germanistik (1)
- Japanologie (1)
Im Zentrum der Dissertation steht der in Augsburg geborene Maler Joseph Heintz d.J. (1600-1678), der Anfang der 1620er Jahre nach Venedig auswanderte, wo er über fünfzig Jahre bis zu seinem Tod lebte und arbeitete, und zum Hauptvertreter der venezianischen Festmalerei des 17. Jahrhunderts avancierte. Der erste Teil widmet sich der Rekonstruktion der bisher nahezu unbekannten Biographie Joseph Heintz' d.J., sowie seines Kunden- und Auftraggeberkreises, und somit der sozialen Verortung des Künstlers in Venedig. Im zweiten Teil erfolgt die Analyse der Festmalerei Joseph Heintz' d.J. unter besonderer Berücksichtigung der venezianischen Festkultur als Manifestation der Staatsidentität. Heintz d.J. stellte in seinen Gemälden festliche Prozessionen und die Investiturzeremonien des Dogen ebenso dar wie weltliche Spektakel und volkstümliche Wettkämpfe. Durch die quellenbasierte Recherche, sowie die Kontextualisierung der Festgemälde, konnte eine Neubewertung Joseph Heintz" d.J. als bedeutender, gut vernetzter Künstler erfolgen, dessen Werke einen nicht zu unterschätzenden Einfluss auf die venezianischen Vedutisten des 18. Jahrhunderts hatten.
Nicht von einer Hand Fallbeispiele der künstlerischen Zusammenarbeit in der Gemäldeproduktion vom 17. bis 19. Jahrhundert Das Phänomen der künstlerischen Zusammenarbeit mehrerer Maler auf einem Bildträger wurde in den vergangenen zehn Jahren in der Forschung und in der praktischen Museumsarbeit mit immer größerem Interesse betrachtet. Das hängt mit dem generellen Wandel in der Wahrnehmung von historischen Sammlungen und der Hinterfragung von tradierten Wahrnehmungsmustern in der Kunstgeschichte zusammen. Diese Dissertation hat sich die Frage nach der Entstehung dieser Form der Zusammenarbeit in verschiedenen Regionen und deren Rezeption im 18. und 19. Jahrhundert gestellt. Wenngleich in der Forschung die Kooperationstätigkeiten einzelner Künstler zunehmend Beachtung finden, so war es mein Anliegen, das Phänomen der Kooperationspraxis umfassend anhand verschiedener Fallbeispiele zu beschreiben. In vielen Fällen können diese Beispiele ergänzt und erweitert werden. Im Kern aber bleibt die Feststellung, dass die Kooperationspraxis als künstlerische Produktionsweise eine Entwicklung vollzogen hat. Kooperationen im beschriebenen Umfang hat es immer gegeben. Die produktive Phase der niederländischen und flämischen Malerei wäre im 17. Jahrhundert nicht möglich gewesen, hätten sich vor allem in Antwerpen die Maler nicht zu Kooperationsgemeinschaften zusammengeschlossen. Die Entwicklung der Genres, der Transfer unterschiedlichster Bildthemen und Motive hängt im engen Maße mit der Kooperationstätigkeit zusammen. Entscheidend für die horizontale Kooperation, also die Kooperation unter (mehr oder minder) gleichgestellten autonomen Meistern, war die Entwicklung dieser verschiedenen Genres. Einige dieser Gattungen eigneten sich besonders gut für die Praxis der Künstlerkooperation. Sie wurden zum Teil überhaupt erst durch diesen intensiven Austausch unter den Malern so erfolgreich und konnten erst durch eine ökonomische Produktionsweise in großer Menge für den freien Kunstmarkt hergestellt werden. Bei der Gegenüberstellung der Kooperationsbedingungen in Deutschland und in den Niederlanden wurden signifikante Gründe für die unterschiedliche Entwicklung der künstlerischen Zusammenarbeit herausgestellt. Im Alten Reich unterschieden sich im 16. und 17. Jahrhundert die sozial-ökonomischen Verhältnisse deutlich von denen in den südlichen und nördlichen Niederlanden. Die Grenzen zwischen der werkstattinternen Arbeitsteilung und der Kooperation zwischen autonomen Meistern verliefen fließend. Die Entwicklung in der Arbeitsweise der Maler verlief über einen langen Zeitraum und kann nicht als homogener Entwicklungsstrang festgeschrieben werden. Waren es anfangs die herrschaftlich motivierten Ansprüche für die Ausstattung der Residenzen oder für exorbitante Memorialprojekte, welche die bekanntesten Maler an einem Projekt unter der Koordination eines Höflings wirken ließen, so ging mit dem Erstarken des freien Kunstmarktes die Künstlerkooperation mit dem Ziel einer effektiven und absatzstarken Gemäldeproduktion einher. Die Produktionsverfahren des 18. und 19. Jahrhunderts folgten, mehr und mehr politischen, gesellschaftlichen und ökonomischen Motiven, wobei die Künstlerkooperation als soziales Arbeitsmodell bestätigt wurde. Damit wurde gleichsam der Weg für Künstlergemeinschaften und Künstlerkolonien geebnet, die vor allem im 20. Jahrhundert ein globales Phänomen darstellten und das künstlerische Selbstverständnis bis zum heutigen Tag prägen.
This study examines the relationship between media content, its production, and its reception in Japanese popular culture with the example of the so-called yuri ("lily") genre that centers on representations of intimate relationships between female characters. Based on contemporary genre theory, which posits that genres are not inherent properties of texts, the central question of this study is how the yuri genre is discursively produced in Japan. To examine this question, the study takes a variety of sources into consideration: Firstly, it discusses ten exemplary texts from the 1910s to 2010s that in the Japanese discourse on the yuri genre are deemed the milestone texts of the yuri genre's historical development (Hana monogatari, Otome no minato, Secret Love, Shiroi heya no futari, BishÅjo senshi Sailor Moon, Maria-sama ga miteru, ShÅjo Sect, Aoi hana, Yuru yuri, and Yuri danshi). Secondly, interviews with ten editors working for Japanese manga magazines shed light on their assessment of the yuri genre. Finally, the results of an online survey among Japanese fans of the yuri genre, which returned 1,352 completed questionnaires, question hitherto assumptions about the fans and their reasons for liking the yuri genre. The central argument of this study is that the yuri genre is for the most part constructed not through assignments on part of the genre's producers but through interpretations on part of the genre's fans. The intimacy portrayed in the texts ranges from "friendship" to "love," and often the ideas of "innocence" and "beauty" are emphasized. Nevertheless, the formation of the yuri genre occurs outside the bounds of the texts, most importantly in fan works, i.e. derivative texts created by fans. The actual content of the originals merely serves as a starting point for these interpretations. Located at the intersection of Japanese studies, cultural studies, media studies, and sociology, this study contributes to our understanding of contemporary Japanese popular culture by showing the mutual dependencies between media content, production, and reception. It provides a deeper look at these processes through first-hand accounts of both producers and fans of the yuri genre.
In politics and economics, and thus in the official statistics, the precise estimation of indicators for small regions or parts of populations, the so-called Small Areas or domains, is discussed intensively. The design-based estimation methods currently used are mainly based on asymptotic properties and are thus reliable for large sample sizes. With small sample sizes, however, this design based considerations often do not apply, which is why special model-based estimation methods have been developed for this case - the Small Area methods. While these may be biased, they often have a smaller mean squared error (MSE) as the unbiased design based estimators. In this work both classic design-based estimation methods and model-based estimation methods are presented and compared. The focus lies on the suitability of the various methods for their use in official statistics. First theory and algorithms suitable for the required statistical models are presented, which are the basis for the subsequent model-based estimators. Sampling designs are then presented apt for Small Area applications. Based on these fundamentals, both design-based estimators and as well model-based estimation methods are developed. Particular consideration is given in this case to the area-level empirical best predictor for binomial variables. Numerical and Monte Carlo estimation methods are proposed and compared for this analytically unsolvable estimator. Furthermore, MSE estimation methods are proposed and compared. A very popular and flexible resampling method that is widely used in the field of Small Area Statistics, is the parametric bootstrap. One major drawback of this method is its high computational intensity. To mitigate this disadvantage, a variance reduction method for parametric bootstrap is proposed. On the basis of theoretical considerations the enormous potential of this proposal is proved. A Monte Carlo simulation study shows the immense variance reduction that can be achieved with this method in realistic scenarios. This can be up to 90%. This actually enables the use of parametric bootstrap in applications in official statistics. Finally, the presented estimation methods in a large Monte Carlo simulation study in a specific application for the Swiss structural survey are examined. Here problems are discussed, which are of high relevance for official statistics. These are in particular: (a) How small can the areas be without leading to inappropriate or to high precision estimates? (b) Are the accuracy specifications for the Small Area estimators reliable enough to use it for publication? (c) Do very small areas infer in the modeling of the variables of interest? Could they cause thus a deterioration of the estimates of larger and therefore more important areas? (d) How can covariates, which are in different levels of aggregation be used in an appropriate way to improve the estimates. The data basis is the Swiss census of 2001. The main results are that in the author- view, the use of small area estimators for the production of estimates for areas with very small sample sizes is advisable in spite of the modeling effort. The MSE estimates provide a useful measure of precision, but do not reach in all Small Areas the level of reliability of the variance estimates for design-based estimators.
Die Frage, wie die Lesekompetenz der Lernenden effizienter entwickelt werden kann, beschäftigt die Leseforschung im Bereich Chinesisch als Fremdsprache (ChaF) seit vielen Jahren. Bis heute werden dabei schriftstrukturelle Aspekte in den Vordergrund gestellt, so z. B. die Frage, wie den Lernenden der Aufbau der Schriftzeichen systematisch näher gebracht werden kann oder auch korpusrelevante Ansätze, die in Sammlungen hochfrequenter Schriftzeichen und Wörter ihren Niederschlag finden. So sinnvoll diese Herangehensweisen beispielsweise für die Entwicklung von Lehrwerken sind, so bleibt doch festzuhalten, dass die Wortebene (Wortschatzkenntnis und Worterkennung), die den Befunden der L1- und L2-Leseforschung zufolge der Schlüssel für das Verstehen von Texten ist, bis heute sowohl in der lesedidaktischen Diskussion als auch in den Lehrwerken stark vernachlässigt wird. In den letzten zwanzig Jahren ist von Seiten der ChaF-Leseforschung, insbesondere in den USA und in China, eine Reihe von psycholinguistischen Studien zur Entwicklung der Lesekompetenz, der Worterkennung und von Wortschatzkenntnissen sowie zur Beziehung dieser Kompetenz- und Wissensbereiche publiziert worden. Auch der Leseprozess geübter L1-Leser ist inzwischen gut erforscht. Allerdings lassen sich aus den Ergebnissen einzelner psycholinguistischer Studien, in denen unter Anwendung unterschiedlicher Forschungsparadigmen bestimmte Subprozesse des Lesens untersucht werden, nicht direkt Schlussfolgerungen für die nach kohärenten Erklärungen des Leseprozesses verlangende Lesedidaktik ziehen. Für die Entwicklung eines evidenzbasierten Ansatzes zur wortschatzzentrierten Lesevermittlung in ChaF wurde daher in der vorliegenden interdisziplinären Studie die gesamte relevante empirische Evidenz zum Lesen und zur Wortverarbeitung in ChaF kritisch im Rahmen konsensfähiger Theorien zur Sprachverarbeitung analysiert. Ergebnis dieser Analyse war, dass " ebenso wie in anderen Fremdsprachen auch " umfassende und gut vernetzte Wortschatzkenntnisse sowie eine automatisierte Worterkennung, die den zuverlässigen Abruf phonologischer Informationen mit einschließt, Grundvoraussetzungen für das fließende Lesen chinesischer Texte sind. Gleichzeitig verdeutlichen die empirischen Befunde auch, dass der Erwerb vertiefter Wortschatzkenntnisse aufgrund der sprachlichen Distanz des Chinesischen für westliche ChaF-Lernende eine große Herausforderung darstellt. Auch die Entwicklung der Worterkennung ist aufgrund der phonologischen Intransparenz der chinesischen Schrift und auch weil beim Lesen eine zusätzliche Wortsegmentierung vorgenommen werden muss, mit großen Schwierigkeiten verbunden. Im letzten Kapitel der Dissertation werden Empfehlungen für eine wortschatzzentrierte Lesedidaktik formuliert, die Ansätze aus der evidenzbasierten westlichen L2-Lesedidaktik mit der traditionellen Methode des lauten Lesens verbindet und die den Lernenden gleichzeitig die Möglichkeit bietet, im Rahmen inhaltsbezogener rezeptiver, reflexiver und produktiver Übungen aktiv mit chinesischen Wörtern umzugehen und deren Verwendung wiederholt einzuüben.
Die Arbeit setzt sich mit den theoretischen und praktischen Aspekten der Analyse und Edition eines literarisch wichtigen Textes mit Methoden der Digital Humanities sowie der Korpus- und Computerlinguistik auseinander. Als Materialgrundlage dient das luxemburgischsprachige Werk des Michel Rodange. Hierzu gehören die Werke "Renert oder de Fuuss am Frack an a Maansgréisst" - ca. 35.000 Tokens, "Dem Léiweckerche säi Lidd" - ca. 5.000 Tokens, "Dem Grof Sigfrid seng Goldkuemer" - ca. 10.000 Tokens und zwei Gedichte - ca. 500 Tokens. Auf der empirischen Seite handelt es sich um die Erstellung eines elektronischen Korpus mit historisch-kritischen und linguistischen Annotationen und dessen Darstellung im Internet als Webportal. Dabei entsteht eine Wechselwirkung zwischen Theorie und Praxis, so werden die erstellten Annotationen verwendet, um das Werk aus sprach- und literaturwissenschaftlicher Perspektive zu untersuchen; diese Erkenntnisse können dann wiederum bei der Implementierung der Tools eingesetzt werden, um den Korrektheitsgrad der automatischen Annotation zu erhöhen. Die historisch-kritischen Annotationen beinhalten beispielsweise Lesarten, Korrekturen sowie Worterklärungen, wohingegen die linguistischen Annotationen die Orthographie, Morphologie (Wortklassen und Lemmata) und Phraseologie betreffen. Die Annotationen werden in der Markup-Sprache XML kodiert. Der erste Schritt der Erstellung eines elektronischen Korpus ist die Digitalisierung der Texte. Bei den Handschriften geschah dies mithilfe einer manuellen Transkription, bei den Drucken wurde auf eine OCR-Software zurückgegriffen. Es empfiehlt sich, bereits in dieser Phase den Text gut zu strukturieren und mit Annotationen zu versehen. Dabei wurden zunächst Metadaten festgehalten. Anschließend wurden Informationen wie Seitenzahl, Zeilenumbrüche etc. als Annotationen hinzugefügt. Von besonderer Bedeutung für die Erstellung eines Korpus aus einem historisch und literarisch wichtigen Text ist jedoch seine Anreicherung mit historisch-kritischen Kommentaren. Die Untersuchung und Berücksichtigung der literarischen bzw. wissenschaftlichen Gattung historisch-kritische Edition stellt die theoretische Grundlage für solche Annotationen dar. Alle für die Editionswissenschaft relevanten Texthinweise, -bruchstücke und vom Autor durchgestrichene und gelöschte Stellen wurden dokumentiert. Bei schlecht lesbaren Stellen wurden Lesemöglichkeiten vorgeschlagen und die anderer Editionen diskutiert. Die Text Incoding Initiative (TEI) bietet eine Fülle von XML-Elementen, um solche Annotationen zu speichern. Um diese Arbeit nicht manuell ausführen zu müssen, wurde auf Tools wie TUSTEP, oXygen oder Skriptsprachen wie beispielsweise Perl zurückgegriffen. Diese können u. a. die Such- und Ersetzen-Arbeiten mithilfe der Regulären Ausdrücke bedeutend erleichtern. Den nächsten Schritt der Korpus-Erstellung stellt die Tokenisierung dar. Hierbei gehen die historisch-kritischen Annotationen in linguistische Annotationen über. Die Grenzen eines Wortes werden festgelegt und jedes Wort mit seinem eigenen Element versehen. Aus der digitalen Verarbeitung nicht wegzudenken ist dabei die Berücksichtigung und Untersuchung der Sprache des Autors. In diesem Fall wurde auf Aspekte wie die Dichtungsstile des Luxemburgischen im 19. Jahrhundert, die literarischen Gattungen der Texte sowie die Schreibung des Autors geachtet. Der empirische Anteil der Analyse mit EDV-technischen Methoden und die Speicherung der Ergebnisse als Annotationen stellt die wissenschaftliche Basis für die spätere digitale Präsentation dar. In der Arbeit werden die Ergebnisse der quantitativen und qualitativen Analyse der Sprache des Werks mithilfe von selbstimplementierten Programmen diskutiert. Dabei werden die vorhandenen Theorien sowohl der klassischen Linguistik z. B. aus der Morphologie oder der Phraseologieforschung, als auch der Korpuslinguistik besprochen und evaluiert. Die Implementierung und Ergebnisse folgender Programme für das Michel Rodange Korpus werden thematisiert: Tokeniser, FreqList, POS-Trainer, POS-Tagger, Lemmatisierer und Programme zur morphologischen und phraseologischen Analyse des Korpus. Der POS-Tagger kann die Wortarten im Korpus bestimmen. Grundlage dafür sind die sogenannten Hidden Markov Modelle, die auf der Wahrscheinlichkeitstheorie basieren. Der Lemmatisierer und das Programm zur morphologischen Analyse arbeiten hauptsächlich regelbasiert, wohingegen das Programm für die phraseologische Analyse anhand statistischer Verfahren wie dem Z-Test, dem Chi-Quadrat-Test und dem Exakten Test von Fisher implementiert wurde. So widmet sich beispielsweise Kapitel 3.4 dem Output der morphologischen Analyse und diskutiert die Wortbildung. Kapitel 3.6 beschäftigt sich mit der Interpretation der Phraseologismen. Hierbei zeigte sich, dass viele der automatisch identifizierten Phraseologismen aus Michel Rodanges Werken in der Tat ein fester Bestandteil nicht nur der luxemburgischen Sprache und Kultur sind, sondern sich auch in der gesamten westlichen Kultur wiederfinden.
The present thesis addresses the validity of Binge Eating Disorder (BED) as well as underlying mechanisms of BED from three different angles. Three studies provide data discriminating obesity with BED from obesity without BED. Study 1 demonstrates differences between obese individuals with and without BED regarding eating in the natural environment, psychiatric comorbidity, negative affect as well as self reported tendencies in eating behavior. Evidence for possible psychological mechanisms explaining increased intake of BED individuals in the natural environment was given by analyzing associations of negative affect, emotional eating, restrained eating and caloric intake in obese BED compared to NBED controls. Study 2 demonstrated stress-induced changes in the eating behavior of obese individuals with BED. The impact of a psychosocial stressor, the Trier Social Stress Test (TSST, Kirschbaum, Pirke, & Hellhammer, 1993), on behavioral patterns of eating behavior in laboratory was investigated. Special attention was given to stress-induced changes in variables that reflect mechanisms of appetite regulation in obese BED individuals compared to controls. To further explore by which mechanisms stress might trigger binge eating, study 3 investigated differences in stress-induced cortisol secretion after a socially evaluated cold pressure test (SECPT, Schwabe, Haddad, & Schachinger, 2008) in obese BED as compared to obese NBED individuals.
Vor dem Hintergrund des globalen Klimawandels stellt die energetische Verwertung von Biomasse (NaWaRo, Bioenergie) eine Option zur Minderung der globalen Treibhausgas-Emissionen dar. Im Jahr 2011 betrug der Anteil der Bioenergie am deutschen Endenergieverbrauch 8,2 %. Zur Einhaltung politischer Klimaschutzziele ist von einer Ausweitung der NaWaRo-Anbaufläche auszugehen. Aus Sicht des vorsorgenden Bodenschutzes ist dabei relevant, dass mit dem Biomasseanbau sowohl positive als auch negative Effekte für das Schutzgut Boden einhergehen können. Befürchtet werden u.a. ein weiterer Rückgang der (Boden-)Biodiversität in den Agrarlandschaften sowie eine Reduktion der organischen Kohlenstoffvorräte des Bodens (Verlust an Bodenqualität, Quelle für Treibhausgase) infolge der Intensivierung der landwirtschaftlichen Bodennutzung. Dahingegen könnten extensive Landnutzungsformen jedoch bspw. auch zu einer Förderung der Biodiversität beitragen. Für die zukünftige Ausrichtung des Biomasseanbaus ist daher eine umfassende Evaluation der vorhandenen Anbausysteme notwendig. Anhand der Energiepflanzen Raps, Mais und Miscanthus wurden im Rahmen der vorliegenden Arbeit die Effekte des Biomasseanbaus auf die für die Bodenfunktionen relevanten Schlüsselfaktoren Boden-Biodiversität und Humusgehalt ermittelt. Raps und Mais waren im Vergleich zu Miscanthus durch eine geringere Biodiversität gekennzeichnet. Langjähriger Miscanthus-Anbau führte zudem zu einer C-Akkumulation im Boden. Ein weiterer Schwerpunkt lag in der Quantifizierung der Netto-Energieerträge, der Energieeffizienz sowie des Treibhausgas-Minderungspotenzials der Anbausysteme. Alle bilanzierten Energiepflanzen-Anbausysteme erzielten Energiegewinne und führten zu einer Reduktion der Treibhausgasemissionen. Den naturwissenschaftlichen Studien schloss sich eine Analyse der gegenwärtigen Regelungen zur guten fachlichen Praxis (gfP) als zentralem Steuerungselement des vorsorgenden Bodenschutzes an. Diese diente zur Klärung der Frage, ob es hinsichtlich des Biomasseanbaus einer NaWaRo-spezifischen Konkretisierung der Grundsätzekataloge zur gfP im Recht der Landwirtschaft bedarf. Auf den Ergebnissen der natur- und rechtswissenschaftlichen Studien aufbauend wurden die mit der energetischen Verwertung von Biomasse einhergehenden Effekte auf die Schutzgüter Boden und Klima anhand des internen Zielkonfliktes des -§ 1 Abs. 3 Nr. 2 und 4 BNatSchG, welcher exemplarisch für das Spannungsfeld zwischen Landwirtschaft und Naturschutz steht, bewertet. Insgesamt ist der Ausbau der erneuerbaren Energien ein geeignetes und erforderliches Mittel zum Schutze des Klimas und der Luft. Sofern die Grundsätze der gfP zum Schutze des Bodens konsequent umgesetzt werden, muss der Anbau nachwachsender Rohstoffe zur Bioenergie-Produktion in diesem Zusammenhang als allgemein verhältnismäßig, im Besonderen aber auch als angemessene Maßnahme hinsichtlich der sonstigen Anforderungen des Bodenschutzes, angesehen werden. Den Abschluss der Arbeit bildet ein nicht als abschließend zu verstehender Katalog NaWaRo-spezifischer sowie allgemeiner Konkretisierungsvorschläge zur guten fachlichen Praxis.
In a paper of 1996 the british mathematician Graham R. Allan posed the question, whether the product of two stable elements is again stable. Here stability describes the solvability of a certain infinite system of equations. Using a method from the theory of homological algebra, it is proved that in the case of topological algebras with multiplicative webs, and thus in all common locally convex topological algebras that occur in standard analysis, the answer of Allan's question is affirmative.
Die Frage, wie und in welche Richtung sich Wohlfahrtsstaaten entwickeln ist seit gut zwei Jahrzehnten zentraler Gegenstand der wissenschaftlichen Auseinandersetzung. Insbesondere dem konservativen Wohlfahrtsstaat, zu dem u.a. Österreich und Deutschland gezählt werden, wird dabei eine gewisse Reformresistenz nachgesagt. Besonders bei der Bewältigung neuer sozialer Risiken, wie Pflegebedürftigkeit, zeigt sich, dass der Wohlfahrtsstaat an tradierten sozialstaatlichen Leitprinzipien und kulturellen Leitbildern festhält und damit die tatsächlichen Anforderungen und Bedürfnisse sich wandelnder gesellschaftlicher Verhältnisse vernachlässigt. Auf dieses institutionelle Setting ist auch die Entstehung sogenannter Grauer Pflegemärkte in konservativen Wohlfahrtsstaaten zurückzuführen. Auf diesen Grauen Pflegemärkten bieten Migrantinnen Betreuungs- und Pflegedienstleistungen an, die überwiegend unter Umgehung nationaler arbeits- und sozialrechtlicher Standards erbracht und deshalb als irregulär eingestuft werden. Versuche der Regulierung Grauer Pflegemärkte müssen deshalb beim bisherigen sozialstaatlichen institutionellen Setting der Bereitstellung formeller/informeller Betreuungsdienstleistungen in Frage gestellt werden " aus diesem Grund können sie auch Hinweise auf die Entwicklung von Wohlfahrtsstaaten geben. Gerade hier mangelt es den zahlreichen Analysen zu den Ursachen und Folgen der Entstehung Grauer Pflegemärkte die Regulierungsversuche und -diskurse in einen größeren politikübergreifenden Forschungskontext zu setzen und zu analysieren. Dieses Dissertationsprojekt setzt an dieser Forschungslücke an und geht der Frage nach, was der parlamentarische Diskurs um die Legalisierung der 24-Stunden-Betreuung über die Richtung des wohlfahrtsstaatlichen Wandels konservativer Wohlfahrtsstaaten aussagt. Hierbei werden die wohlfahrtsstaatlichen Entwicklungen der vergangenen zwei Jahrzehnte sowie die sozialpolitischen Leitprinzipien des konservativen Wohlfahrtsstaates in die Untersuchung mit einbezogen. In theoretischer Hinsicht knüpft das Vorhaben an Theorieansätze der Wissenspolitologie und Wissenssoziologie an und verbindet sie mit dem Ansatz der Theorie der sozialen Probleme. Wissenspolitologie erlaubt es wohlfahrtsstaatliche Veränderungsprozesse vor dem Hintergrund von Deutungen, Ideen oder Argumenten, also dem, was politische Akteure sagen, zu analysieren und sehen gleichzeitig hierin den Ausgangspunkt eben jener wohlfahrtsstaatlichen Veränderungsprozesse und Entwicklungen. Der wissenssoziologische Zugang in dieser Arbeit begründet sich über die Beobachtung, dass Graue Pflegemärkte rund zwanzig Jahre unbeachtet von Politik und Gesellschaft existieren konnten. Erst die Problematisierung der Grauen Pflegemärkte bzw. der auf ihnen irregulär erbrachten Betreuungsdienstleistungen ermöglichte einen Diskurs um die Frage, wie und in welchem Rahmen Betreuungsdienstleistungen zukünftig erbracht werden sollen. Insofern kann die Problematisierung als Ausgangspunkt für einen sozialpolitischen Veränderungsprozess gesehen werden. Die Analyse stützt sich dabei auf qualitative Methoden und wertet hierzu wichtige Parlamentsdebatten, Gesetzesentwürfe, Parteiendokumente sowie Zeitungsartikel die im Rahmen der Problematisierung und öffentlichen Diskussion zur Legalisierung der 24-Stunden-Betreuung geführt wurden aus. Ziel dieser Arbeit ist es, den Wandel des konservativen Wohlfahrtsstaates (1) durch das bislang wenig beachtete Politikfeld Betreuungsarbeit und Pflege zu ergänzen und (2) die Analyse um die Bedeutung von Deutungen und sozialpolitischen Leitprinzipien für sozialpolitische Reformprozesse zu erweitern.
Preisvergleiche zwischen verschiedenen Regionen spielen in zahlreichen wirtschaftlichen und politischen Zusammenhängen eine wichtige Rolle. Unabhängig davon, ob es darum geht, die Wirtschaftskraft von Regionen oder Ländern gegenüber zu stellen, die Lebensverhältnisse innerhalb eines Landes zu vergleichen, oder aber die Wirkungsweise sozial- und lohnpolitischer Entscheidungen einzuschätzen: Interregionale Preisvergleiche dienen in erster Linie als Instrument, um gesamtwirtschaftliche und ökonomische Größen zwischen verschiedenen Regionen oder Ländern real vergleichbar zu machen. Interregionale Preisvergleiche sind allgemeinhin besser bekannt als sogenannte Kaufkraftparitäten. Die enorme Bedeutung von Kaufkraftparitäten wurde in der Vergangenheit lange unterschätzt. Insbesondere bei Preisvergleichen innerhalb eines Landes mangelt es oftmals an einer soliden Datenbasis, sodass verlässliche Schätzungen regionaler Preisniveauunterschiede häufig nicht möglich sind. Die vorliegende Arbeit zeigt allerdings, dass ein breites Angebot verschiedener multilateraler Aggregationsmethoden bereit. Im Mittelpunkt des ersten Teils Arbeit steht die methodische Ausarbeitung verschiedener Aggregationsverfahren, mit deren Hilfe sich erhobene Daten zu verlässlichen und aussagekräftigen Preisvergleichskennzahlen aggregieren lassen. Im Unterschied zu intertemporalen Vergleichen sind gewöhnliche bilaterale Preisindizes für diesen Zweck nur begrenzt einsetzbar. Vielmehr sind spezielle multilaterale methodische Instrumente nötig, die den speziellen Anforderungen regionaler Preisvergleiche gerecht zu werden. Im Rahmen der Arbeit werden die verschiedenen multilateralen Aggregationsverfahren unterschiedlichen Berechnungsansätzen zugeordnet, wobei jeder dieser Ansätze durch bestimmte Eigenschaften charakterisiert ist. Neben den Mitgliedern der Klasse des Gini-Eltetö-Köves-Szulc (GEKS) und Minimum Spannning Tree (MST) Ansatzes sowie des Regressionsansatzes, widmet sich diese Arbeit schwerpunktmäßig den unterschiedlichen Verfahren des sogenannten Standardisierungsansatzes. Es stellt sich heraus, dass der Standardisierungsansatz grundsätzlich sehr dem Konstruktionsprinzip bilateraler Durchschnittswertindizes (GUV-Indizes) ähnelt, weshalb sich die Mitglieder dieser Klasse auch als multilaterale GUV-Indizes auffassen lassen. Darüber hinaus wird eine neue Unterklasse des Standardisierungsansatzes definiert, deren Mitglieder die breite Palette bereits existierender Verfahren ergänzen. Allerdings wird den Aggregationsverfahren des Standardisierungsansatzes nachgesagt, unter den Auswirkungen des sogenannten Gerschenkron-Effekts zu leiden und im Gegensatz zu anderen Aggregationsverfahren häufig verzerrte Preisvergleiche hervorzubringen. Der zweite Teil der Arbeit ist einem empirischen Vergleich der zuvor erörterten Aggregationsverfahren vorbehalten. Grundlage für die Berechnungen (auf und unterhalb der elementaren Güterebene) sind Daten des Europäischen Vergleichsprogramms (EVP). Eine wichtige Erkenntnis des empirischen Teils der Arbeit ist, dass viele der unterschiedlichen Aggregationsmethoden für die Berechnungen auf der Elementarebene sehr ähnliche Ergebnisse für die Preisvergleiche zwischen den Ländern im EVP generieren. Die Sorge verzerrter Preisvergleiche infolge der Auswirkungen des Gerschenkron-Effektes lässt sich auf Grundlage der empirischen Untersuchungen nicht (zweifelsfrei) bestätigen. Ferner zeigen die empirischen Untersuchungen, dass weitaus größere Schwierigkeiten bei der Berechnung von Preisvergleichen unterhalb der Elementarebene bestehen. Die Berechnungen offenbaren, dass die häufig in der Praxis eingesetzten Verfahren der GEKS-Methode in Situationen, in denen nur wenige Daten vorhanden sind, keine plausiblen Ergebnisse liefern. Es stellt sich heraus, dass in diesen Fällen die Verfahren des Regressionsansatzes eine unkompliziertere und verlässlichere Berechnung von Preisvergleichen erlauben. Nichtsdestotrotz decken die Ergebnisse schonungslos die Probleme und Schwächen interregionaler Preisvergleiche auf. Trotz intensiver Anstrengungen der internationalen statistischen Organisationen, eine vergleichbare und fundierte Datenbasis zu schaffen, sind die Dateninformationen einiger Regionen bzw. Länder nach wie vor sehr lückenhaft. Da verlässliche und aussagekräftige Preisvergleiche im Wesentlichen von der Verfügbarkeit und der Qualität der Daten abhängig sind, sollte der Forschungsschwerpunkt zukünftig daher mehr an der Bereitstellung eines soliden Datenfundaments ausgerichtet werden.
Spätestens seit dem Start ihrer zweiten Filmserie im Spätsommer 1912 war die dänische Schauspielerin Asta Nielsen ein gefeierter Filmstar. Auch in Prag hatte sich Asta Nielsen zu dieser Zeit mit ihren Langspielfilmen bereits ein beträchtliches Maß an Bekannt- und Beliebtheit "erspielt", welches die örtlichen Kinobetreiber werbestrategisch nutzten. Anhand der Werbeannoncen für die Asta-Nielsen-Filme, welche die Prager Kinobetreiber während der Kinosaisons 1910/1911 und 1911/1912 im Prager Tagblatt schalteten, zeichnet diese Arbeit nach, wie die anfangs unbekannte Schauspielerin Asta Nielsen in Prag allmählich zum Filmstar aufgebaut und etabliert wurde.rnAls Werbeträger rückt der Name der Hauptdarstellerin zunehmend in den Fokus dieser lokalen Kinoannoncen. In den ersten Werbeanzeigen für Filme mit Asta Nielsen in der Hauptrolle wird er nicht oder nur im Kleingedruckten erwähnt. Spätestens seit dem Start ihrer ersten Filmserie in Prag zur Saison 1911/1912 fungiert "Asta Nielsen" durchgehend als fettgedruckter Blickfänger. Ihr Name verdrängt und ersetzt andere, anfangs noch als Sensationen beworbene Attribute der Asta-Nielsen-Filme wie die lange Vorführungsdauer, das alleinige Aufführungsrecht oder den Autor und Regisseur Urban Gad. Die auf den Star zentrierte Werbestrategie gipfelt darin, dass einzelne Voranzeigen gänzlich auf den Filmtitel verzichten. Sie werben nicht mehr in erster Linie für den Film, sondern für den Auftritt des Filmstars. Sie werben für eine Erfolg versprechende Marke - Asta Nielsen.rn
Die Notwendigkeit einer ökologischen Aufwertung kleiner urbaner Gewässer und damit einer effektiven Siedlungswasserwirtschaft ist in den Fokus gerückt und wurde zum Bestandteil der Wasserrahmenrichtlinie ( 2000/60/EG). Die Zunahme von Regenwassermanagementsystemen und die Renaturierung kanalisierter Gewässerabschnitte führt zu einer Integration von Flüssen und Bächen in das städtische Umfeld. Diese Arbeit fokussiert die zeitlich hochaufgelöste Analyse des Stofftransports während Abflussereignissen in mesoskaligen Einzugsgebieten. Es wird untersucht, ob die Landnutzung und die Entwässerungssysteme von Siedlungsflächen, die Abflusssdynamik und die Stoffkonzentrationen beeinflussen. Beleuchtet wird, inwieweit naturnahe Regenwassermanagementsysteme in Siedlungsgebieten den natürlichen Wasserhaushalt erhalten und eine Gewässerbelastung reduzieren. Untersucht werden die Schadstoffdynamiken und -frachten dreier verschiedener Einzugsgebiete, ähnlich hinsichtlich Einzugsgebietsgröße, Topographie und klimatischen Bedingungen, aber unterschiedlich in Landnutzung und Entwässerungssystemen. Darüber hinaus wird der Einfluss der Ableitungsart des Regenwassers aus den Siedlungsgebieten auf die Abflussdynamik und die Schadstoffverlagerung auf unterschiedlichen Skalen untersucht. Abflussganglinien und Chemographen aller Gewässer zeigen große Schwankungen während und zwischen Hochwasserereignissen. Kurzfristige Konzentrationen sind sehr hoch und können nur mittels zeitlich hochaufgelöster Beprobung bestimmt werden. Frachten und mittlere Ereigniskonzentrationen weisen eine hohe Variabilität in Abhängigkeit von vorangehenden hydro-klimatischen Bedingungen auf. Erhöhte Schadstoffkonzentrationen treten in einem ländlich geprägten Einzugsgebiet in Verbindung mit Regenfällen durch Remobilisierung von Schadstoffen aus der Kanalisation auf. In einem städtisch geprägten Vorfluter sind Schadstoffbelastungen mit dem Basisabfluss aufgrund sanitärer Fehlanschlüsse und Kläranlageneinleitungen das ganze Jahr über bedeutsam. Ein biologischer Test zur Bestimmung östrogener Aktivität zeigt, dass die Toxizität von der Kläranlagentechnologie und deren Elimination östrogener Wirkstoffe abhängt. Saisonale Effekte, durch steigende östrogene Aktivität im Sommer und abnehmende Aktivität im Winter aufgrund der Verdünnung durch Boden- und Grundwasser, konnten beobachtet werden. Dezentrale Regenrückhalte führen zum Erhalt des quasi-natürlichen Wasserhaushaltes und zur Dämpfung von Abflussspitzen im Vorfluter. Die Beprobung der Zuläufe und des Ablaufes einer Retentionsfläche zeigt die Reduktion der Maximalkonzentrationen sowie der jährlichen Frachten von Xenobiotika. Mit zunehmender Einzugsgebietsgröße nimmt die Anzahl und Diversität der Entwässerungssysteme zu. Die Skalenabhängigkeit der Gewässerbelastung ergibt sich aus dem Vorhandensein und Zusammenwirken von Misch- und Trennkanalisationen, sowie Regenwassermanagementsysteme, und Kläranlageneinläufen. Vor allem Mischwasserkanalüberläufe führen zu einer hydraulischen Belastung sowie zu hohen Momentankonzentrationen der Xenobiotika. Regenwassermanagementsysteme tragen zu einer deutlichen Reduktion der chemischen und hydraulischen Belastung des Gewässers bei. Dies führt zu einer Entlastung der Vorfluter und zu einem besseren ökologischen Zustand, wie durch die Wasserrahmenrichtlinie gefordert.
Handeln in der Organisation Schule - Eine Fallstudie zur Selbstgestaltung der Realschule plus unter Einbezug politischer Rahmenbedingungen. Die in der rheinland-pfälzischen Schulstrukturreform von 2008 festgelegte Einführung der Realschule plus und damit verbundene schulische Fusionierungsprozesse wurden in der vorliegenden Dissertation mittels eines qualitativen Methodenmixes fallanalytisch untersucht. Im Zentrum stand dabei zum einen die Beleuchtung der schulischen Binnenstruktur, zum anderen wurde der Frage nachgegangen, welche Handlungsspielräume bzw. Entwicklungsstrategien zur individuellen Selbstgestaltung die einzelne Schule für sich erarbeiten kann. Forschungsleitend ist dabei der Befund aus schulübergreifenden Untersuchungen der "Agentur für Qualitätssicherung, Evaluation und Selbstständigkeit von Schulen" (AQS) gewesen, der besagt, dass sich unterschiedliche Schularten insgesamt nur wenig voneinander unterscheiden, jedoch die Differenzen zwischen einzelnen Schulen eine ausgedehnte Vielfalt aufweisen und im Kontext einzelschulischer Qualitätsentwicklung eine Fülle unterschiedlicher Merkmale und Handlungsstrategien offenbaren. Zur Operationalisierung sind dementsprechend folgende Forschungsfragen formuliert worden: Inwieweit gelingt es politische Rahmenbedingungen zum Schultyp der Realschule plus umzusetzen? Wie wird schulische Selbstverwaltung als Programmatik von Schulentwicklung verstanden? Welche Handlungsmuster und -strategien der Beteiligten können in diesem Zusammenhang herausgearbeitet werden? Abschließend wurde der Versuch unternommen, Handlungsempfehlungen aus den wichtigsten Ergebnissen der Arbeit abzuleiten, die aus Sicht der Verfasserin eine Relevanz für einen möglichst positiven Vollzug der gegenwärtigen Reformbemühungen besitzen.
A big challenge for agriculture in the 21st century is the provision of food safety to fast growing world- population, which not only demands the well utilisation of the available agricultural resources but also to develop new advancements in the mass production of food crops. Wheat is the third largest food crop of the world and Pakistan is the eighth largest wheat producing country globally. Rice is the second most important staple food of Pakistan after wheat, grown in all provinces of the country. Maize is the world- top ranking food crop followed by wheat and rice. The harvested produts have to be stored in different types of storage structures on small or large scale for food as well as seed purpose. In Pakistan, the harvested grains are stored for the whole year till the introduction of fresh produce in order to ensure the regular food supply throughout the year. However, it is this extended storage period making the commodity more vulnerable to insect attacks. Rhyzopertha dominica (Coleoptera: Bostrychidae), Cryptolestes ferrugineus (Coleoptera: Laemophloeidae), Tribolium castaneum (Coleoptera: Tenebrionidae) and Liposcelis spp. (Psocoptera: Liposcelididae) are the major and most damaging insect pests of stored products all around the world. Various management strategies have been adopted for stored grain insect pests mostly relying upon the use of a broad spectrum of insecticides, but the injudicious use of these chemicals raised various environmental and human health related issues, which necessitate the safe use of the prevailing control measures and evaluation of new and alternative control methods. The application of new chemical insecticides, microbial insecticides (particularly entomopathogenic fungi) and the use of inert dusts (diatomaceous earths) is believed amongst the potential alternatives to generally used insecticides in stored grain insect management system. In the current investigations, laboratory bioassays conducted to evaluate the effects of combining Imidacloprid (new chemistry insecticide) with and without Protect-It (diatomaceous earth formulation) against R. dominica, L. paeta, C. ferrugineus and T. castaneum, on three different grain commodities (i.e. wheat, maize and rice) revealed differences in adult mortality levels among grains and insect species tested. Individually, Imidacloprid was more effective as compared with Protect-It alone and the highest numbers of dead adults were recorded in wheat. The insecticidal efficacy of B. bassiana with Protect-It and DEBBM was also assessed against all test insect species under laboratory conditions. The findings of these studies revealed that the more extended exposure period and the higher combined application rate of B. bassiana and DEs provided the highest mortality of the test insect species. The progeny emergence of each insect species was also greatly suppressed where the highest dose rates of the combined treatments were applied. The residual efficacy of all three control measures Imidacloprid, B. bassiana and DEBBM formulation was also evaluated against all test insect species. The bioassays were carried out after grain treatments and monthly for 6 months. The results indicated that the adult mortality of each test insect species was decreased within the six month storage period, and the integarted application of the test grain protectants enhanced the mortality rates than their alone treatments. The maximum mortality was noted in the combined treatment of DEBBM with Imidacloprid. At the end, the effectiveness of B. bassiana, DEBBM and Imidacloprid applied alone as well as in combinations, against all above mentioned test insect species was also evaluated under field conditions in trials conducted in four districts of Punjab, Pakistan. For each district, a significant difference was observed between treatments, while the combined treatments gave better control of test species as compared with them alone. The least number of surviving adults and minimum percentage of grain damage was observed for the DEBBM and Imidacloprid combination, but DEBBM with B. bassiana provided the best long-term protection as compared with the remaining treatments.
This work investigates the industrial applicability of graphics and stream processors in the field of fluid simulations. For this purpose, an explicit Runge-Kutta discontinuous Galerkin method in arbitrarily high order is implemented completely for the hardware architecture of GPUs. The same functionality is simultaneously realized for CPUs and compared to GPUs. Explicit time steppings as well as established implicit methods are under consideration for the CPU. This work aims at the simulation of inviscid, transsonic flows over the ONERA M6 wing. The discontinuities which typically arise in hyperbolic equations are treated with an artificial viscosity approach. It is further investigated how this approach fits into the explicit time stepping and works together with the special architecture of the GPU. Since the treatment of artificial viscosity is close to the simulation of the Navier-Stokes equations, it is reviewed how GPU-accelerated methods could be applied for computing viscous flows. This work is based on a nodal discontinuous Galerkin approach for linear hyperbolic problems. Here, it is extended to non-linear problems, which makes the application of numerical quadrature obligatory. Moreover, the representation of complex geometries is realized using isoparametric mappings. Higher order methods are typically very sensitive with respect to boundaries which are not properly resolved. For this purpose, an approach is presented which fits straight-sided DG meshes to curved geometries which are described by NURBS surfaces. The mesh is modeled as an elastic body and deformed according to the solution of closest point problems in order to minimize the gap to the original spline surface. The sensitivity with respect to geometry representations is reviewed in the end of this work in the context of shape optimization. Here, the aerodynamic drag of the ONERA M6 wing is minimized according to the shape gradient which is implicitly smoothed within the mesh deformation approach. In this context a comparison to the classical Laplace-Beltrami operator is made in a Stokes flow situation.
Chemical communication in the reproductive behaviour of Neotropical poison frogs (Dendrobatidae)
(2013)
Chemical communication is the evolutionary oldest communication system in the animal kingdom that triggers intra- and interspecific interactions. It is initiated by the emitter releasing either a signal or a cue that causes a reaction of the receiving individual. Compared to other animals there are relatively few studies regarding chemical communication in anurans. In this thesis the impact of chemical communication on the behaviour of the poison frog Ranitomeya variabilis (Dendrobatidae) and its parental care performance was investigated. This species uses phytotelmata (small water bodies in plants) for both clutch and tadpole depositions. Since tadpoles are cannibalistic, adult frogs do not only avoid conspecifics when depositing their eggs but also transport their tadpoles individually into separated phytotelmata. The recognition of already occupied phytotelmata was shown to be due to chemical substances released by the conspecific tadpoles. In order to gain a deeper comprehension about the ability of adult R. variabilis to generally recognize and avoid tadpoles, in-situ pool choice experiments were conducted, offering chemical substances of tadpole of different species to the frogs (Chapter I). It turned out that they were able to recognize all species and avoid their chemical substances for clutch depositions. However, for tadpole depositions only dendrobatid tadpoles occurring in phytotelmata were avoided, while those species living in rivers were not. Additionally, the chemical substances of a treefrog tadpole (Hylidae) were recognized by R. variabilis. Yet, they were not avoided but preferred for tadpole depositions; thus these tadpoles might be recognized as a potential prey for the predatory poison frog larvae. One of the poison frog species which was avoided for both tadpole and clutch depositions, was the phytotelmata breeding Hyloxalus azureiventris. The chemical substances released by its tadpoles were analysed together with those of the R. variabilis tadpoles (Chapter II). After finding a suitable solid-phase extraction sorbent (DSC-18), the active chemical compounds from the water of both tadpole species were extracted and fractionated. In order to determine which fractions triggered the avoidance behaviour of the frogs, in-situ bioassays were conducted. It was found that the biologically active compounds differed between both species. Since the avoidance of the conspecific tadpoles is not advantageous to the releaser tadpoles (losing a potential food resource) the chemicals released by them might be defined as chemical cues. However, as it turned out that the avoidance of the heterospecific tadpoles was not triggered by a mere byproduct based on the close evolutionary relationship between the two species, the chemical compounds released by H. azureiventris tadpoles might be defined as chemical signals (being advantageous to the releasing tadpoles) or, more specifically as synomones, interspecificly acting chemicals that are advantageous for both emitter and receiver (since R. variabilis avoids a competition situation for its offspring, too). Another interspecific communication system investigated in this thesis was the avoidance of predator kairomones (Chapter III). Using chemical substances from damselfly larvae, it could be shown that R. variabilis was unable to recognize and avoid kairomones of these tadpole predators. However, when physically present, damselfly larvae were avoided by the frogs. For the recognition of conspecific tadpoles in contrast, chemical substances were necessary, since purely visible artificial tadpole models were not avoided. If R. variabilis is also capable to chemically communicate with adult conspecifics was investigated by presenting chemical cues/signals of same-sex or opposite-sex conspecifics to the frogs (Chapter IV). It was suggested that males would be attracted to chemical substances of females and repelled by those of conspecific males. But instead all individuals showed avoidance behaviour towards the conspecific chemicals. This was suggested to be an artefact due to confinement stress of the releaser animals, emitting disturbance cues that triggered avoidance behaviour in their conspecifics. The knowledge gained about chemical communication in parental care thus far, was used to further investigate a possible provisioning behaviour in R. variabilis. In-situ pool-choice experiments with chemical cues of conspecific tadpoles were carried out throughout the change from rainy to dry season (Chapter V). With a changepoint analysis, the exact seasonal change was defined and differences between frogs" choices were analysed. It turned out that R. variabilis does not avoid but prefer conspecific cues during the dry season for tadpole depositions, what might be interpreted as a way to provide their tadpoles with food (i.e. younger tadpoles) in order to accelerate their development when facing desiccation risk. That tadpoles were also occasionally fed with fertilized eggs could be shown in a comparative study, where phytotelmata that contained a tadpole deposited by the frogs themselves received more clutch depositions than freshly erected artificial phytotelmata containing unfamiliar tadpoles (i.e. their chemical cues; Chapter VI). Conducting home range calculations with ArcGIS, it turned out that R. variabilis males showed unexpectedly strong site fidelity, leading to the suggestion that they recognize their offspring by phytotelmata location. However, in order to test if R. variabilis is furthermore able to perform chemical offspring recognition, frogs were confronted in in-situ pool-choice experiments with chemical cues of single tadpoles that were found in their home ranges (Chapter VII). Genetic kinship analyses were conducted between those tadpoles emitting the chemical cues and those deposited together with or next to them. The results, however, indicated that frogs did not choose to deposit their offspring with or without another tadpole due to relatedness, i.e. kin recognition by chemical cues could not be confirmed in R. variabilis.
Der Aufbau einer Klassifikation von Einzugsgebieten (EZG) auf Basis des Abflussverhaltens und der Gebietseigenschaften sowie die Regionalisierung von Abflussparametern sind Kernthemen der Hydrologie. Die Ziele dieser Arbeit sind der Aufbau einer Klassifikation für EZGs mit hoher räumlicher Auflösung nach dem Abflussverhalten und der Gebietseigenschaften, die Identifikation abflussrelevanter, physiogeografischer und klimatischer Gebietseigenschaften und die Regionalisierung von Abflussverhalten und Modellparametern auf Basis von Klassifikationen. Dabei wird untersucht, ob sich 53 häufig benachbarte und z.T. ineinander geschachtelte Einzugsgebiete in Rheinland-Pfalz für eine Klassifikation eignen und wie das Abflussverhalten für die Beurteilung von Ähnlichkeiten beschrieben werden kann. Das Abflussverhalten der EZGs wird mit einer großen Anzahl von Ereignis-Abflussbeiwerten je EZG und Abflussdauerlinien (Flow-Duration Curves) der EZGs beschrieben, die das Abflussverhalten umfassend und mit einer ausreichenden Trennschärfe abbilden. Gebietseigenschaften, die das Abflussgeschehen dieser EZG dominieren, sind langjährige, mittlere Niederschlagssummen, die mittlere potentielle Verdunstung, die Topografie und die Speichermöglichkeiten im EZG. Für den Aufbau und die Anwendung der EZG-Klassifikationen wird ein hierfür entwickeltes Verfahren eingesetzt, dass auf Selbstorganisierenden Merkmalskarten (Self-Organizing Maps, SOM) basiert. Vorteile dieses Verfahrens gegenüber vielen konventionellen Verfahren sind Qualitätsmaße, die datenbasierte Bestimmung wichtiger Parameter, aussagestarke Visualisierungen der Ergebnisse und die Klassifikation und Regionalisierung mit einer Methode. Die Auswertung von zwei separaten Klassifikationen, nach dem Abflussverhalten und nach den physiogeografischen und klimatischen Gebietseigenschaften, stellen einen direkten Zusammenhang zwischen Abfluss- und Gebietseigenschaften her. Der Überschneidungsbereich der beiden Klassifikationen ist die Grundlage für die Übertragung von Abflussinformationen auf unbeobachtete Gebiete (Regionalisierung). Die Ergebnisse zeigen, dass die Methode der Clusteranalyse, Klassifikation und Regionalisierung mit SOM und den genannten Abfluss- und Gebietskennwerten geeignet ist, EZGs mit einer hohen räumlichen Auflösung treffend und detailliert zu klassifizieren sowie Abflussparameter zu regionalisieren.
Global change, i.e. climate and land use changes, severely impact natural ecosystems at different scales. Poikilothermic animals as butterflies, amphibians and reptiles have proven to be useful indicators for global change impacts as their phenology, spatial distribution, individual fitness and survival strongly depend on external environmental factors. In this aspect, phenological changes in terms of advanced flight or breeding periods, immigrations of foreign species, range shifts concomitant with temperature increases and even local population declines have been observed in both species groups. However, to date much attention has been paid to global change impacts on the species or population level and analyses concerning entire ecosystems are scarce. Applying a novel statistical modelling algorithm we assessed future changes in the extent and composition of terrestrial ecoregions as classified by the World Wide Fund for Nature (WWF). They are defined as coarse-scale conservation units containing exceptional assemblages of species and ecological dynamics. Our results demonstrate dramatic geographical changes in the extent and location of these ecoregions across all continents and even imply a repriorisation of conservation efforts to cope with future climate change impacts on biodiversity. On the local scale, climate change impacts become unequivocal. Comparing historical to contemporary butterfly assemblages on vineyard fallows of the Trier Region, a significant decline in butterfly richness, but also a severe depletion in trait diversity was observed. Comparisons of community temperature indices reveal a striking shift in community composition leading to a replacement of sedentary and monophagous habitat specialists by ubiquitous species. Similar changes have been observed in nature reserves in the Saar-Mosel-area. Monitoring data reveal strong losses of species diversity and remarkable shifts of community compositions at the expense of habitat specialists. Besides climatic variability, these findings are largely attributed to changes in habitat structures, mostly due to eutrophication and monotonisation. Management activities are unlikely to counterbalance these effects, thus severely questioning current conservation strategies. Most dramatic global change impacts are suspected on closely associated species and disruptions of biotic interactions are often hold responsible for species declines. A strong host-parasite association has developed in Myrmica ants and Maculinea butterflies, the later crucially depending on specific host ants for their larval survival. Applying environmental niche models we determined considerable niche dynamics in the observed parasite-host relation with a pronounced niche plasticity in the butterfly species adapting to previous evasive niche shifts in their host ants. Moreover, the new emergence of species continuously expanding their northernmost range borders concomitant with global warming like the Short-tailed blue (Cupido argiades) is attributed to climate change. However, species distribution models predict a severe habitat loss and shifts of potentially suitable habitats of this species towards north-eastern Europe and higher altitudes under several IPCC scenarios making the presence of this species in the Trier region a contemporary phenomenon. Species distribution models have emerged as powerful tools to predict species distributions over spatial and temporal scales. However, not only the presence of a species, but also its abundance have significant implications for species conservation. The ability to deduce spatial abundance patterns from environmental suitability might more efficiently guide field surveys or monitoring programs over large geographical areas saving time and money. Although the application of species distribution models to deduce vertebrate abundances is well recognized, our results indicate that this method is not an adequate approach to predict invertebrate abundances. Structural and ecological factors as well as climatic patterns acting at the microscale are key drivers of invertebrate occurrence and abundances limiting conclusions drawn from modeling approaches. Population declines should be interpreted with care as in butterflies and amphibians various reasons are debated. Both species groups are acknowledged to be highly susceptible to land use changes and variations in landscape structure. Moreover, climate and land use are not independently operating factors. The combined impact of both is demonstrated in our study linking climate-driven changes in amphibian phenologies to temporal advanced applications of pesticides and fertilizers. Both environmental factors already represent severe threats to amphibians when standing alone, but linking their combined impacts may result in an potentiated risk for amphibian populations. As all amphibians and numerous butterfly species are legally protected under the Federal Nature Conservation Act, intensifications of agricultural land use in large parts of Germany as well as new agrarian practices (including genetically manipulated plants accompanied by new herbicide technologies) might severely challenge regional conservation activities in the future.
The Hadamard product of two holomorphic functions which is defined via a convolution integral constitutes a generalization of the Hadamard product of two power series which is obtained by pointwise multiplying their coefficients. Based on the integral representation mentioned above, an associative law for this convolution is shown. The main purpose of this thesis is the examination of the linear and continuous Hadamard convolution operators. These operators map between spaces of holomorphic functions and send - with a fixed function phi - a function f to the convolution of phi and f. The transposed operator is computed and turns out to be a Hadamard convolution operator, too, mapping between spaces of germs of holomorphic functions. The kernel of Hadamard convolution operators is investigated and necessary and sufficient conditions for those operators to be injective or to have dense range are given. In case that the domain of holomorphy of the function phi allows a Mellin transform of phi, certain (generalized) monomials are identified as eigenfunctions of the corresponding operator. By means of this result and some extract of the theory of growth of entire functions, further propositions concerning the injectivity, the denseness of the range or the surjectivity of Hadamard convolution operators are shown. The relationship between Hadamard convolution operators, operators which are defined via the convolution with an analytic functional and differential operators of infinite order is investigated and the results which are obtained in the thesis are put into the research context. The thesis ends with an application of the results to the approximation of holomorphic functions by lacunary polynomials. On the one hand, the question under which conditions lacunary polynomials are dense in the space of all holomorphic functions is investigated and on the other hand, the rate of approximation is considered. In this context, a result corresponding to the Bernstein-Walsh theorem is formulated.
Die Arbeit thematisiert die Weiterentwicklung des touristischen Angebots der Deutschen Bahn, das derzeit über den Reiseveranstaltervertrieb am Markt platziert wird. Kunden, die im Reisebüro oder Internet eine Städtereise über ihren Veranstalter buchen, erhalten mit dem RIT (Rail Inclusive Tours)-Angebot ein spezielles Kooperationsticket für ihre Zugfahrt. Im ersten Abschnitt der Arbeit wird zunächst auf die Besonderheiten des Dienstleistungsbereichs inklusive Auswirkungen auf die Angebotsgestaltung von Unternehmen eingegangen. In diesem Zusammenhang werden Hintergründe von Kundenzufriedenheit und Kundenbindung skizziert sowie deren Wechselwirkungen dargestellt. Über die Einordnung der Deutschen Bahn als Dienstleistungsunternehmen im Schienenpersonenfernverkehr wird deren Positionierung im zunehmenden Wettbewerbsmarkt in einer Umfeldanalyse erarbeitet und die Bedeutsamkeit für den Unternehmenserfolg aufgezeigt. Der praktische Teil der Arbeit befasst sich mit den Befragungsergebnissen von Bestandskunden in der fokussierten Zielgruppe der Städtereisenden. Neben der Analyse von Nutzerstruktur, Reisegewohnheiten und alternativer Verkehrsmittelwahl, werden Kundenzufriedenheiten und Wichtigkeiten einzelner Leistungsbestandteile der Bahnreise näher betrachtet. Durch die Identifizierung von Kundensegmenten lassen sich Ansatzpunkte für die Weiterentwicklung des Angebots ableiten, die eine Attraktivitätssteigerung der Bahnfahrt herbeiführen und die Kundenzufriedenheit nachhaltig erhöhen können. Einbindung von Essensgutscheinen, das Angebot von Kuriergepäck oder die Integration des City-Tickets sind denkbare, nutzensteigernde Maßnahmen für die Anreisealternative Bahnfahrt. Weiterer Forschungsbedarf für die betrachtete Zielgruppe besteht in der Erfassung von Hinderungsgründen für eine bevorzugte Bahnwahl in der Verkehrsmittelentscheidung. Darüber hinaus ist das Potenzial für eine Einbindung solcher Services zu erfassen, die sich auf Seiten der Reiseveranstalter in ein Leistungspaket integrieren lassen, um weitere Indikatoren zur Attraktivitätssteigerung der Bahnfahrt ableiten zu können. Zusammenfassend stellt die Arbeit eine Analyse der skizzierten Zielgruppe der Städtereisenden der Deutschen Bahn über den Veranstaltervertrieb dar und liefert einen Beitrag, der die Ableitung einiger relevanter Handlungsempfehlungen erlaubt. Denn nur durch attraktive Angebote und die Erzielung einer hohen Kundenzufriedenheit kann sich die Bahn als bevorzugtes Transportmittel behaupten und neue Kunden für die Zugfahrt begeistern.
Copositive programming is concerned with the problem of optimizing a linear function over the copositive cone, or its dual, the completely positive cone. It is an active field of research and has received a growing amount of attention in recent years. This is because many combinatorial as well as quadratic problems can be formulated as copositive optimization problems. The complexity of these problems is then moved entirely to the cone constraint, showing that general copositive programs are hard to solve. A better understanding of the copositive and the completely positive cone can therefore help in solving (certain classes of) quadratic problems. In this thesis, several aspects of copositive programming are considered. We start by studying the problem of computing the projection of a given matrix onto the copositive and the completely positive cone. These projections can be used to compute factorizations of completely positive matrices. As a second application, we use them to construct cutting planes to separate a matrix from the completely positive cone. Besides the cuts based on copositive projections, we will study another approach to separate a triangle-free doubly nonnegative matrix from the completely positive cone. A special focus is on copositive and completely positive programs that arise as reformulations of quadratic optimization problems. Among those we start by studying the standard quadratic optimization problem. We will show that for several classes of objective functions, the relaxation resulting from replacing the copositive or the completely positive cone in the conic reformulation by a tractable cone is exact. Based on these results, we develop two algorithms for solving standard quadratic optimization problems and discuss numerical results. The methods presented cannot immediately be adapted to general quadratic optimization problems. This is illustrated with examples.
Die Zweckbestimmung der modernen Clustertheorie liegt in der Analyse regional-sektoraler Verbundsysteme von ökonomischen Aktivitäten. Erst seit kurzem wird der Versuch einer Übertragung auf touristische Destinationen in Entwicklungsländern unternommen. Die vorliegende Dissertation untersucht theoretische, methodische und praktische Implikationen dieser Übertragung anhand des Fallbeispiels der touristischen Clusterentwicklung in der Napo-Provinz Ecuadors. Hierbei stehen insbesondere die Rahmenbedingungen für die Genese wissensbasierter (kompetitiver) Wettbewerbsvorteile als Quelle der Clusterdynamik im Zentrum. Anhand einer quantitativen Methodik wird in diesem Rahmen sowohl ein Nachweis zur Gültigkeit eines vorab abgeleiteten Clusterentwicklungsmodells geführt, als auch auf dieser Grundlage ein Beitrag zur Verbesserung bestehender Diagnosesysteme geleistet.
Cortisol exhibits typical ultradian and circadian rhythm and disturbances in its secretory pattern have been described in stress-related pathology. The aim of this thesis was to dissect the underlying structure of cortisol pulsatility and to develop tools to investigate the effects of this pulsatility on immune cell trafficking and the responsiveness of the neuroendocrine system and GR target genes to stress. Deconvolution modeling was set up as a tool for investigation of the pulsatile secretion underlying the ultradian cortisol rhythm. This further allowed us to investigate the role of the single cortisol pulses on the immune cell trafficking and the role of induced cortisol pulses on the kinetics of expression of GR target genes. The development of these three tools, would allow to induce and investigate in future the significance of single cortisol pulses for health and disease.
Design and structural optimization has become a very important field in industrial applications over the last years. Due to economical and ecological reasons, the efficient use of material is of highly industrial interest. Therefore, computational tools based on optimization theory have been developed and studied in the last decades. In this work, different structural optimization methods are considered. Special attention lies on the applicability to three-dimensional, large-scale, multiphysic problems, which arise from different areas of the industry. Based on the theory of PDE-constraint optimization, descent methods in structural optimization require knowledge of the (partial) derivatives with respect to shape or topology variations. Therefore, shape and topology sensitivity analysis is introduced and the connection between both sensitivities is given by the Topological-Shape Sensitivity Method. This method leads to a systematic procedure to compute the topological derivative by terms of the shape sensitivity. Due to the framework of moving boundaries in structural optimization, different interface tracking techniques are presented. If the topology of the domain is preserved during the optimization process, explicit interface tracking techniques, combined with mesh-deformation, are used to capture the interface. This techniques fit very well the requirements in classical shape optimization. Otherwise, an implicit representation of the interface is of advantage if the optimal topology is unknown. In this case, the level set method is combined with the concept of the topological derivative to deal with topological perturbation. The resulting methods are applied to different industrial problems. On the one hand, interface shape optimization for solid bodies subject to a transient heat-up phase governed by both linear elasticity and thermal stresses is considered. Therefore, the shape calculus is applied to coupled heat and elasticity problems and a generalized compliance objective function is studied. The resulting thermo-elastic shape optimization scheme is used for compliance reduction of realistic hotplates. On the other hand, structural optimization based on the topological derivative for three-dimensional elasticity problems is observed. In order to comply typical volume constraints, a one-shot augmented Lagrangian method is proposed. Additionally, a multiphase optimization approach based on mesh-refinement is used to reduce the computational costs and the method is illustrated by classical minimum compliance problems. Finally, the topology optimization algorithm is applied to aero-elastic problems and numerical results are presented.
The startle response in psychophysiological research: modulating effects of contextual parameters
(2013)
Startle reactions are fast, reflexive, and defensive responses which protect the body from injury in the face of imminent danger. The underlying reflex is basic and can be found in many species. Even though it consists of only a few synapses located in the brain stem, the startle reflex offers a valuable research method for human affective, cognitive, and psychological research. This is because of moderating effects of higher mental processes such as attention and emotion on the response magnitude: affective foreground stimulation and directed attention are validated paradigms in startle-related research. This work presents findings from three independent research studies that deal with (1) the application of the established "affective modulation of startle"-paradigm to the novel setting of attractiveness and human mating preferences, (2) the question of how different components of the startle response are affected by a physiological stressor and (3) how startle stimuli affect visual attention towards emotional stimuli. While the first two studies treat the startle response as a dependent variable by measuring its response magnitude, the third study uses startle stimuli as an experimental manipulation and investigates its potential effects on a behavioural measure. The first chapter of this thesis describes the basic mechanisms of the startle response as well as the body of research that sets the foundation of startle research in psychophysiology. It provides the rationale for the presented studies, and offers a short summary of the obtained results. Chapter two to four represent primary research articles that are published or in press. At the beginning of each chapter the contribution of all authors is explained. The references for all chapters are listed at the end of this thesis. The overall scope of this thesis is to show how the human startle response is modulated by a variety of factors, such as the attractiveness of a potential mating partner or the exposure to a stressor. In conclusion, the magnitude of the startle response can serve as a measure for such psychological states and processes. Beyond the involuntary, physiological startle reflex, startle stimuli also affect intentional behavioural responses, which we could demonstrate for eye movements in a visual attention paradigm.
Ziel der Studie war es, die Wirksamkeit zweier psychotherapeutischer Mikrointerventionen zur Emotionsregulation und zur progressiven Relaxation und die damit einhergehenden Veränderungen auf psychometrischer und elektrokortikaler Ebene zu untersuchen. Die Stichprobe bestand aus 65 klinischen Versuchspersonen der Warteliste der Poliklinischen Psychotherapieambulanz der Universität Trier. In einer EEG-Erhebung vor und nach den Mikrointerventionen wurden neben dem Ruhe-EEG ereigniskorrelierte Potentiale (EKPs) aufgezeichnet. Im EKP-Paradigma wurden die Probanden instruiert negativ-valente Bilder aus dem IAPS-System entweder anzuschauen oder die gezeigte Situation kognitiv zu einer weniger negativen Interpretation der Bilder umzudeuten. Nach der EEG-Aufzeichnung wurden die Probanden randomisiert einer standardisierten 90-minütigen psychotherapeutischen Intervention zum kognitiven Reframing bzw. zur progressiven Relaxation zugewiesen. Im Anschluss wurde die EEG-Erhebung mit dem Ruhe-EEG und dem EKP mit einem parallelisierten Pool negativ valenter Bilder erneut durchgeführt. Auf psychometrischer Ebene wurde u.a. der positive und negative Affekt mit dem PANAS im Verlauf der Untersuchung zu insgesamt vier Messzeitpunkten erfasst. Neben dem Alpha-Frequenzband des Ruhe-EEGs wurde bei den EKPs die P3 und das Späte Positive Potential (LPP) untersucht. Die Ergebnisse geben Hinweise darauf, dass die psychotherapeutischen Mikrointerventionen zu differentiellen Effekten auf psychometrischer und elektrokortikaler Ebene führten. Auf der psychometrischen Ebene zeigte sich bei den Teilnehmern der Entspannungsintervention direkt nach der Intervention eine Abnahme des negativen Affekts, während sich dies bei den Teilnehmern der Reframing-Intervention erst im Verlauf der zweiten EEG-Messung mit dem Umdeuten der negativ valenten Bilder zeigte. Auf der elektrokortikalen Ebene waren die Ergebnisse weniger einheitlich. Durch die Entspannungs-Intervention konnte im Verlauf der Untersuchung eine Zunahme der P3-Amplituden festgestellt werden, während die Reframing-Teilnehmer über die Messzeitpunkte eine Abnahme der P3-Amplituden aufwiesen. Dies könnte so interpretiert werden, dass durch das Erlernen des Reframings das emotionale Arousal reduziert werden konnte. Bei dem LPP waren hingegen keine differentiellen Effekte der Mikrointerventionen nachweisbar. Bei beiden Interventionen kam es zu einer Zunahme der LPP-Amplituden. Bei der Analyse der Alpha-Aktivität des Ruhe-EEGs wurde bei den Entspannungs-Teilnehmern im Vergleich zu den Reframing-Teilnehmern nach der Mikrointervention eine größere Alpha-Aktivität gefunden. Diese Unterschiede wurden am deutlichsten in der linken Hemisphäre sowie in den zentralen und parietalen Hirnregionen. Eine höhere Alpha-Aktivität geht mit einer niedrigeren kortikalen Aktivität einher, so dass man davon ausgehen kann, dass die Entspannungs-Teilnehmer diese Hirnregionen während der Intervention weniger ausgeprägt nutzten. Zusammenfassend geben die Befunde erste Hinweise auf eine differentielle Wirkung der beiden Mikrointerventionen.
Die in einem Einzugsgebiet herrschende räumliche Inhomogenität wird im Wasserhaushaltsmodell LARSIM (Large Area Runoff Simulation Modell) in den einzelnen Modellkomponenten unterschiedlich stark berücksichtigt. Insbesondere die räumliche Verteilung der Abflussprozesse wurde bisher nicht berücksichtigt, weil keine flächenhaft verfügbare Information über eben diese Verteilung vorlag. Für das Einzugsgebiet der Nahe liegt nun seit dem Jahr 2007 eine Bodenhydrologische Karte vor, die flächenhaft den bei ausreichenden Niederschlägen zu erwartenden Abflussprozess ausweist. In der vorliegenden Dissertation wird die Nutzung dieser Prozessinformation bei der Parametrisierung des Bodenmoduls von LARSIM beschrieben: Für drei Prozessgruppen " gesättigter Oberflächenabfluss, Abfluss im Boden, Tiefenversickerung " werden mittels zweier neuer Parameter P_Bilanz und P_Dämpfung inhomogene Parametersätze aus empirisch ermittelten Kennfeldern gewählt, um die Prozessinformation bei der Abflussbildung im Modell zu berücksichtigen. Für die Abbildung der Prozessintensitäten in den Gebietsspeichern werden zwei unterschiedliche Ansätze vorgestellt, die sich in ihrer Komplexität unterscheiden. In der ersten Variante werden fünf Oberflächenabflussspeicher für unterschiedlich schnell reagierende Prozessgruppen eingeführt, in der zweiten Variante wird der erste Ansatz mit dem ursprünglichen Schwellenwert zur Aufteilung in schnelle und langsame Oberflächenabflusskomponenten kombiniert. Es wird gezeigt, dass die Parametrisierung mit den beiden neuen Parametern P_Bilanz und P_Dämpfung einfacher, effektiver und effizienter ist, da beide Parameter minimale Interaktionen aufweisen und in ihrer Wirkungsweise leicht verständlich sind, was auf die ursprünglichen Bodenparameter nicht zutrifft. Es wird ein Arbeitsfluss vorgestellt, in dem die neuen Parameter in Kombination mit Signature Measures und unterschiedlichen Darstellungen der Abflussdauerlinie gemeinsam genutzt werden können, um in wenigen Arbeitsschritten eine Anpassung des Modells in neuen Einzugsgebieten vorzunehmen. Die Methode wurde durch Anwendung in drei Gebieten validiert. In den drei Gebieten konnte in wenigen Kalibrierungsschritten die Simulationsgüte der ursprünglichen Version erreicht und " je nach Zielsetzung " übertroffen werden. Hinsichtlich der Gütemaße zeigte sich bei der Variante, in der die Gebietsspeicher nicht modifiziert wurden, aber kein eindeutiges Bild, ob die ursprüngliche Parametrisierung oder die neue grundsätzlich überlegen ist. Neben der Auswertung der Validierungszeiträume wurden dabei auch die simulierten Ganglinien in geschachtelten Gebieten betrachtet. Die Version, in der die Gebietsspeicher modifiziert wurden, zeigt hingegen vor allem im Validierungszeitraum tendenziell bessere Simulationsergebnisse. Hinsichtlich der Abbildung der Abflussprozesse ist das neue Verfahren dem alten deutlich überlegen: Es resultiert in plausiblen Anteilen von Abflusskomponenten, deren Verteilung und Abhängigkeit von Speicherkapazitäten, Landnutzungen und Eingangsdaten systematisch ausgewertet wurden. Es zeigte sich, dass vor allem die Speicherkapazität des Bodens einen signifikanten Einfluss hat, der aber im hydrologischen Sinn richtig und hinsichtlich der Modellannahmen plausibel ist. Es wird deutlich gemacht, dass die Einschränkungen, die sich ergeben haben, aufgrund der Modellannahmen zustande kommen, und dass ohne die Änderung dieser Annahmen keine bessere Abbildung möglich ist. Für die Zukunft werden Möglichkeiten aufgezeigt, wie die Annahmen modifiziert werden können, um eine bessere Abbildung zu erzielen, indem der bereits bestehende Infiltrationsansatz in die Methode integriert wird.
Ausgangspunkt der vorliegenden Untersuchung sind die deutlichen Unterschiede in den Ukrainepolitiken Polens und Tschechiens. Das Erkenntnisinteresse ist, worauf diese Unterschiede im außenpolitischen Verhalten zweier Staaten, die in der Außenpolitikforschung meistens als Vertreter einer relativ homogenen Gruppe betrachtet werden, zurückzuführen sind. Die Studie geht auf Basis bisheriger konstruktivistischer Forschung zur polnischen Sicherheitspolitik von der Hypothese aus, dass dies mit kulturellen Faktoren zu tun hat, speziell der unterschiedlichen sicherheitspolitischen Bewertung der Ukraine und Osteuropas im Allgemeinen sowie unterschiedlichen ukrainepolitischen Rollenkonzeptionen, die sich hieraus ergeben. Die Fragestellung lautet daher, welche ukrainebezogenen, sicherheitspolitisch motivierten Rollenkonzeptionen sich in Polen und Tschechien nach 1989 herausgebildet haben.Zur Beantwortung dieser Fragestellung wird zunächst auf Grundlage der Forschung zur politischen und zur strategischen Kultur das Konzept der sicherheitspolitischen Kultur entwickelt und die Rollentheorie als bislang in der diesbezüglichen Forschung kaum rezipiertes Analyseinstrument vorgestellt, das aus mehreren Gründen Vorteile gegenüber anderen Ansätzen hat. Methodisch wird eine wissenssoziologische Diskursanalyse durchgeführt, die als Instrument zur Erfassung von sozial konstruierter Wirklichkeit dient, sich aufgrund derselben metatheoretischen Grundlagen hervorragend in das Modell sicherheitspolitischer Kultur einfügt und daher für eine Analyse der Entstehung von Rollenkonzeptionen geeignet ist. Die Untersuchung ergibt, dass in Polen die Bedrohungskonstruktion einer möglichen Wiederkehr des russischen Imperiums zentral ist und eine unabhängige, stabilisierte Ukraine als Schutz hiergegen aufgefasst wird. Die sich ergebenden ukrainepolitischen Rollenkonzeptionen sind Teil eines weitgehend konsensuellen Komplexes sicherheitspolitischer Rollenkonzeptionen, die abgesehen von rollenspezifischen sicherheitspolitischen Zielen auch zentral durch die Bedrohungskonstruktion der politischen Marginalisierung motiviert und daher häufig als Führungsrollen charakterisierbar sind. Tschechien zeichnet sich hingegen durch das weitgehende Fehlen einer Bedrohungskonstruktion des russischen Imperialismus aus, stattdessen wird die Ukraine stärker als Quelle von Gefahren konstruiert. Zudem ist die sicherheitspolitische Kultur Tschechiens von einer konzeptionellen Unterkomplexität, einem Mangel an Konsens, einer Konstruktion Tschechiens als machtloser Akteur sowie einer Unterordnung der Außenpolitik unter innenpolitische Fragen gekennzeichnet. Daher fehlen im tschechischen Falle nicht nur jegliche ukrainepolitische Rollenkonzeptionen, es ist grundsätzlich ein Mangel an klaren Vorstellungen darüber festzustellen, welche Rollen Tschechien in der internationalen Politik spielen soll.
In der Welt existieren zahlreiche Institutionen zur Verteidigung der Menschenrechte. Besonderes Interesse verdient dabei eine relativ neue Möglichkeit zur Wahrung dieser Rechte " das Amt des Bürgerbeauftragten. In Bulgarien sind die ersten derartigen Institutionen 1998 als Projekt auf Gemeindeebene ins Leben gerufen worden. Seit 2003 sind die Institutionen eines Ombudsmanns auf nationaler Ebene sowie eines gesellschaftlichen Vermittlers auf Gemeindeebene gesetzlich geregelt. Die wesentliche Aufgabe der Bürgerbeauftragten ist die Annahme von Bürgerbeschwerden über Verletzungen ihrer Rechte durch die Staats- oder Gemeindeverwaltung. Der Bürgerbeauftragte in Bulgarien stellt eine demokratische Garantie zur Wahrung der Menschenrechte sowie zur weiteren Entwicklung des Rechtsstaates dar.
In his article, the author asks how legitimacy of law and the concept of rules of law can be described taking into account the interaction between aspects of philosophy and sociology as well as the will of the state in states' constitutions. As the rule of law, versus other kinds of rules in our society, should be regarded as a rule of "three-dimensionality" " an interaction between the will of the state, the social, historical, and economic factors, and the idea or concept of justice ", the author focuses his interest on the examination of these three factors always taking into account that law is the will of the state, but that not every decision of the state can be considered as law.
Kommt die Scharia auch in Deutschland zur Anwendung oder wäre die Inkorporation bestimmter Teile der Scharia in deutsches Recht zumindest wünschenswert? Könnte Großbritannien hier Vorbild sein, wo Schlichtungsgerichte für muslimische Streitparteien ebenso wie die staatlicherseits anerkannten Schariagerichtshöfe fest etabliert sind? Und wie sind islamische Friedensrichter in Deutschland zu bewerten, die vielerorts eine vermittelnde Rolle zwischen muslimischen Tätern und deutschen Strafverfolgungsbehörden übernehmen? Schiedssprüche zwischen Konfliktparteien gleich welcher Religionszugehörigkeit können nur dann als vorteilhaft beurteilt werden, wenn sie geeignete, rechtstreue, ausgebildete Personen durchführen, die nach rechtsstaatlichen Prinzipien urteilen und der gerichtlichen Kontrolle unterliegen. Schiedsverfahren dürften traditionellem Schariarecht nicht folgen, da es in seiner klassischen Auslegung staatlichem Recht widerspricht und ebenso wie das Operieren von "Friedensrichtern" integrationshemmend wirkt.
In der modernen Survey-Statistik treten immer häufifiger Optimierungsprobleme auf, die es zu lösen gilt. Diese sind oft von hoher Dimension und Simulationsstudien erfordern das mehrmalige Lösen dieser Optimierungsprobleme. Um dies in angemessener Zeit durchführen zu können, sind spezielle Algorithmen und Lösungsansätze erforderlich, welche in dieser Arbeit entwickelt und untersucht werden. Bei den Optimierungsproblemen handelt es sich zum einen um Allokationsprobleme zur Bestimmung optimaler Teilstichprobenumfänge. Hierbei werden neben auf einem Nullstellenproblem basierende, stetige Lösungsmethoden auch ganzzahlige, auf der Greedy-Idee basierende Lösungsmethoden untersucht und die sich ergebenden Optimallösungen miteinander verglichen.Zum anderen beschäftigt sich diese Arbeit mit verschiedenen Kalibrierungsproblemen. Hierzu wird ein alternativer Lösungsansatz zu den bisher praktizierten Methoden vorgestellt. Dieser macht das Lösen eines nichtglatten Nullstellenproblemes erforderlich, was mittels desrnnichtglatten Newton Verfahrens erfolgt. Im Zusammenhang mit nichtglatten Optimierungsalgorithmen spielt die Schrittweitensteuerung eine große Rolle. Hierzu wird ein allgemeiner Ansatz zur nichtmonotonen Schrittweitensteuerung bei Bouligand-differenzierbaren Funktionen betrachtet. Neben der klassischen Kalibrierung wird ferner ein Kalibrierungsproblem zur kohärenten Small Area Schätzung unter relaxierten Nebenbedingungen und zusätzlicher Beschränkung der Variation der Designgewichte betrachtet. Dieses Problem lässt sich in ein hochdimensionales quadratisches Optimierungsproblem umwandeln, welches die Verwendung von Lösern für dünn besetzte Optimierungsprobleme erfordert.Die in dieser Arbeit betrachteten numerischen Probleme können beispielsweise bei Zensen auftreten. In diesem Zusammenhang werden die vorgestellten Ansätze abschließend in Simulationsstudien auf eine mögliche Anwendung auf den Zensus 2011 untersucht, die im Rahmen des Zensus-Stichprobenforschungsprojektes untersucht wurden.
In this thesis, global surrogate models for responses of expensive simulations are investigated. Computational fluid dynamics (CFD) have become an indispensable tool in the aircraft industry. But simulations of realistic aircraft configurations remain challenging and computationally expensive despite the sustained advances in computing power. With the demand for numerous simulations to describe the behavior of an output quantity over a design space, the need for surrogate models arises. They are easy to evaluate and approximate quantities of interest of a computer code. Only a few number of evaluations of the simulation are stored for determining the behavior of the response over a whole range of the input parameter domain. The Kriging method is capable of interpolating highly nonlinear, deterministic functions based on scattered datasets. Using correlation functions, distinct sensitivities of the response with respect to the input parameters can be considered automatically. Kriging can be extended to incorporate not only evaluations of the simulation, but also gradient information, which is called gradient-enhanced Kriging. Adaptive sampling strategies can generate more efficient surrogate models. Contrary to traditional one-stage approaches, the surrogate model is built step-by-step. In every stage of an adaptive process, the current surrogate is assessed in order to determine new sample locations, where the response is evaluated and the new samples are added to the existing set of samples. In this way, the sampling strategy learns about the behavior of the response and a problem-specific design is generated. Critical regions of the input parameter space are identified automatically and sampled more densely for reproducing the response's behavior correctly. The number of required expensive simulations is decreased considerably. All these approaches treat the response itself more or less as an unknown output of a black-box. A new approach is motivated by the assumption that for a predefined problem class, the behavior of the response is not arbitrary, but rather related to other instances of the mutual problem class. In CFD, for example, responses of aerodynamic coefficients share structural similarities for different airfoil geometries. The goal is to identify the similarities in a database of responses via principal component analysis and to use them for a generic surrogate model. Characteristic structures of the problem class can be used for increasing the approximation quality in new test cases. Traditional approaches still require a large number of response evaluations, in order to achieve a globally high approximation quality. Validating the generic surrogate model for industrial relevant test cases shows that they generate efficient surrogates, which are more accurate than common interpolations. Thus practical, i.e. affordable surrogates are possible already for moderate sample sizes. So far, interpolation problems were regarded as separate problems. The new approach uses the structural similarities of a mutual problem class innovatively for surrogate modeling. Concepts from response surface methods, variable-fidelity modeling, design of experiments, image registration and statistical shape analysis are connected in an interdisciplinary way. Generic surrogate modeling is not restricted to aerodynamic simulation. It can be applied, whenever expensive simulations can be assigned to a larger problem class, in which structural similarities are expected.
Im querschnittlichen Vergleich zwischen 10- bis 18-jährigen Mädchen mit Major Depression und gleichaltrigen gesunden Probandinnen wiesen die depressiven Mädchen mehr Probleme, mehr körperliche und psychische Stresssymptome, erhöhte Cortisolsekretion sowie eine ungünstigere Stressverarbeitung auf. Im Längsschnitt zeigte sich die Bedeutsamkeit von psychischer Stressbelastung und der Einfluss von Bewältigungsstrategien auf den Verlauf der Depression.
Im Leistungssport ist ein gesunder Körper die Hauptvoraussetzung für das Erbringen sportlicher Höchstleistungen. Allerdings müssen Leistungssportler tagtäglich in Training und Wettkampf gesundheitliche Risiken eingehen. Aus diesem Dilemma wird ein Trilemma, sobald es sich um jugendliche Leistungssportler handelt, da das Jugendalter mit all den Veränderungen auf psychischer, physischer und sozialer Ebene, die es mit sich bringt, häufig das Einstiegsalter für gesundheitsrelevante Risikoverhaltensweisen wie den Konsum von Alkohol, Tabak und Marihuana bildet. Diese können zusätzlich Auswirkungen auf die Gesundheit und damit das Erbringen sportlicher Leistung haben. Aus diesem Grund war es das Ziel dieser Dissertation, das gesundheitsrelevante Risikoverhalten und die subjektive Gesundheit in der speziellen Gruppe jugendlicher Leistungssportler zu untersuchen, mit einer jugendlicher Referenzstichprobe bestehend aus Nicht-Leistungssportlern zu vergleichen und assoziierte Determinanten - sowohl individueller als auch kontextueller Natur - zu identifizieren. Dazu wurden im Rahmen der GOAL Study (German Young Olympic Athletes" Lifestyle and Health Management Study) 1.138 jugendliche Leistungssportler aller olympischer Disziplinen schriftlich befragt. Ausgewertet wurden neben der subjektiven Gesundheit der Konsum von Alkohol, Tabak und Marihuana, das Ernährungsverhalten und die Nutzung von Nahrungsergänzungsmitteln. Als Vergleichspopulation wurde der KiGGS (Kinder- und Jugendgesundheitssurvey) des Robert Koch-Instituts herangezogen. Es zeigte sich, dass jugendliche Leistungssportler zwar selten rauchten (3%) oder Marihuana konsumierten (3%), aber dass sie durchaus Alkohol zu sich nahmen (86%) und insbesondere Binge Drinking betrieben (24%). Bezüglich des Rauchverhaltens, des Konsums von Marihuana und des Jemalskonsums von Alkohol zeigten sie jedoch niedrigere Prävalenzen als jugendliche Nicht-Leistungssportler. Bei der Ernährung der Athleten ergaben sich teilweise Defizite. Lediglich 52% der Athleten nahmen täglich eine Auswahl an vitamin- und ballaststoffreichen Nahrungsmitteln zu sich, jedoch waren dies mehr als in der Referenzpopulation. Neun von zehn Athleten nutzten Nahrungsergänzungsmittel, davon konsumierten rund 30% täglich Supplemente. Die Mehrheit der Athleten bezeichnete ihre Gesundheit als gut oder sehr gut (89%), was einem größeren Anteil entspricht als in der Referenzgruppe (86%). Es fanden sich eine Vielzahl an individuellen und kontextuellen Determinanten mit den einzelnen Risikoverhaltensweisen und der subjektiven Gesundheit verknüpft. Insgesamt lässt sich festhalten, dass Beratung und Aufklärung bezüglich der einzelnen Risikoverhaltensweisen immens wichtig erscheinen. Beispiele für bestehenden Aufklärungsbedarf sind der übermäßige Alkoholkonsum, welcher Auswirkungen auf die Leistungsfähigkeit haben kann, die Einnahme von Nahrungsergänzungsmitteln wie Kreatin, welche für Jugendliche nicht unbedenklich ist, und der häufig vorliegende nicht-tägliche Konsum von vitamin- und ballaststoffreichen Lebensmitteln, welcher wichtig für eine adäquate Ernährung ist. Daher sollten bereits Athleten in niedrigeren Kaderstufen Experten (z. B. Ernährungsberater) zur Seite gestellt werden. Aber nicht nur die Athleten sollten besser geschult werden sondern auch deren Trainer, Betreuer und Eltern, die allesamt wichtige Bezugspersonen darstellen.
Bei synthetischen Simulationsgesamtheiten handelt es sich um künstlichernDaten, die zur Nachbildung von realen Phänomenen in Simulationen verwendetrnwerden. In der vorliegenden Arbeit werden Anforderungen und Methoden zur Erzeugung dieser Daten vorgestellt. Anhand von drei Beispielen wird gezeigt, wie erzeugte synthetische Daten in einer Simulation zur Anwendung kommen.
Politische Leitlinien Graf Heinrichs (1288-1304) 1.Phase: 1288-1297 Während der Konsolidierungsphase nach der desaströsen Niederlage zu Worringen (1288-1297) galt es, die bestehenden Herrschaftsrechte der Grafschaft zu sichern, zumal der junge Graf noch minderjährig war. Als politische Maßnahmen und Verhaltungsmaximen während dieser Phase sind hervorzuheben: 1) die Hochzeit des jungen Grafen mit einer Tochter des Siegers von Worringen, des Herzogs von Brabant, 2) Doppelvasallität zum deutschen und französischen König infolge eines Fidelitätsvertrages mit König Philipp von Frankreich. Diese Doppelvasallität ermöglichte politischen Attentismus, Neutralität im englisch/deutsch - französischen Krieg. Die Verpflichtung zur Verteidigung des französischen Königreiches fiel wegen der expansiven Politik König Philipps nicht ins Gewicht. Doppelvasallität verschafft außerdem Rückendeckung bei künftigen regionalen Konflikten, begünstigt politisches Lavieren zwischen den Königsherrschaften ohne sich deren Gegnerschaft einzuhandeln. 3) eine konservative zur Rechtsbewahrung und mit Rechtsansprüchen untermauerte Grundhaltung. Sie sichert zunächst nicht nur die bestehenden Herrschaftsrechte ab sondern schafft zugleich die Grundlage expansiver Politikmöglichkeiten hinsichtlich historischer Rechte mit einer Alternativen im Gefolge: a) die diplomatische Konfliktlösung, b) die kriegerische, gewaltsame Entscheidung. 2.Phase: 1298 - 1304 X 10 Reichspolitische Vorgänge aktivieren Phase 1.3), eine expansive politische Zielsetzung und deren Beendigungsprozeß. Doppelvasallität schließt Krieg oder auch Parteinahme gegen einen der Könige oder für den einen gegen den anderen König in der Regel aus, aber der deutsche Thronstreit zwischen Adolf von Nassau und Albrecht von Habsburg schuf eine besondere Ausgangslage mit Möglichkeiten und Risiken, die es gegenseitig abzuwägen galt. Graf Heinrichs Parteinahme für den gewählten Gegenkönig Albrecht von Habsburg würde ihm, bei einem Sieg Albrechts, eine neue politische Perspektive im Rahmen seiner Doppelvasallität eröffnen, die ihm wegen des politischen Gegensatzes beider Könige bisher zur Neutralität, zum Attentismus zwang. Jetzt würde ihm bei beiderseitigem königlichem Einvernehmen ein politischer Handlungsspielraum möglich sein mit gestärktem Rückhalt bei den Königen. Das Risiko einer Niederlage des Gegenkönigs konnte er eingehen, denn dann bliebe ihm immer noch der Rückhalt im französischen Königtum. Die auf der Seite König Adolfs stehenden Trierer nutzten die Abwesenheit des zur Entscheidungsschlacht bei Göllheim abgerückten Grafen, um in dessen Grafschaft einzufallen und dabei einen Zollturm auf einer Moselinsel unterhalb Grevenmachers zu zerstören, da sie die Rechtmäßigkeit der dortigen Geleitzollerhebung bestritten. Diese Provokation entschied darüber, wo Graf Heinrichs "neue Politik" nach dem Sieg Albrechts von Habsburg ansetzen, gegen wen sie sich richten würde - gegen Trier. Aber der Graf geht diplomatisch geschickt vor, reagiert nach seiner Rückkehr erstaunlich konziliant, befreit die Bürger durch Vermittlung des Grafen von Looz von der Geleitzollerhebung bei Grevenmacher, akzeptiert folglich deren Behauptung, die Zollerhebung sei unrechtmäßig erfolgt, jedoch mit einem Hintergedanken: Im Gegenzug erwartet er von den Bürgern ebenfalls Entgegenkommen, die Anerkennung einer jährlichen vogteilichen Abgeltungssteuer, was die Trierer, die ja mit dem Recht argumentierten, wohl schlecht verweigern könnten. Jedoch gingen die Bürger hierauf nicht ein. Ein weit hergeholter, aus dem Archiv des Grafen hervorgekramter verstaubter "alter Vertrag", bereits 1140/47 nicht mehr aktuell, hätte jetzt keine Gültigkeit mehr, werde daher nicht anerkannt! - Waren zuvor die Zöllner Graf Heinrichs auf der Moselinsel die "Wegelagerer", wie die "Gesta Trevirorum" formulieren, so waren jetzt die Trierer die "Bösewichte"! Mit einer ablehnenden Antwort dürfte Graf Heinrich freilich gerechnet haben, denn der Hintergedanke ließ sich weiter spinnen: Der Graf beschied sich nicht mit der negativen Antwort und begann einen Krieg mit den Trierern, vordergründig um sie zur Vertragstreue, Zahlung der 300 lb. jährlich zu zwingen, tatsächlich jedoch um die vor dem Abschluß des "alten Vertrages" bestandene vogteiliche Suprematie zurückzugewinnen! - Nichtentrichtung der 300 lb. jährlich bedeutet Rückfall in den vorvertraglichen Zustand! - Damit vollzog Graf Heinrich den Übergang von der Konsolidierungs- zur Expansionsphase, sich mit der Stadt und zugleich deren Erzbischof anlegend, mit dem Argument eines weit hergeholten Rechtsanspruchs aber mit politischem Rückhalt bei den Königen. Diese 2.Phase sollte allerdings nur von kurzer Dauer sein. Der Feldzug des Jahres 1300 gegen Trier scheiterte als die zur Verstärkung entsandten Truppen König Albrechts unter dem Kommando des märkischen Grafensohnes nach Weisung des Königs die Belagerung der Stadt abbrachen und nach Köln abzogen, mit folgenreichen politischen Konsequenzen für Graf Heinrich: Ab diesem Moment galt das Bündnis mit König Albrecht als beendet und somit auch die vorgezeichnete politische Linie des gemeinsamen Vorgehens gegen den Grafen von Hennegau, als erstes dem unmittelbar bevorstehenden Zug nach Nimwegen, wohl in Konsequenz auf Kosten einer Entfremdung mit König Philipp, dem politischen Rückhalt des Grafen von Hennegau. Noch gab Graf Heinrich seine Expansionsabsichten gegen Trier nicht auf, ein Umsturzversuch dem Luxemburger Grafenhaus nahestehender Kreise der Bürgerschaft scheiterte hauptsächlich am Widerstand der Handwerkerzünfte, denen der Erzbischof die Einberufung eines Rates der "consules" zugestand. Jetzt erst resignierte der Graf und ging zu einer Verständigungspolitik über. Bemerkenswert, wie er sich nach den Mißerfolgen, salopp formuliert, "aus der Affaire zog". Zunächst signalisierte er die Absicht, auf seine vogteilichen Ambitionen zu verzichten, begrüßt von Erzbischof und Stadt, und bot stattdessen eine Einungspolitik an, auf die Erzbischof und Stadt bereitwillig eingingen. Die Putschisten wurden rehabilitiert, der vorherige Einfluß des Grafen in der Stadt wiederhergestellt unter der Bedingung, daß die neue Ratsverfassung anerkannt wird. Er akzeptiert den von Erzbischof Dieter gegen ihn einberufenen, zumindest von diesem zugelassenen neuen Stadtrat, der seine Ambitionen letztlich zunichte gemacht hatte, revanchiert sich jedoch gegenüber Dieter, indem er im Anschluß an den Einungspakt mit den Bürgern einen Sondervertrag abschließt, die Bürger davon überzeugt, daß die vogteiliche Abgeltungssteuer der 300 lb. jährlich auch für sie vorteihaft sein werde. Er erinnert die Bürger an deren Bedeutung, daß derjenige, der sie entrichtet, sich im Besitz vogteilicher, letztendlich im Königtum verankerter Herrschaftsrechte befindet, er dabei ihre Bedenken zerstreut, indem er Bürger der Stadt zu werden verspricht und so eine Erneuerung vogteilicher Ansprüche ausschließt, und daß er in seiner Eigenschaft als Mitbürger sie und ihre Rechte gegen Anfechtungen erzbischöflicherseits zu verteidigen gedenkt. Die Stadt akzeptiert sein Angebot mit dem Vertrag vom 2.4.1302 und präsentiert sich im Vertrag vom 2.9.1304 mit Erzbischof Dieter als Inhaber der Vogtei, indem sie Dieter 300 Bewaffnete bedingt zur Verfügung stellt. Seiner Einungslinie und Bündnispolitik bleibt Graf Heinrich auch bei neuerlichen "hausgemachten" Bürgerunruhen treu, und er wirkt bei der Vollendung der Einung mit, indem die Fehde zwischen der Stadt und Daun/Praudom mit seiner Hilfe beendet wird. 3.Phase: 1301 II 9 - 1304 kurz nach VIII 21/(1305 VII) Der Entschluß, am Abwehrkampf der Flamen gegen die französische Invasion aktiv teilzunehmen fiel Graf Heinrich trotz seiner Bündnisse mit dem flämischen Grafenhaus nicht leicht. Er hielt sich im Jahre 1302 noch im Hintergrund, nahm nicht an der Schlacht bei Courtrai ("Güldensporenschlacht") teil. Könige sollten nicht bekämpft werden sondern vielmehr politischen Rückhalt in territorialpolitischen Auseinandersetzungen gewähren. Das Territorium des französischen Königreiches sollte vertragsgemäß gegen Angreifer verteidigt werden aber auch Flandern und das ihm persönlich nahestehende flämische Grafenhaus, mit dem er am 9.Februar 1301 ein erstes Bündnis abschloß. Die Kriegsziele gaben den Ausschlag, sodaß er sich für die Verteidigung Flanderns und des flämischen Grafenhauses entschied, ohne damit gegen die mit König Philipp abgeschlossenen Verträge zu verstoßen, selbst als er mit den Flamen im August/September 1303 bei der Abwehr einer bereitstehenden französischen Invasionsarmee unter König Philipp diesem bis vor die Tore von Paris folgte. Hierfür entschuldigte er sich gewissermaßen anschließend bei dem König, indem er seine Parteinahme mit seiner Feindschaft gegen den mit dem König verbündeten Grafen von Hennegau zu begründen sucht und bittet hier um eine Vermittlung Philipps, um sich in Zukunft zumindest neutral verhalten zu können. Dem Kriegszug folgt eine Phase des Attentismus, des Abwartens bis zu einem Verhandlungsergebnis (1.10.1303-15.3.1304), danach die Waffenstillstandsphase zwischen ihm und dem Grafen von Hennegau (15.3.1304-18.8.1304),während der er seine flämischen Allianzver- pflichtungen ruhen läßt. Ein zweifellos mit Erleichterung angenommener Auftrag König Philipps nach der Schlacht bei Mons-en-Pévèle, Friedensverhandlungen in die Wege zu leiten, entbindet den Grafen von der erneut eingeforderten flämischen Bündnisverpflichtung. Wie der chronologische Ablauf ausweist, haben zwischen den Phasen des "Schauplatz Trier" und des "Schauplatz Flandern" Interferenzbeziehungen bestanden. Das Bündnis Graf Heinrichs mit der flämischen Grafenfamilie von jenem 9.Februar 1301 und die Vorkommnisse in und um Flandern haben neben dem Mißerfolg bei der Belagerung Triers und dem gescheiterten Putsch sicherlich zum Politikwechsel Graf Heinrichs gegenüber Trier ihren Teil beigetragen. Gleichzeitig an zwei politischen Brennpunkten wollte und konnte er nicht mit gleichem Nachdruck präsent sein.
Recht als begründete Ableitung aus politisch Vorentschiedenem und Politik als autokratischer Erstentscheid blicken als zwei Welten aufeinander, mit verschiedenen Augen und auf jeweils für sie verschiedene Gegenstände. Strukturelle Unterschiede, aber auch die gegenseitige Durchdringung von Recht und Politik hebt der Verfasser hervor und versteht Rechtspolitik auch als Kampf für die Belange eines konsistenten Rechtssystems. Politik erscheine heute nicht mehr als der große Integrationsentwurf, sondern als Lavieren zwischen den Zwängen aller anderen Funktionssysteme der Gesellschaft. Grundlegend den Zustand unserer Demokratie hinterfragend mahnt der Verfasser, das Recht und die Juristen dürften nicht uneingeschränkt auf eingefahrene Kontrollmechanismen vertrauen, wenn der verfassungsrechtliche Sozialstaatsauftrag unter dem Standortwettbewerb und der wirtschaftlichen Funktionslogik ins Wanken gerate und Verantwortung zunehmend an Private delegiert werde.
Das Judenschutzprivileg Karls d. Gr. setzte voraus, daß den Juden eine die Königsherrschaft bzw. den Staat stützende Funktion zugedacht war. Damit vollzog der Kaiser eine Wende um 1800 gegenüber den antiken Herrschern, die in den Juden eine Gefahr für ihren zentralisierten Einheitsstaat erblickt hatten. Unter dem Dach des von Kaiser Karl begründeten Judenschutzes lebte das traditionelle politische Motiv einer sich in zahlreichen Repressionen bis hin zu Verfolgungen und Vertreibungen äußernden Judenfeindschaft im nordalpinen Raum weiter, modifiziert infolge geänderter Voraussetzungen. Die Juden fanden sich hinfort in einem politischen Spannungsfeld zwischen Judenschutz und Anfeindung eingebunden und zwar innerhalb eines sich horizontal zunächst bipolar (Rivalität Kaiser/König - Papst), dann auch multipolar ausweitenden Herrschaftsbereiches mit zum Teil rivalitätsbedingten Übergriffen bis hin zu Verfolgungen.- Wegen der Beteiligung anderer Gewalten neben dem König an der Herrschaft über die Juden und damit an der Ausübung des Judenschutzes wurden die Juden oftmals Leidtragende separater materieller und politischer Konflikte, weil sie politisch als Stütze konkurrierender bzw. einander verfeindeter Herrschaftsträger wahrgenommen wurden, womit eine der Modifikationen des traditionellen Motivs faßbar wird - die Gefährdung eigener Herrschaftspositionen durch den politischen Widersacher. Folgt man dem Ritter und Ministerialen Johann von Rinberg als Leitfigur - 1298 wird er dann definitiv zur Hauptfigur -, erschließt sich ein neuer bisher in der Forschung vernachlässigter Täterkreis - die Rolle der Ministerialen bei Judenverfolgungen gerät in den Focus der Aufmerksamkeit und nicht der Mob, die blind wütende, die Juden mit oder ohne pseudoreligiösem Bezug kriminalisierende und lynchende Masse, sondern vielmehr die Frage nach den Drahtziehern bzw. Strippenziehern im Hintergrund, den Hintermännern der stereotyp wiederkehrenden Standardbeschuldigungen (Brunnen- vergiftung, Hostienfrevel, Ritualmord,...). Der im Rheingau gelegene Salhof Lorch entpuppte sich als das Zentrum ministerialischer Opposition unter Führung des Rheingrafen gegen den Ausbau der Landesherrschaft des Mainzer Erzbischofs. Hier in Lorch selbst veranlaßten die Ministerialen während eines "Krieges" gegen den Erzbischof Werner von Mainz ihre erste Judenverfolgung im Jahre 1274/5, worin auch die Familie der Rinbergs involviert war. In den Verhandlungen eines Schiedsgerichts wird die von den Ministerialen eingeschlagene Taktik erkennbar, ihre Verantwortung und Mitschuld zu verschleiern und die Schuld ausschließlich den eigentlichen Judenschlägern anzulasten, was freilich nicht ganz gelingt, da der Erzbischof auf vollem Schadenersatz bestand, den die ärmeren Judenschläger selbst nicht zu leisten vermochten. Mit dem Sieg des Erzbischofs 1279 in der Schlacht bei Gensingen gegen die Ministerialität unter Führung des Rheingrafen und seinem Sieg auch in der sich anschließenden "Sponheimer Fehde" des Jahres 1281 kam die Wende auch für die Truchsessenfamilie von Rinberg. Ihre und des Rheingrafen Burg Rheinberg im Wispertal wurde 1281 erobert und zerstört und das Truchsessenamt ihnen entzogen. Sigfrid von Rinberg und sein Sohn Johann gerieten nicht wie der Rheingraf und dessen Sohn in Gefangenschaft, sie konnten sich ihr durch die Flucht entziehen, unterwarfen sich nicht und wurden von nun an ausdrücklich als "Feinde" des Erzbischofs und der Mainzer Kirche bezeichnet. Der Rheingraf wurde aus dem Rheingau verdrängt und mußte sich verpflichten, keine konspirativen Kontakte zu diesen Feinden aufzunehmen bzw. zu pflegen, sie nicht zu beherbergen. Gleiches galt natürlich auch für die unterworfene Ministerialität. Indizien legen den Schluß nahe, daß sich Johann von Rinberg zwischen 1281 und 1292 in Reichweite des Salhofes Lorch aber dennoch an einem sicheren Ort aufhielt, in der Reichsstadt Oberwesel. Von hier aus ließen sich durch ihn als erklärtem Feind des Erzbischofs hervorragend konspirativ Verbindungen knüpfen und koordinieren. Die Ministerialenopposition lebte im Verborgenen wieder auf. Gesucht wurde nach Wegen, scheinlegal im Zusammenspiel mit dem verbündeten Mainzer Stadtrat gegen Positionen des Erzbischofs - hier gegen dessen Juden - vorzugehen. So kann es nicht verwundern, daß diesesmal der nächste Vorstoß gegen die Juden 1282/3 nicht von Lorch her sondern von Olm aus erfolgte durch den Ritter und Ministerialen Herbord Ring von Olm, der bezeichnenderweise enge Verbindungen zum Salhof Lorch unterhielt, der jetzt in Begleitung weiterer Ministerialen vor der Stadt Mainz erschien, um wegen der Ermordung angeblich seines Neffen und angeblich durch Juden der Stadt Mainz Einlaß zu begehren und eine ordentliche Gerichtsverhandlung zu verlangen. Das Komplott des Herbord im Zusammenspiel mit dem Mainzer Stadtrat, der danach trachtete, den Judenschutz und die Gerichtsbarkeit über die Juden zu gewinnen, wurde von Erzbischof Werner von Anfang an durchschaut. Eine "kleine", vom Stadtrat kontrollierte und beendete Judenverfolgung wurde wie schon 1281 zugelassen, um so das Unvermögen des Judenschutzes durch den Erzbischof offenkundig zu machen. 1287 transportierten Ministerialen den zu Oberwesel angeblich von dortigen Juden ermordeten "Guten Werner" per Schiff gen Mainz, um so das Schauspiel des Herbord von Olm aus dem Jahre 1282/3 zu wiederholen. Eine Koordination muß der Übernahme vorausgegangen sein, eingefädelt wurde der Fall sehr wahrscheinlich durch ihren externen Komplizen Johann von Rinberg, der sich hier in Oberwesel aufgehalten haben dürfte. Etwas Unvorhergesehenes durchkreuzte den Plan der Ministerialen und zwang sie zur vorzeitigen Anlandung in Bacharach. Von Standesgenossen des Salhofes Lorch gewarnt und an Land gewunken erfuhren sie, daß König Rudolf soeben in Mainz eingetroffen war, der hier die Mainzer Bürgerschaft wegen der vorausgegangenen Judenverfolgung des Jahres 1286 zu einer Geldstrafe verurteilte. Die inszenierte Verfolgungswelle des "Guten Werner" ließ sich indes hierdurch nicht aufhalten,die von den Ministerialen und speziell von Johann von Rinberg auf die Weinbau betreibende Bevölkerung der Rheingegend zugeschnittene Märtyrergeschichte des "Guten Werner" fand ihren Zuspruch. König Adolf nahm Johann von Rinberg als bewährten Feind des Mainzer Erzbischofs 1294 in seinen Dienst als Folge des Zerwürfnisses mit Erzbischof Gerhard. Johann wurde zum königlichen Vogt des Speyergaues ernannt. Zu Beginn des Thronstreites zwischen König Adolf von Nassau und Herzog Albrecht von Österreich und noch vor dem ersten Auftritt Johanns von Rinberg zu Röttingen als Judenverfolger namens Rindfleisch (20.04.) setzte in den Kreisen des königstreuen Adels Schwabens und auch Frankens eine gegen die Juden gerichtete Bewegung ein - von einem "heftigen Geschrei" gegen die dem Erzbischof von Mainz und damit einem der Hauptgegner König Adolfs unterstehenden Juden der Region ist die Rede. Konkretisiert wird das "Geschrei" in einem Fall,einer Standardbeschuldigung: Die Juden hätten den Sohn eines mächtigen Adligen erdrosselt. Die wahren Hintergründe erhellen sich am Verhalten eines dieser Adligen, des Kraft von Hohenlohe, Herrn von Weikersheim und auch Röttingens. Wegen des reichspolitischen Konflikts und der Gegnerschaft des Mainzer Erzbischofs als dem Herrn der Juden wittern sie die Möglichkeit, sich ihrer Schulden bei den Juden durch deren Vernichtung zu entledigen. Aber man ist sich des Risikos politischer Wechselfälle bewußt. - So erlangt der Erzbischof von Mainz nach dem Sieg über König Adolf vom neuen König Albrecht von Habsburg das Privileg, daß ihm die Schuldforderungen der getöteten Juden, welche keine Erben haben, zufallen sollen.- Risikobewußt und zögerlich verhält sich Kraft von Hohenlohe, der zunächst Rücksprache mit dem Bischof von Würzburg hält, um danach gegen die Juden seiner Herrschaft vorgehen zu können und sich so seiner Schulden zu entledigen, was in Weikersheim auch geschah, wohingegen er die Verfolgung in Röttingen Rindfleisch überließ. Der Adel hielt Ausschau nach einem erfolgversprechenden Exekutor, hinter dem man sich verstecken konnte. Man fand ihn in der Person des Speyerer Landvogtes Johann von Rinberg, eines allseits bekannten Feindes des Mainzer Erzbischofs und zugleich eines Judenfeindes, der mit Conrad Rindfleisch einen namentlich ausgewiesenen Judenverfolger zu seinem Stellvertreter ernannt hatte. "Iussu et consensu superiorum" verfolgte Johann von Rinberg die Juden, wie die "Historiae memorabiles" bezeugen, und zwar unter einer jetzt auch beim einfachen Volk, den "arme(n) lude(n)", zugkräftigen Parole: Die Juden hätten dem Heer König Adolfs vergiftetes Rindfleisch geliefert und seien die Verursacher der sich auf Landgebiete ausbreitenden Seuche.- Während der mit dem Schlachtentod König Adolfs in Göllheim endenden Kämpfe um die Krone brach im Heer des Königs eine Seuche aus, die sich auch auf Breisach und weitere Landgebiete ausweitete. Man schrieb dies dem Genuß verdorbenen Rindfleisches zu.Johann von Rinberg machte sich dies zunutze, setzte über den Rhein , begab sich in die königsnahe Landschaft Schwabens und Frankens, um hier gegen die Juden als angeblichen Verursachern der Seuche zu hetzen. Wegen seiner Parole gab man ihm den Namen "Rindfleisch". Begrüßt vom Adel der königsnahen Landschaften und mit Zulauf aus den ärmeren Bevölkerungskreisen zogen seine Scharen die Juden mordend über das Land. Vor Würzburg scheiterte er zunächst allerdings am Widerstand des dortigen Stadtrates. In den Speyergau zurückgekehrt, schloß er sich dem jetzt linksrheinisch operierenden Heer König Adolfs an, kämpfte in der Schlacht bei Göllheim, wurde gefangengenommen, dann aber von dem neuen König Albrecht I. von Habsburg vorzeitig unter Bedingungen entlassen, mit einer Sondermission betraut, die sich inzwischen verselbständigten Judenverfolgungen in Franken kraft seines Einflusses als "capitaneus" und "rex Rintfleisch" auf diese Scharen der Judenverfolger zu beenden. In Würzburg mit seiner Mannschaft angekommen, brach Johann von Rinberg seinen dem König geleisteten Eid, wurde rückfällig, ließ die Juden der Stadt unter Beihilfe einer Bürgeropposition ermorden und startete von hier aus eine neue Verfolgungswelle. Anschließend befreite er mit einem tollkühnen Handstreich den Sohn des getöteten Königs Adolf von Nassau aus der Gefangenschaft Erzbischof Gerhards von Mainz und begab sich daraufhin in Dienst und Schutz des Nassauer Grafenhauses und Erzbischof Dieters von Trier, der ihn zu seinen "Freunden" zählte. Die Identifizierung des berüchtigten Judenverfolgers Rindfleisch des Jahres 1298 setzte bei den Quellen an, die ihn als Edelmann mit Namen de Rinberch nennen. Es konnte geklärt werden, wieso man den Edelmann de Rinberch/Rinberg auch "Rindfleisch" nannte und zwar über Ermittlungen zum Reichslandvogt im Speyergau, Johann von Rinberg und dessen Stellvertreter mit Namen Conrad Rindfleisch angesichts einer sich in der Nachbarschaft und im Operationsgebiet des königlichen Heeres ausbreitenden Seuche, die man auf den Genuß des Rindfleisches zurückführte. Die im Quellenhorizont der Wende des 13. zum 14. Jahrhundert ermittelten Träger dieses Namens wurden überprüft mit dem Ergebnis, daß nur Johann von Rinberg dieser Judenverfolger gewesen sein konnte. Die Hypothese, es könne schließlich noch weitere Rinbergs gegeben haben, die als Täter in Frage kämen, disqualifiziert sich vor diesem Hintergrund als "argumentum ex silentio"! Zu seinem "Täterprofil" paßt sein Motivationshintergrund, sein engeres familiäres und weiteres soziales und politisches Umfeld mit der Anbindung von Judenverfolgungen an die Kämpfe der Ministerialen mit ihrem Landesherrn sowie weitere Ermittlungen - keine Hypothesen sondern Indizien: Vereinbarkeit der Itinerarien Rindfleischs und Johanns von Rinberg / der Name des Stellvertreters Johanns von Rinberg im Speyergau, Conrad Rindfleisch : keine Zufälligkeit sondern Vorbildfunktion / der Vorname des nach Koblenz verzogenen Rindfleisch : Johannes / Rinbergs Mission im Auftrag König Albrechts von Habsburg gegen die Scharen der Judenverfolger und sein Rückfall, seine Konversion : nur Johann von Rinberg kam in Königsnähe hierfür in Frage, zumal sein Name in der Kombination Rint-berg Zeugnis ablegt von der Kenntnis seiner Identität als Rintfleisch (Rintfleisch / Rinberg).
In der Forschung zur aktuellen Prozessdynamik der Bodenerosion sind Niederschlagssimulationen mit kleinen mobilen Beregnungsanlagen (KBA) ein unverzichtbarer Bestandteil. Weltweit werden sehr viele KBA unterschiedlicher Bauart, Plotgrößen, Tropfenerzeugung, Niederschlagsintensitäten, und -spektren eingesetzt. Eine Standardisierung der Anlagen ist aufgrund der Verschiedenheit der Forschungsfelder und -fragen nicht in Sicht. Darüber hinaus sind die erzeugten Niederschläge (Nd) der Anlagen unzureichend genau charakterisiert und es liegt keine einheitliche Datenbasis aller relevanten Parameter vor. Zudem werden mit KBA bisher ausschließlich Starkregen unter windstillen Bedingungen simuliert, obwohl Wind einen deutlichen Einfluss auf fallende Regentropfen ausübt. Die vorliegende Arbeit gliedert sich in drei Teile: (1) Weiterentwicklung und Anwendung von KBA: Wie lässt sich die Performance der Trierer KBA optimieren und eine einheitliche Mess- und Kalibrierungsmethode für den simulierten Niederschlag definieren? Welche Anforderungen, Möglichkeiten, Grenzen und Anwendungsbereiche gibt es? (2) Vergleich verschiedener Typen von KBA im Gelände: Inwieweit sind Nd-Charakteristika, Oberflächen-¬abflussgenerierungen und Bodenabträge europäischer KBA vergleichbar? (3) Implemen-¬tierung von windbeschleunigtem Regen in KBA mit dem neuen mobilen Trierer Windregenkanal (WiReKa): Wie kann Wind in ein KBA-Setting integriert werden? Wie sind Unterschiede von Erosionsraten mit und ohne Windeinfluss in-situ zu quantifizieren und wie hoch fallen sie aus? Im ersten Teil der Arbeit wurde zunächst die Nd-Charakteristik der langjährig von der Physischen Geographie eingesetzten KBA mit unterschiedlichen, weltweit angewandten Messmethoden untersucht. Dabei zeigten sich einige Schwächen der KBA bezüglich ihrer Funktionalität. Der Einsatz verschiedener Mess-¬methoden zur Charakterisierung des künstlich erzeugten Nd führte zu sehr unterschiedlichen Ergebnissen. Mittels Laser-Niederschlags-Monitor (LNM) und Nd-Sammlern wurde daher ein einheitliches Testverfahren entwickelt, das eine detaillierte Aufnahme, Auswertung und Darstellung der relevanten Nd-Parameter nahezu aller KBA-Designs ermöglicht. Mit Hilfe dieses Testverfahrens wurden Nd-Charakteristik, Funktionalität und Mobilität der Trierer KBA durch technische Veränderungen deutlich verbessert. Alle Parameter dieser Anlage sind nun bekannt und lassen sich zuverlässig reproduzieren. Die Anforderungen, Möglichkeiten und Grenzen des Einsatzes von KBA wurden detailliert erarbeitet und beschrieben. Auf dem "International Rainfall Simulator Workshop" in Trier konnte mit 40 Wissenschaftlern aus 11 Nationen Einigkeit über grundlegende Aspekte beim Bau und Einsatz von KBA erzielt werden. Der zweite Teil der Arbeit stellt die Arbeitsmethoden und Ergebnisse eines in internationaler Kooperation durchgeführten Projektes zu Messmethoden und Vergleichbarkeit von Simulatordesigns und Nd-Charakteristika unterschiedlicher europäischer KBA vor. An 13 Instituten in Deutschland, den Niederlanden, der Schweiz und Spanien wurde mit dem Trierer Testverfahren eine einheitliche Datenbasis aller wesentlichen Nd-Parameter erstellt. Im praktischen Teil des Rainfall Simulator Workshop in Trier wurden dann vergleichende Versuche mit sieben KBA auf einer universitätsnahen Versuchsfläche zur Oberflächenabflussgenerierung und zum Bodenabtrag durchgeführt. Vor allem die (maximale) Sedimentkonzentration einer Simulation hat sich dabei als gute Vergleichsgröße herausgestellt. Differenzen in den gemessenen Oberflachenabfluss- und Sedimentmengen sind ganz klar unterschiedlichen Nd zuzuordnen. Der zeitliche Ablauf des Oberflächenabfluss- und Erosionsverhalten differiert dagegen nur bei zunehmender Plotgröße. Im dritten Teil der Arbeit wird analysiert, wie windbeschleunigter Regen in einer KBA simuliert werden kann. Darüber hinaus wurde eine spezielle Testreihenfolge für die Erosionsmessungen entwickelt, deren Praktikabilität sich in der Anwendung bewährt hat. Es konnten stark erhöhte Abtragsraten aufgrund der Zuschaltung von Wind zu der Regensimulation auf kohäsionslosem sandigen Substrat quantifiziert werden. Das Dissertationsprojekt kann auf mehreren Ebenen als erfolgreich angesehen werden: Die Arbeit mit den Trierer KBA konnte qualitativ verbessert werden insofern, als die Anlagenparameter optimiert und die Güte der produzierten Daten gewährleistet werden konnte. Darüber hinaus konnten die gewonnenen Erkenntnisse durch eine gezielte internationale Vernetzung in Wert gesetzt und die Zusammenarbeit auf der operationalen Ebene gestärkt werden.
Krylov subspace methods are often used to solve large-scale linear equations arising from optimization problems involving partial differential equations (PDEs). Appropriate preconditioning is vital for designing efficient iterative solvers of this type. This research consists of two parts. In the first part, we compare two different kinds of preconditioners for a conjugate gradient (CG) solver attacking one partial integro-differential equation (PIDE) in finance, both theoretically and numerically. An analysis on mesh independence and rate of convergence of the CG solver is included. The knowledge of preconditioning the PIDE is applied to a relevant optimization problem. The second part aims at developing a new preconditioning technique by embedding reduced order models of nonlinear PDEs, which are generated by proper orthogonal decomposition (POD), into deflated Krylov subspace algorithms in solving corresponding optimization problems. Numerical results are reported for a series of test problems.
Il diritto dell"Unione Europea concerne in misura sempre crescente la religione, le chiese e le associazioni religiose. Da molto si è formato un diritto della religione dell"Unione Europea proprio e autonomo, un diritto della religione in evoluzione. La raccolta delle disposizioni che si riferiscono direttamente a questo diritto della religione europeo dimostra lo stato attuale di un processo dinamico.
Le droit de l'Union européenne réglemente de manière croissante les domaines de la religion, des Églises et des Cultes. Il s'est développé depuis bien longtemps un droit de la religion de l'Union européenne distinct et autonome, un droit européen de la religion en devenir. Ce recueil de dispositions réglementant directement cette matière en droit européen de la religion est le reflet de la situation actuelle d'une évolution dynamique.
Religion, churches and religious communities have growing importance in the Law of the European Union. Since long a distinct law on religion of the European Union is developing. This collection of those norms of European Union Law directly concerning religion mirrors today's status of this dynamic process.
Das Recht der Europäischen Union erfasst Religion, Kirchen und Religionsgemeinschaften in zunehmendem Maße. Längst hat sich ein eigenes und eigenständiges Religionsrecht der Europäischen Union entwickelt, ein europäisches Religionsrecht im Werden. Die Sammlung der unmittelbar einschlägigen Normen dieses europäischen Religionsrecht spiegelt den gegenwärtigen Stand eines dynamischen Prozesses.
Rinnen werden als effektive Sedimentquellen und als Transportwege für große Sedimentmengen angesehen, zusätzlich agieren sie als bevorzugte Fließwege für den Oberflächenabfluss. Sie können sich zu irreversiblen Formen (Gullys) weiterentwickeln. Trotz Fortschritten in der Modellierung bleibt insbesondere die Modellierung von Rinnenerosion schwierig. Daher ist es wichtig, experimentelle Daten aus Geländeversuchen zu erheben, um das Prozesswissen zu verbessern und bessere Modelle zu entwickeln. In den Experimenten sollte eine standardisierte Methode verwendet werden, um eine gewisse Vergleichbarkeit der Ergebnisse zwischen unterschiedlichen Testgebieten zu gewährleisten. Die meisten Experimente zur Rinnenerosion, die unter Labor- oder Geländebedingungen durchgeführt wurden, verwendeten Substrate mit unterschiedlichen Korngrößen und natürlichen oder simulierten Niederschlag. Ziel war meist die Entstehung von Rinnennetzwerken zu beobachten, Startbedingungen für Rinnenbildung zu definieren, die Entwicklung der Rinnenmorphologie zu untersuchen, die wichtigsten hydraulischen Parameter wie Fließquerschnitt, benetzten Umfang, hydraulischen Radius, mittlere Fließgeschwindigkeit und shear stress abzuschätzen oder mathematische Modelle zu kreieren, um den Bodenabtrag durch Rinnenerosion abschätzen zu können. Aber es fehlen Untersuchungen zum Verhalten von existierenden Rinnen, natürlichen oder anthropogen entwickelten, unter Geländebedingungen. Um diese Lücke zu schließen wurde eine reproduzierbare Versuchsanordnung entworfen und in verschiedenen Rinnen angewendet um folgende Fragen zu beantworten: Wie hoch ist der Anteil der Rinnenerosion am Bodenabtrag? 2) Wie effektiv sind Rinnen beim Transport von Wasser und Sediment durch ihr Einzugsgebiet? In prozess-basierten Modellen werden verschiedene Prozesse durch mathematische Gleichungen beschrieben. Die Grundlage dieser Formeln ist meist ein hydraulischer Parameter, der in Verbindung zum Abtrag gebracht wird. Der am häufigsten verwendete Parameter ist der shear stress, von dem angenommen wird, dass er ein lineares Verhältnis zu Erosionsparametern wie detachment rate, detachment capacity oder Sedimentkonzentration aufweist. Aus dem shear stress lassen sich weitere Parameter wie unit length shear force oder verschiedene Varianten der stream power berechnen. Die verwendeten Erosions- und hydraulischen Parameter ändern sich je nach Forschergruppe. Eine weitere Modellannahme ist, dass die transport rate die trasnport capacity nicht übersteigen kann. Wenn das transport rate vs. transport capacity - Verhältnis 1 übersteigt, verringern Sedimentationsprozesse die Rate bis die transport capacity wieder erreicht ist. Wir untersuchten in Geländeversuchen die folgenden Annahmen: 1) Ist das Verhältnis zwischen transport rate und transport capacity immer kleiner 1? 2) Besteht die lineare Beziehung zwischen verschiedenen hydraulischen Parametern und Bodenabrtagsparametern? 3)Verursachen die selben hydraulischen Parameter, die in verschiedenen Versuchen aufgenommen wurden, auch immer die selben Erosionsparameter?