Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (836) (entfernen)
Sprache
- Deutsch (490)
- Englisch (335)
- Mehrsprachig (7)
- Französisch (4)
Schlagworte
- Stress (37)
- Deutschland (33)
- Modellierung (18)
- Optimierung (18)
- Fernerkundung (17)
- Hydrocortison (16)
- stress (15)
- Motivation (12)
- Stressreaktion (12)
- cortisol (12)
Institut
- Psychologie (181)
- Raum- und Umweltwissenschaften (148)
- Mathematik (62)
- Wirtschaftswissenschaften (61)
- Fachbereich 4 (56)
- Fachbereich 1 (29)
- Geschichte, mittlere und neuere (28)
- Germanistik (26)
- Informatik (26)
- Kunstgeschichte (22)
Gerade in der heutigen Zeit im Spannungsfeld zwischen der globalen Klimaveränderung und einer stetig wachsenden Weltbevölkerung wird es immer wichtiger, die Oberflächenprozesse quantifizieren zu können. In fünf Untersuchungsgebieten in Deutschland, Luxemburg und Spanien wurden experimentelle Geländemessmethoden zur Quantifizierung von Oberflächenabflussbildung und Bodenerosion eingesetzt. Je nach geographischer Lage der Testgebiete sind unterschiedliche Einflussgrößen wichtig für die Abflussreaktion und den Bodenabtrag. Jahreszeit und Vorfeuchte des Bodens können zu verschiedenen Systemzuständen führen und damit die Oberflächenabflussbildungs- und Bodenerosionsraten beeinflussen. Die Verwendung von experimentellen Messmethoden (Beregnungen) ermöglicht es uns, die Reaktion derselben Flächen bei unterschiedlichen Ausgangsbedingungen auf ein und dasselbe (simulierte) Niederschlagsereignis zu messen. Durch die Kombination mit Geländekartierungen und GIS-Auswertungen wird eine qualitative Übertragung der punktuellen Messergebnisse auf die Fläche ermöglicht. In den beiden Untersuchungsgebieten in Deutschland wurden häufig hydrophobe Eigenschaften der Böden festgestellt. Durch diese Hydrophobizität dringt ein Teil des Niederschlagswassers gar nicht bis zum Mineralboden durch, sondern wird in der Streuschicht gehalten oder fließt innerhalb der Streuschicht ab. Dies führt zu einer Erhöhung der Oberflächenabflussraten. Auch der Einfluss der Landnutzung auf die Intensität der Oberflächenprozesse konnte für die Testgebiete in Deutschland und Luxemburg nachgewiesen werden. Auf Wegen und Fahrspuren, sowie auf Ackerflächen wurden die höchsten Oberflächenabfluss- und Bodenabtragsraten gemessen. Aber auch hydrophobe Waldstandorte zeigten hohe Oberflächenabflussraten, allerdings keinen nennenswerten Bodenabtrag, weil die Humusauflage die Bodenoberfläche schützt. Die im Rahmen dieser Arbeit verwendeten Rinnenerosionsversuche ermöglichen es, die Effizienz natürlicher Erosionsrinnen zu messen und zu vergleichen. Durch die Verwendung von beiden Methoden, Beregnung und Rinnenerosionsversuch, können die im Rinneneinzugsgebiet gemessenen Abtragsraten und -mengen mit den Abtragswerten der Erosionsrinne selbst verglichen werden. Insgesamt kann festgestellt werden, dass die Ergebnisse der experimentellen Messungen in Kombination mit einer Kartierung der aktuellen Geomorphodynamik sowie der Auswertung großmaßstäbiger Luftbilder, eine Quantifizierung der aktuellen Prozessdynamik ermöglichen.
Mit der Globalisierung der Märkte und dem weitverbreiteten Einsatz von Kommunikations- und Informationstechnologien in Unternehmen sind in vielen Organisationen geographisch verteilt arbeitende Teams zum Standard geworden. Gleichzeitig gehören multiple Teammitgliedschaften (MTM), d.h. die simultane Zugehörigkeit zu mehreren Teams, für viele Mitarbeitende bereits zum Arbeitsalltag. Mit der Zuordnung von Personen zu multiplen Teams wollen Organisationen einen effektiven Einsatz ihrer personellen Ressourcen ermöglichen. Ob dies tatsächlich gelingt, ist bislang noch ungeklärt. Eine bedeutende Folge dieser Arbeitsstrukturen ist zudem die zunehmende Durchlässigkeit der Grenzen von Teams. Klare Teamgrenzen bleiben aber auch weiterhin ein wichtiger Faktor, um den Zusammenhalt eines Teams und eine effektive Zusammenarbeit der Teammitglieder sicherzustellen. Bislang gibt es keine empirischen Studien zum Zusammenhang von MTM und Teamgrenzen und nur wenige zu den Auswirkungen von MTM auf virtuelle Teamarbeit. Diese Arbeit ging in zwei Studien der Frage nach, in welchem Zusammenhang MTM mit Teamgrenzen und mit emotionalen und kognitiven Zuständen in virtuellen Teams steht und welche Effekte MTM und Teamgrenzen auf verhaltensbezogene Ergebnisse von Teamarbeit haben. Feldstudie: In einer querschnittlichen Online-Fragebogenstudie mit 105 Mitarbeitenden zweier globaler Unternehmen wurde der Zusammenhang von MTM mit Teamgrenzen sowie mit Commitment (emotionaler Zustand) und Team Mentalen Modellen (kognitiver Zustand) untersucht. Neben der Anzahl an Teammitgliedschaften wurden der prozentuale Arbeitszeitanteil im Team und der Virtualitätsgrad in der Zusammenarbeit als Indikatoren von MTM erfasst. Die Prüfung der Zusammenhänge über den Partial-Least-Square Ansatz ergab positive Zusammenhänge von MTM sowie Prozentanteil Arbeitszeit mit Commitment und Team Mentalen Modellen. Ein Zusammenhang von MTM und Teamgrenzen blieb überraschenderweise aus. Ein höherer Virtualitätsgrad ging mit einem geringeren Commitment zum Team und mit als schwächer wahrgenommenen Teamgrenzen einher. Laborstudie: In einer laborexperimentellen Studie mit 178 Studierenden wurden die Effekte von MTM (vier vs. eine Teammitgliedschaft) und Teamgrenzen (gestärkt vs. nicht gestärkt) auf Informationsflut, Koordinationserfolg und Leistung als verhaltensbezogene Ergebnisse virtueller Teamarbeit getestet. MTM zeigte in den Regressionsanalysen weder einen Effekt auf Informationsflut noch auf Koordinationserfolg. Die objektive Leistung viel jedoch bei Versuchspersonen mit vier Teammitgliedschaften signifikant schlechter aus als bei Versuchspersonen mit einer Teammitgliedschaft. Für subjektive Leistungsmaße blieb ein entsprechender negativer Effekt aus. Die Stärkung der Teamgrenzen führte zu einer positiveren Einschätzung des Koordinationserfolgs und der Leistung und reduzierte die Wahrnehmung von Informationsflut. Die Ergebnisse der beiden Studien deuten darauf hin, dass MTM in Abhängigkeit von den betrachteten Indikatoren sowohl positive als auch negative Zusammenhänge mit Prozessen und Ergebnissen in Teams hat. Für MTM haben sich unter den kontrollierten Bedingungen des Experimentes kaum direkte Effekte eingestellt, während in der Feldstudie positive Zusammenhänge mit emotionalen und kognitiven Zuständen eine (mittelfristig) positive Wirkung von MTM andeuten. Dies kann als Hinweis interpretiert werden, dass MTM eher zeitlich versetzte oder über indirekte Mechanismen vermittelte Effekte auf virtuelle Teamarbeit hat. Die im Experiment durch MTM reduzierte objektive Leistung bei gleichbleibender subjektiver Leistungsbewertung deutet darauf hin, dass ein Leistungsabfall durch MTM von den betroffenen Personen möglicherweise nicht bewusst wahrgenommen wird. Teamgrenzen scheint hingegen einen insgesamt förderlichen Faktor für die Zusammenarbeit in virtuellen Teams darzustellen.
Chapter 2: Using data from the German Socio-Economic Panel, this study examines the relation-ship between immigrant residential segregation and immigrants" satisfaction with the neighbor-hood. The estimates show that immigrants living in segregated areas are less satisfied with the neighborhood. This is consistent with the hypothesis that housing discrimination rather than self-selection plays an important role in immigrant residential segregation. Our result holds true even when controlling for other influences such as household income and quality of the dwelling. It also holds true in fixed effects estimates that account for unobserved time-invariant influences. Chapter 3: Using survey data from the German Socio-Economic Panel, this study shows that immigrants living in segregated residential areas are more likely to report discrimination because of their ethnic background. This applies to both segregated areas where most neighbors are immigrants from the same country of origin as the surveyed person and segregated areas where most neighbors are immigrants from other countries of origin. The results suggest that housing discrimination rather than self-selection plays an important role in immigrant residential segregation. Chapter 4: Using data from the German Socio-Economic Panel (SOEP) and administrative data from 1996 to 2009, I investigate the question whether or not right-wing extremism of German residents is affected by the ethnic concentration of foreigners living in the same residential area. My results show a positive but insignificant relationship between ethnic concentration at the county level and the probability of extreme right-wing voting behavior for West Germany. However, due to potential endogeneity issues, I additionally instrument the share of foreigners in a county with the share of foreigners in each federal state (following an approach of Dustmann/Preston 2001). I find evidence for the interethnic contact theory, predicting a negative relationship between foreign-ers" share and right-wing voting. Moreover, I analyze the moderating role of education and the influence of cultural traits on this relationship. Chapter 5: Using data from the Socio-Economic Panel from 1998 to 2009 and administrative data on regional ethnic diversity, I show that ethnic diversity inhibits significantly people- political interest and participation in political organizations in West Germany. People seem to isolate themselves from political participation if exposed to more ethnic diversity which is particularly relevant with respect to the ongoing integration process of the European Union and the increasing transfer of legislative power from the national to European level. The results are robust if an instrumental variable strategy suggested by Dustmann and Preston (2001) is used to take into account that ethnic diversity measured on a local spatial level could be endogenous due to residential sorting. Interestingly, participation in non-political organizations is positively affected by ethnic diversity if selection bias is corrected for.
Freiheit und Sklaverei sind offensichtlich beliebte Themen für Dion gewesen. In fast allen Reden unseres Autors kann man Ideen, Anspielungen und Hinweise auf Sklaverei und Sklaven finden. Das Gleiche lässt sich auch für die Freiheit und die Freien feststellen. Eine theoretische Erörterung der Begriffe "Freiheit" und "Sklaverei" findet man in der 14. und in der 15. Rede, die beide unter dem Titel περὶ δουλεία καὶ ἑλευθερία (Über die Sklaverei und die Freiheit) überliefert sind. In der 14. Rede diskutiert Dion mit einem anonymen Gesprächspartner und versucht zu bestimmen, was Freiheit und Sklaverei sind, bzw. zu klären, was "frei sein" und ,Sklave sein" bedeutet. In der 15. Rede lautet die Hauptfrage, mit der die beiden Sprecher sich auseinandersetzen, ob man wissen kann, wer ein Sklave und wer frei ist, und wie die beiden Begriffe zu bestimmen sind. In beiden Reden kommt es deutlich heraus, dass die wahre Freiheit sowie die wahre Sklaverei innere Konzepte bilden, es geht also um die Freiheit und Sklaverei des Verstandes und der Seele. Im Hauptteil dieser Arbeit sind beide Reden ins Deutsche übersetzt und Kommentiert worden. Der Einleitungsteil ordnet und fasst die Ergebnisse des Kommentars zusammen. Die ersten Kapitel sind dem Leben und den Werken des Autors gewidmet. Im dritten Kapitel wird die Bedeutung der Begriffe "Sklaverei" und "Freiheit" für das gesamte corpus des Dion behandelt. Im vierten Kapitel werden die wichtigsten Aspekte der beiden Reden hervorgehoben: die Hauptthemen, die literarische Gattung, eine mögliche Datierung, ihre Bestimmung.
The classic Capital Asset Pricing Model and the portfolio theory suggest that investors hold the market portfolio to diversify idiosyncratic risks. The theory predicts that expected return of assets is positive and that reacts linearly on the overall market. However, in reality, we observe that investors often do not have perfectly diversified portfolios. Empirical studies find that new factors influence the deviation from the theoretical optimal investment. In the first part of this work (Chapter 2) we study such an example, namely the influence of maximum daily returns on subsequent returns. Here we follow ideas of Bali et al. (2011). The goal is to find cross-sectional relations between extremely positive returns and expected average returns. We take account a larger number of markets worldwide. Bali et al. (2011) report with respect to the U.S. market a robust negative relation between MAX (the maximum daily return) and the expected return in the subsequent time. We extent substantially their database to a number of other countries, and also take more recent data into account (until end of 2009). From that we conclude that the relation between MAX and expected returns is not consistent in all countries. Moreover, we test the robustness of the results of Bali et al. (2011) in two time-periods using the same data from CRSP. The results show that the effect of extremely positive returns is not stable over time. Indeed we find a negative cross-sectional relation between the extremely positive returns and the average returns for the first half of the time series, however, we do not find significant effects for the second half. The main results of this chapter serve as a basis for an unpublished working paper Yuan and Rieger (2014b). While in Chapter 2 we have studied factors that prevent optimal diversification, we consider in Chapter 3 and 4 situations where the optimal structure of diversification was previously unknown, namely diversification of options (or structured financial products). Financial derivatives are important additional investment form with respect to diversification. Not only common call and put options, but also structured products enable investors to pursue a multitude of investment strategies to improve the risk-return profile. Since derivatives become more and more important, diversification of portfolios with dimension of derivatives is of particularly practical relevance. We investigate the optimal diversification strategies in connection with underlying stocks for classical rational investors with constant relative risk aversion (CRRA). In particular, we apply Monte Carlo method based on the Black-Scholes model and the Heston model for stochastic volatility to model the stock market processes and the pricing of the derivatives. Afterwards, we compare the benchmark portfolio which consists of derivatives on single assets with derivatives on the index of these assets. First we compute the utility improvement of an investment in the risk-free assets and plain-vanilla options for CRRA investors in various scenarios. Furthermore, we extend our analysis to several kinds of structured products, in particular capital protected notes (CPNs), discount certificates (DCs) and bonus certificates (BCs). We find that the decision of an investor between these two diversification strategies leads to remarkable differences. The difference in the utility improvement is influenced by risk-preferences of investors, stock prices and the properties of the derivatives in the portfolio. The results will be presented in Chapter 3 and are the basis for a yet unpublished working paper Yuan and Rieger (2014a). To check furthermore whether underlyings of structured products influence decisions of investors, we discuss explicitly the utility gain of a stock-based product and an index-based product for an investor whose preferences are described by cumulative prospect theory (CPT) (Chapter 4, compare to Yuan (2014)). The goal is that to investigate the dependence of structured products on their underlying where we put emphasis on the difference between index-products and single-stock-products, in particular with respect to loss-aversion and mental accounting. We consider capital protected notes and discount certificates as examples, and model the stock prices and the index of these stocks via Monte Carlo simulations in the Black-Scholes framework. The results point out that market conditions, particularly the expected returns and volatility of the stocks play a crucial role in determining the preferences of investors for stock-based CPNs and index-based CPNs. A median CPT investor prefers the index-based CPNs if the expected return is higher and the volatility is lower, while he prefers the stock-based CPNs in the other situation. We also show that index-based DCs are robustly more attractive as compared to stock-based DCs for CPT investors.
Every day we are exposed to a large set of appetitive food cues, mostly of high caloric, high carbohydrate content. Environmental factors like food cue exposition can impact eating behavior, by triggering anticipatory endocrinal responses and reinforcing the reward value of food. Additionally, it has been shown that eating behavior is largely influence by neuroendocrine factors. Energy homeostasis is of great importance for survival in all animal species. It is challenged under the state of food deprivation which is considered to be a metabolic stressor. Interestingly, the systems regulating stress and food intake share neural circuits. Adrenal glucocorticoids, as cortisol, and the pancreatic hormone insulin have been shown to be crucial to maintain catabolic and anabolic balance. Cortisol and insulin can cross the blood-brain barrier and interact with receptors distributed throughout the brain, influencing appetite and eating behavior. At the same time, these hormones have an important impact on the stress response. The aim of the current work is to broaden the knowledge on reward related food cue processing. With that purpose, we studied how food cue processing is influenced by food deprivation in women (in different phases of the menstrual cycle) and men. Furthermore, we investigated the impact of the stress/metabolic hormones, insulin and cortisol, at neural sites important for energy metabolism and in the processing of visual food cues. The Chapter I of this thesis details the underlying mechanisms of the startle response and its application in the investigation of food cue processing. Moreover, it describes the effects of food deprivation and of the stress-metabolic hormones insulin and cortisol in reward related processing of food cues. It explains the rationale for the studies presented in Chapter II-IV and describes their main findings. A general discussion of the results and recommendations for future research is given. In the study described in Chapter II, startle methodology was used to study the impact of food deprivation in the processing of reward related food cues. Women in different phases of the menstrual cycle and men were studied, in order to address potential effects of sex and menstrual cycle. All participants were studied either satiated or food deprived. Food deprivation provoked enhanced acoustic startle (ASR) response during foreground presentation of visual food cues. Sex and menstrual cycle did not influence this effect. The startle pattern towards food cues during fasting can be explained by a frustrative nonreward effect (FNR), driven by the impossibility to consume the exposed food. In Chapter III, a study is described, which was carried out to explore the central effects of insulin and cortisol, using continuous arterial spin labeling to map cerebral blood flow patterns. Following standardized periods of fasting, male participants received either intranasal insulin, oral cortisol, both, or placebo. Intranasal insulin increased resting regional cerebral blood flow in the putamen and insular cortex, structures that are involved in the regulation of eating behavior. Neither cortisol nor interaction effects were found. These results demonstrate that insulin exerts an action in metabolic centers during resting state, which is not affected by glucocorticoids. The study described in Chapter IV uses a similar pharmacological manipulation as the one presented in Chapter III, while assessing processing of reward related food cues through the startle paradigm validated in Chapter II. A sample of men was studied during short-term food deprivation. Considering the importance of both cortisol and insulin in glucose metabolism, food pictures were divided by glycemic index. Cortisol administration enhanced ASR during foreground presentation of "high glycemic" food pictures. This result suggests that cortisol provokes an increase in reward value of high glycemic food cues, which is congruent with previous research on stress and food consumption. This thesis gives support to the FNR hypothesis towards food cues during states of deprivation. Furthermore, it highlights the potential effects of stress related hormones in metabolism-connected neuronal structures, and in the reward related mechanisms of food cue processing. In a society marked by increased food exposure and availability, alongside with increased stress, it is important to better understand the impact of food exposition and its interaction with relevant hormones. This thesis contributes to the knowledge in this field. More research in this direction is needed.
Die Arbeit setzt sich mit den theoretischen und praktischen Aspekten der Analyse und Edition eines literarisch wichtigen Textes mit Methoden der Digital Humanities sowie der Korpus- und Computerlinguistik auseinander. Als Materialgrundlage dient das luxemburgischsprachige Werk des Michel Rodange. Hierzu gehören die Werke "Renert oder de Fuuss am Frack an a Maansgréisst" - ca. 35.000 Tokens, "Dem Léiweckerche säi Lidd" - ca. 5.000 Tokens, "Dem Grof Sigfrid seng Goldkuemer" - ca. 10.000 Tokens und zwei Gedichte - ca. 500 Tokens. Auf der empirischen Seite handelt es sich um die Erstellung eines elektronischen Korpus mit historisch-kritischen und linguistischen Annotationen und dessen Darstellung im Internet als Webportal. Dabei entsteht eine Wechselwirkung zwischen Theorie und Praxis, so werden die erstellten Annotationen verwendet, um das Werk aus sprach- und literaturwissenschaftlicher Perspektive zu untersuchen; diese Erkenntnisse können dann wiederum bei der Implementierung der Tools eingesetzt werden, um den Korrektheitsgrad der automatischen Annotation zu erhöhen. Die historisch-kritischen Annotationen beinhalten beispielsweise Lesarten, Korrekturen sowie Worterklärungen, wohingegen die linguistischen Annotationen die Orthographie, Morphologie (Wortklassen und Lemmata) und Phraseologie betreffen. Die Annotationen werden in der Markup-Sprache XML kodiert. Der erste Schritt der Erstellung eines elektronischen Korpus ist die Digitalisierung der Texte. Bei den Handschriften geschah dies mithilfe einer manuellen Transkription, bei den Drucken wurde auf eine OCR-Software zurückgegriffen. Es empfiehlt sich, bereits in dieser Phase den Text gut zu strukturieren und mit Annotationen zu versehen. Dabei wurden zunächst Metadaten festgehalten. Anschließend wurden Informationen wie Seitenzahl, Zeilenumbrüche etc. als Annotationen hinzugefügt. Von besonderer Bedeutung für die Erstellung eines Korpus aus einem historisch und literarisch wichtigen Text ist jedoch seine Anreicherung mit historisch-kritischen Kommentaren. Die Untersuchung und Berücksichtigung der literarischen bzw. wissenschaftlichen Gattung historisch-kritische Edition stellt die theoretische Grundlage für solche Annotationen dar. Alle für die Editionswissenschaft relevanten Texthinweise, -bruchstücke und vom Autor durchgestrichene und gelöschte Stellen wurden dokumentiert. Bei schlecht lesbaren Stellen wurden Lesemöglichkeiten vorgeschlagen und die anderer Editionen diskutiert. Die Text Incoding Initiative (TEI) bietet eine Fülle von XML-Elementen, um solche Annotationen zu speichern. Um diese Arbeit nicht manuell ausführen zu müssen, wurde auf Tools wie TUSTEP, oXygen oder Skriptsprachen wie beispielsweise Perl zurückgegriffen. Diese können u. a. die Such- und Ersetzen-Arbeiten mithilfe der Regulären Ausdrücke bedeutend erleichtern. Den nächsten Schritt der Korpus-Erstellung stellt die Tokenisierung dar. Hierbei gehen die historisch-kritischen Annotationen in linguistische Annotationen über. Die Grenzen eines Wortes werden festgelegt und jedes Wort mit seinem eigenen Element versehen. Aus der digitalen Verarbeitung nicht wegzudenken ist dabei die Berücksichtigung und Untersuchung der Sprache des Autors. In diesem Fall wurde auf Aspekte wie die Dichtungsstile des Luxemburgischen im 19. Jahrhundert, die literarischen Gattungen der Texte sowie die Schreibung des Autors geachtet. Der empirische Anteil der Analyse mit EDV-technischen Methoden und die Speicherung der Ergebnisse als Annotationen stellt die wissenschaftliche Basis für die spätere digitale Präsentation dar. In der Arbeit werden die Ergebnisse der quantitativen und qualitativen Analyse der Sprache des Werks mithilfe von selbstimplementierten Programmen diskutiert. Dabei werden die vorhandenen Theorien sowohl der klassischen Linguistik z. B. aus der Morphologie oder der Phraseologieforschung, als auch der Korpuslinguistik besprochen und evaluiert. Die Implementierung und Ergebnisse folgender Programme für das Michel Rodange Korpus werden thematisiert: Tokeniser, FreqList, POS-Trainer, POS-Tagger, Lemmatisierer und Programme zur morphologischen und phraseologischen Analyse des Korpus. Der POS-Tagger kann die Wortarten im Korpus bestimmen. Grundlage dafür sind die sogenannten Hidden Markov Modelle, die auf der Wahrscheinlichkeitstheorie basieren. Der Lemmatisierer und das Programm zur morphologischen Analyse arbeiten hauptsächlich regelbasiert, wohingegen das Programm für die phraseologische Analyse anhand statistischer Verfahren wie dem Z-Test, dem Chi-Quadrat-Test und dem Exakten Test von Fisher implementiert wurde. So widmet sich beispielsweise Kapitel 3.4 dem Output der morphologischen Analyse und diskutiert die Wortbildung. Kapitel 3.6 beschäftigt sich mit der Interpretation der Phraseologismen. Hierbei zeigte sich, dass viele der automatisch identifizierten Phraseologismen aus Michel Rodanges Werken in der Tat ein fester Bestandteil nicht nur der luxemburgischen Sprache und Kultur sind, sondern sich auch in der gesamten westlichen Kultur wiederfinden.
Nicht erst seit Einleitung der "Energiewende" im Jahr 2011 gehören Fragen der Energie- und Klimapolitik zu den politisch kontrovers diskutierten Themen in Deutschland. In Folge des europäischen Integrationsprozesses gewinnt dabei zunehmend auch die Europäische Union als Handlungsebene an Bedeutung. In dieser Arbeit wird der Frage nachgegangen, wie deutsche Akteure die Energie- und Klimapolitik der EU seit dem Gipfel des Europäischen Rates 2007 beeinflusst haben und welche Auswirkungen die Entscheidungen auf EU-Ebene für die Politikgestaltung im nationalen Kontext hatten. Anhand von drei Fallstudien wird eine Prozessanalyse in den Bereichen Strombinnenmarkt, Erneuerbare-Energien-Politik und Klimaschutz im Zeitraum der Jahre 2007 bis 2013 vorgenommen.
Das erste Kapitel "ECOWAS" capability and potential to overcome constraints to growth and poverty reduction of its member states" diskutiert die Analyse wirtschaftlicher und sozialer Barrieren für ökonomisches Wachstum " eine der Hauptelemente für Entwicklungs- und Armutsreduktionsstrategien in Entwicklungsländern. Die Form der länderspezifischen Analyse von Wachstumsbarrieren wurde nach dem Scheitern der auf alle Länder generalisierten Entwicklungsstrategie des Washington Consensus insbesondere durch den Ansatz der "Growth Diagnostics" der Harvard Professoren Hausman, Rodrik und Velasco eingeführt. Es zeigt sich jedoch, dass bisher der Fokus rein auf den länderspezifischen Analysen bzw. Strategieentwicklungen liegt. Diese Arbeit erweiterte die Diskussion auf die regionale Ebene, indem es beispielhaft an der Economic Community of West African States (ECOWAS) die länderspezifischen Wachstumsbarrieren mit den regionalen Wachstumsbarrieren vergleicht. Dies erfolgt mittels einer Darstellung der in Studien und Strategien bereits identifizierten, länderspezifischen Wachstumsbarrieren in den jeweiligen Ländern sowie mit der Auswertung der regionalen Strategien der ECOWAS. Dazu wird ermittelt, inwieweit auf der regionalen Ebene auch messbare Ergebnisse bei der Bekämpfung von Wachstumsbarrieren erzielt werden. Es zeigt sich, dass ,trotz der wirtschaftlichen und sozialen Diversität der Region, die ECOWAS den Großteil der in den Ländern identifizierten Wachstumsbarrieren ebenfalls auflistet und darüber hinaus sogar mit messbaren Ergebnissen dazu beiträgt, Veränderungen des Status Quo zu erreichen. Die Erweiterung des Ansatzes der Growth Diagnostics auf die regionale Ebene sowie die Erweiterung um das vergleichende Element von länderspezifischen und regionalen Wachstumsbarrieren zeigen sich als praktikabler Weg, Entwicklungsstrategien auf regionaler Ebene zu prüfen und subsidiär weiterzuentwickeln. Das zweite Kapitel "Simplifying evaluation of potential causalities in development projects using Qualitative Comparative Analysis (QCA)" diskutiert die Methode der qualitativen komperativen Analyse (QCA) als Evaluierungsmethodik für Projekte der Entwicklungszusammenarbeit. Hierbei stehen die adäquate Messung sowie die verständliche Darstellung der Wirkung von Entwicklungszusammenarbeit im Vordergrund. Dies ist ein Beitrag zu der intensiv geführten Diskussion, wie Wirkung von Hilfe in Entwicklungsländern gemessen und daraus für weitere Projekte gelernt werden kann. Mit der beispielhaften Anwendung der QCA auf einen Datensatz der deutschen Entwicklungszusammenarbeit im Senegal wird erstmalig diese Methode für die Entwicklungszusammenarbeit in der Praxis angewandt. Der Fokus liegt dabei auf der Überprüfung von bestimmten Programmtheorien, d.h. der Annahme bestimmter Zusammenhänge zwischen eingesetzten Mitteln, äußeren Umständen und den Projektergebnissen bei der Implementierung von Projekten. Während solche Programmtheorien in dem Großteil der Projektskizzen der deutschen Entwicklungszusammenarbeit enthalten sind, werden die wenigsten dieser Programmtheorien geprüft. Diese Arbeit zeigt QCA als eine effiziente Methode für diese Überprüfung. Eine eindeutige Bestätigung oder Falsifizierung dieser Theorien ist mittels dieser Methodik möglich. Dazu können die Ergebnisse bei den beiden einfacheren Formen der QCA, der crisp-set sowie der multi-value QCA, leicht nachvollziehbar vermittelt werden. Des Weiteren zeigt die Arbeit, dass QCA ebenfalls die Weiterentwicklung einer Programmtheorie ermöglicht, allerdings ist diese Weiterentwicklung nur begrenzt effizient und stark von den vorliegenden Daten sowie der Datenstruktur abhängig. Die Arbeit zeigt somit das Potential der QCA insbesondere für den Test von Programmtheorien auf und stellt die praktische Anwendung für mögliche Replizierung beispielhaft dar. Das dritte und letzte Kapitel der Doktorarbeit "The regional trade dynamics of Turkey: a panel data gravity model" analysiert den türkischen Handel, um die Veränderungen der letzten Jahrzehnte aufzuzeigen und daran zu diskutieren, inwieweit sich die Türkei als aufstrebendes Schwellenland von den bestehenden Handelsstrukturen loslöst. Diese Arbeit ist ein Beitrag zur Diskussion der sich Verschiebenden Machtkonstellationen durch das wirtschaftliche Aufholen der Schwellenländer. Bei der Türkei ist diese Diskussion zusätzlich interessant, da die Frage, ob die Türkei sich von der westlichen Welt, Nordamerika und Europa, abwendet, berücksichtigt wird. Mittels Dummy-Variablen für verschiedene Regionen in einem Gravitätsmodell werden die türkischen Handelsdaten zuerst insgesamt und nach Sektoren analysiert und die Veränderungen über verschieden Perioden des türkischen Außenhandels betrachtet. Es zeigt sich, dass in den türkischen Handelsbeziehungen eine Regionalisierung und eine Diversifizierung der Handelspartner stattfinden. Allerdings geht dies nicht mit einer Abkehr von westlichen Handelspartnern einher.
Die vorliegende Arbeit untersucht das Bild der "Kernfamilie", das hier definitorisch wie folgt umrissen wurde: Auf einem geschlossenen Bildträger müssen beide Elternteile mit mindestens einem Nachkommen dargestellt sein, in einem reduzierten, nicht-narrativen Kontext. Als Hypothese wurde als Bezeichnung für dieses Bild der Begriff des "dynastischen Familienbildes" gewählt. Der Schwerpunkt lag auf kleinformatigen, nicht-sepulkralen Denkmälern, da gerade bei Grabdenkmälern sowohl regionale Traditionen sowie eine völlig andere Bedeutungsebene zu untersuchen wären. Die Untersuchung der römischen Familie und ihre Beurteilung in literarischen, epigraphischen, juristischen, numismatischen und archäologischen Quellen von der Republik bis in die Spätantike hat ergeben, dass sich einige Entwicklungslinien vom weit gefassten Familienverband der gens hin zur Kernfamilie" fassen lassen. Anders als in der Sepulkralkunst, wo eine ununterbrochene Tradition der Bilder der 'Kernfamilie' von den spätrepublikanischen Freigelassenenreliefs bis zu den Grabmedaillons vor allem in Dakien und Pannonien bis ins 4. Jahrhundert n. Chr. hinein besteht, setzt in der Kleinkunst eine dichte Überlieferung für diese Bilder erst in severischer Zeit ein. Seit dem 3. Jahrhundert wurden nun aber neben den Goldgläsern vor allem Gemmen, Ringe und Kameen mit Bildern der "Kernfamilie" geschaffen. In der Kleinkunst sind Aussagen zur Identifizierung der meist nicht benannten Familien schwierig; trotzdem ist es in den meisten Fällen möglich, die Personen in den Verwandtschaftsverhältnissen zueinander sicher zu bestimmen. Die Bilder folgen klaren Regeln, die in vier Deutungsebenen herausgestellt wurden: Das Deutungsmuster des "formalisierten Familienbildes" verweist auf die Regelhaftigkeit der Bildtypen. Die Anordnung der Personen erfolgte nicht willkürlich, jedem wird der ihm gebührende Platz zugewiesen. Damit ist das Bild auf den ersten Blick erfassbar. Nutzbar gemacht hat man sich bei der Schaffung dieser Bilder bereits bestehende Bildtypen; sie zeigten nämlich Ehepaare, Väter mit Nachkommen, Mütter mit Nachkommen oder nur die Kinder. Die Kleinkunst und die Münzen zeigen die Personen sowohl en face als auch im Profil. Allen gemeinsam ist jedoch die Tatsache, dass die Personen weder mit dem Betrachter, noch untereinander Blickkontakt aufnehmen wollen. Es geht also nicht um die Darstellung einer liebevollen Familie, die sich dem Betrachter präsentieren will und die in irgend einer Form interagiert. Das Bild ist stark repräsentativ und nicht-narrativ; es sollen Werte und Tugenden dargestellt werden. Daher kann von einem "hieratischen Familienbild" gesprochen werden. Der "hierarchische" Charakter zeigt sich, wenn die Rangfolge innerhalb der Familie gezeigt werden sollte. Hierzu dienten nicht nur die Position im Bild, die Anordnung im Verhältnis zu den anderen Familienmitgliedern, sondern auch Tracht und Insignien. Insgesamt kulminieren die Deutungsansätze im "programmatischen Familienbild". Das Bild der "Kernfamilie" ist trotz der sehr reduzierten Form in der Lage, eine Vielzahl an Werten und allgemeingültigen Tugenden zu verdeutlichen; Concordia, aeternitas, fecunditas und pietas sind nur die wichtigsten. Der bedeutsamste hinter den Bildern stehende Gedanke ist der der "Dynastie". Diese Absicht bzw. diese Hoffnung auf Fortdauer der Familie konnte durch das Bild der "Kernfamilie" einfach und wirkungsvoll transportiert werden. Aus diesem Grunde kann von einem "dynastischen Familienbild" gesprochen werden. Es wurde die Hypothese aufgestellt, dass die Bilder der "Kernfamilie" nicht nur als Bilder realer Familien zu deuten sind, sondern auch topischen Charakter haben konnten. Es wird häufig nur ein Familienmitglied benannt, andere Personen werden unter Begriffen wie "cum parentibus" subsummiert. In diesen Fällen ist eine Entscheidung, ob die konkrete Familie gezeigt wird oder ob nur der Wert der Familie allgemein angezeigt werden soll, quasi unmöglich. Nur selten zeigen die dargestellten Personen wirklich individuelle Züge. Es handelt sich dabei aber wohl eher nicht um Porträts, sondern vielmehr um Bilder der "Rolle", welche die jeweilige Person in der Familie inne hatte. Es war also wichtiger, die Eltern von den Kindern unterscheiden zu können, als exakte Gesichtszüge wiederzugeben. Daher scheint es mir legitim zu sein, von einem "Kernfamilientopos" zu sprechen, der aber sehr wohl auch eine reale Familie zeigen kann. Zusammenfassend bleibt festzuhalten, dass es zwar keinen Begriff für die "Kernfamilie" gab, dass man aber nach Auswertung aller Quellen und des "Kernfamilientopos" davon ausgehen kann, dass diese Familieneinheit nicht nur die Lebenswirklichkeit der meisten Menschen darstellte, sondern auch als Symbol für eine ganze Anzahl von Kerntugenden dienen konnte, die für den Fortbestand der Dynastie, nicht nur im kaiserlichen, sondern auch im privaten Bereich, sowie für die Stabilität des Reiches von elementarer Bedeutung waren.
Zu den klassischen Verteilungen der mathematischen Statistik zählen die zentralen F- und t-Verteilungen. Die vorliegende Arbeit untersucht Verallgemeinerungen dieser Verteilungen, die sogenannten doppelt nichtzentralen F- und t-Verteilungen, welche in der statistischen Testtheorie von Bedeutung sind. Die Tatsache, dass die zugehörigen Wahrscheinlichkeitsdichten nur in Form von Parameterintegral- bzw. Doppelreihendarstellungen gegeben sind, stellt eine große Herausforderung bei der Untersuchung analytischer Eigenschaften dar. Unter Verwendung von Techniken aus der Theorie der vorzeichenregulären Funktionen gelingt es, die bisher vermutete, jedoch lediglich aus Approximationen abgeleitete, strikt unimodale Gestalt der Dichtefunktion für eine große Klasse doppelt nichtzentraler Verteilungen zu zeigen. Dieses Resultat gestattet die Untersuchung des eindeutig bestimmten Modus als Funktion gewisser Nichtzentralitätsparameter. Hier erweist sich die Theorie der vorzeichenregulären Funktionen als wichtiges Hilfsmittel, um monotone Abhängigkeiten nachzuweisen.
The influence of affect on vocal parameters has been well investigated in speech portrayed by actors, but little is known about affect expression in more natural or authentic speech behavior. This is partly due to the difficulty of generating speech samples that represent authentic expression of speaker affect. The present work investigates the influence of speaker affect on the vocal fundamental frequency (F0) in comparatively authentic speech samples. Three well-documented psychophysiological research methods were applied for the induction of affective states in German native speakers in order to obtain speech samples with authentic affect expression: the Cold Pressor Test (CPT), the Stroop Color-Word Test (SCWT) and the presentation of slides from the International Affective Pictures System (IAPS). The here reported results show that the influence of affect on F0 is differentially modulated by psychophysiological processes as well as socio-cultural influences. They also indicate that this approach may be useful for future research and further to gain a deeper understanding of authentic vocal affect expression. Moreover, F0 may constitute an additional non-invasive, easy to obtain measure for the established psychophysiological research methodology.
Psychotherapien verlaufen selten linear. Ein Ansatz zur Beschreibung plötzlicher Veränderungen sind Sudden Gains und Losses. Dabei handelt es sich um reliable, bedeutsame und relativ stabile Veränderungen in Therapieverlauf, die mithilfe kontinuierlicher Verlaufsmessung zwischen zwei Sitzungen feststellbar sind.rnBislang liegen nur wenige naturalistisch angelegte Studien vor, die das Auftreten von Sudden Gains und Losses an störungsheterogenen Patientengruppen unter praxisnahen Bedingungen untersuchen. Zudem sind bisherige Forschungsbefunde wenig aussagekräftig bezüglich möglicher Ursachen und Moderatoren von Sudden Gains und Losses.rnZwar sprechen bisherige Forschungsbefunde dafür, dass Sudden Gains im Therapieverlauf ein wünschenswertes Behandlungsergebnis begünstigen. Allerdings gibt es nur wenige Hinweise darauf, ob und wie sich diskontinuierliche Therapieverläufe vorhersagen, fördern oder abmildern lassen. Zudem ist wenig über das konkrete psychotherapeutische Geschehen, das den Sudden Gains und Losses vorausgeht, bekannt. Dies aber könnte einen wichtigen Beitrag zum Verständnis psychotherapeutischer Veränderungsprozesse liefern. Auch eröffnen sich dadurch Perspektiven der Optimierung von Therapeuten-Feedback und der Erstellung von Entscheidungsregeln und klinischen Handlungsempfehlungen.rnDie vorliegende Arbeit verbindet Outcome- und Prozessforschung in ambulanten psychotherapeutischen Versorgung, indem zunächst auf Grundlage von Fragebogen-Daten Sudden Gains und Losses in der Symptombelastung und im Therapiefortschritt identifiziert werden. Die so gewonnen Klassifikationen werden verglichen hinsichtlich psychometrischer Erhebungen zu Behandlungsbeginn, zu Behandlungsdauer und Therapierfolg. Die Verteilung diskontinuierlicher Therapieverläufe über verschiedene Diagnosen wird untersucht. Mithilfe von Fragebogen-Daten und Videoanalysen werden Aspekte der therapeutischen Beziehungsgestaltung und das Vorliegen außertherapeutischer Ereignisse in ihrem Zusammenhang mit Diskontinuitäten im Therapieverlauf verglichen.rnDie in dieser Arbeit analysierten Status- und Verlaufsdaten stammen aus der Poliklinischen Psychotherapieambulanz der Universität Trier, wo neben umfangreichen Statuserhebungen auch eine intensive kontinuierliche Verlaufsmessung die Therapien begleitet und standardmäßig alle Therapien audiovisuell aufgezeichnet werden. Die Stichprobe umfasste damit 314 Patienten, die mit bewältigungsorientierter Verhaltenstherapie unter Betonung einer ergänzenden motivationalen, interpersonalen und Ressourcen-Perspektive behandelt wurden. Therapievideos zweier Teilstichproben (ausgewählt anhand von Symptom- bzw. Fortschrittsmaß) wurden mithilfe eines bestehenden Manuals zur Erkennung von Brüchen in der therapeutischen Allianz und deren Reparatur genutzt. Eine weitere Videostichprobe aus einem vorangegangen Forschungsprojekt wurde mit einem selbst zusammengestellten Ratinginventar untersucht.rnEs zeigt sich, dass rund ein Drittel aller Patienten einen diskontinuierlichen Behandlungsverlauf zeigen. Im Fortschrittsmaß lassen sich an der Poliklinischen Psychotherapieambulanz deutlich weniger Sudden Losses feststellen als in einer Vorgängerstudie, in der vor allem Daten aus anderen Ambulanzen genutzt wurden. Es treten keine überzufälligen Häufungen von diskontinuierlichen Therapieverläufen in verschiedenen Störungsgruppen, auch nicht in Hinblick auf Persönlichkeitsakzentuierungen, auf. Insgesamt zeigen Patienten, die Sudden Gains erleben, höhere Belastung und geringeres Wohlbefinden bei Behandlungsbeginn, wobei sich nur Patienten mit Sudden Gains im Symptommaß auch hinsichtlich ihres initialen Symptomstatus als schwerer belastet erweisen. Das Auftreten von Sudden Gains im Fortschrittsmaß und im Symptommaß hängt überzufällig miteinander zusammen, wobei Sudden Gains im Therapiefortschritt plötzlichen Symptomlinderungen häufiger vorausgehen. Sudden Gains hängen ungeachtet des Messinstruments mit größerem Behandlungserfolg zusammen. Mit einem geringeren Behandlungserfolg assoziiert sind Verläufe, die durch plötzliche Symptom-verschärfungen oder ein Auf und Ab im wahrgenommenen Therapiefortschritt assoziiert sind, wobei letzteres lediglich eine nicht signifikante Tendenz beschreibt, die sich jedoch weitgehend mit bisherigen Forschungsbefunden deckt. Dabei nehmen Patienten mit diskontinuierlichen Verläufen gleich welcher Art mehr Therapie in Anspruch als Patienten mit kontinuierlichem Verlauf. rnZudem zeigt sich um Sudden Gains im Therapiefortschritt ein deutlicher Anstieg der therapeutischen Allianz, während diese um Sudden Losses abnimmt. Hingegen sinkt um Sudden Gains in der Symptombelastung die Belastung durch außertherapeutische Ereignisse, während sie um Sudden Losses zunimmt. In den Videoanalysen zeigen sich teils signifikante Unterschiede im Umgang der Therapeuten mit auftretenden Beziehungsbrüchen.rn
Evaluation of desalination techniques for treating the brackish water of Olushandja sub-basin
(2014)
The groundwater of Olushandja sub-basin as part of Cuvelai basin in central-northern Namibia is saline with TDS content varying between 4,000ppm to 90,000ppm. Based on climatic conditions, this region can be classified as a semi-arid to arid region with an annual rainfall during summer time varying between 200mm to 500mm. The mean annual evaporation potential is about 2,800mm, which is much higher than the annual rainfall. The southern block of this sub-basin is of low population density. It has not been covered by the supply networks for electricity and water. Therefore, the inhabitants are forced to use the untreated groundwater from the hand-dug wells for their daily purposes. This groundwater is not safe for human consumption and therefore needs to be desalinated for that purpose. The goal of this thesis has been to select a suitable desalination technology for that region. The technology to be selected is from those which use renewable energy sources, which have capacity of production from 10m3 to 100m3 per day, which are simple and robust against existing harsh environmental conditions and have already been implemented successfully in some place. Based on these criteria, the technologies which emerged from the literature are: multistage flashing (MSF), multi effect distillation (MED), multi effect humidification (MEH), membrane distillation (MD), reverse osmosis (RO) and electro dialysis reversed (ED). Out of these technologies, RO & ED are based on membrane techniques and MSF, MED & MEH use thermal processes whereas MD technology uses a hybrid process of thermal and membrane techniques for desalinating the water. For evaluation of technical performance, environmental sustainability and financial feasibility of the above mentioned desalination techniques, the following criteria have been used: gained output ratio, recovery rate, pretreatment requirements, sensitivity to feed water quality, post treatment, operating temperature, operating pressure, scaling and fouling potential, corrosion susceptibility, brine disposal, prime energy requirement, mechanical and electrical power output, heat energy, running costs and water generation costs. The data regarding the performance standards of the successfully implemented desalination techniques have been obtained from the literature of performance benchmarks. The Utility Value Analysis Tool of the Rafter-Group of Multi-Criteria Analysis (MCA) has been used for measuring the performance score of a technology. To perform the utility analysis, an evaluation matrix has to be constructed through the following procedures: selection of the decision options (or assessment groups), identification of the evaluation criteria, measurement of performance and transformation of the units. Then the criteria under the objective groups are assigned a level of importance for determining their weights.To perform the sensitivity analysis the level of importance of a criterion is changed by giving more weight or rate to the assessment group of interest (or study). Within the assessment group of interests, the best performing desalination technology has been selected according to the outcome of the sensitivity analysis. The important conclusions of this study are the identification of the capabilities of thermal and membrane based small scale desalination technologies and their applicability based on site specific needs. The sensitivity analysis indicates that the MED technology is the most environmental friendly technology that uses minimum energy and produces least concentrated brine for disposal. The ED technology has emerged to be technically suitable, but it is only applicable when source water has less than 12.000 ppm salt content. The MSF process has favorable thermal efficiency and it is insensitive to feed water quality. Its major drawbacks are energy needs and post treatment requirements that affected its net score. The MD and MSF process have scored the lowest for the technical and economic assessment groups and are concluded not to be suitable for Olushandja sub-basin. The MEH process is cheaper and technically more appropriate than the MED in the two assessment groups. Based on the above mentioned evaluations, this study concluded that Olushandja sub-basin needs more data collection on the geological profile, distinctive identification of aquifers and evidence on the interaction between the aquifers. From the best available data obtained, it could not be established with certainty where the highest level of salinity can be found in the profile, or how the geological profile is layered. More data on ground water quality for spatial overview of the trends and pattern of the sub-basin will be useful in drawing better conclusion on the specific desalination technology needed which is suitable for a specified village or living space.
Die Dissertation bietet erstmals eine systematisch vergleichende Analyse von jüdischen Gemeinden in Kathedralstädten. Diese gehören zu einem Städtetypus, der wesentlich durch seine Mittelpunktfunktion innerhalb der Bistümer bestimmt ist und in dem sich urbanes Leben bis zum 14. Jahrhundert am stärksten entfaltete. Kathedralstädte besaßen religiöse, wirtschaftliche, politische, militärische und geistige Funktionen und standen in engen Wechselbeziehungen zum Umland. Darüber hinaus beheimateten sie die frühesten christlichen Stadtgemeinden sowie fast ausnahmslos die bedeutendsten Judengemeinden innerhalb der Diözesen. Die untersuchten Zentren umspannten mit ihren aneinander grenzenden Bistümern den Südosten der deutschen "Altsiedellande". Hier entfalteten sich jüdische Niederlassungen in der Regel früher und stärker als in den östlichen "Neusiedellanden". Zum Süden waren die bayerischen von den südalpinen Juden getrennt. In östlicher Richtung war insbesondere Regensburg mit den dortigen christlichen und jüdischen Bewohnern ein Brückenkopf in die Donaulande und nach Böhmen. Zugleich fungierten die jüdischen Gemeinden von Augsburg und Regensburg als Vermittlerinnen zu den intensiv von Juden besiedelten Regionen Frankens, Schwabens und der Oberpfalz. Mit der Beachtung dieser weiträumigen Verbindungen bietet die Studie neue Zugänge zu den europäischen Dimensionen der mittelalterlichen Geschichte der Juden. Vor diesem Hintergrund werden in vergleichender Perspektive die komplexen Beziehungen zwischen Juden und Christen auf ökonomischer, sozialer und rechtlicher Ebene untersucht, die jeweils unterschiedlichen Handlungsspielräume dargestellt und mit zahlreichen Beispielen illustriert. Der dabei konsequent komparatistisch ausgerichtete Ansatz öffnet den Blick für die Besonderheiten der Lebensbedingungen von Juden in den Kathedralstädten des weiteren altbayerischen Raumes und trägt zu einer grundlegenden Erweiterung des Forschungsstandes bei.
Selbstregulation beschreibt die Fähigkeit, eigene Bedürfnisse, Werte und Interessen in die willentliche Handlungssteuerung einzubeziehen und so das eigene Handeln auf die Verwirklichung selbstkongruenter Ziele auszurichten. Die Arbeit beleuchtet die Bedeutung der Selbstregulation im Bildungskontext und überprüft die Wirksamkeit von Fördermaßnahmen, z.B. die eines selbstkonzipierten Schülertrainings für Schülerinnen und Schüler der Orientierungsstufe. Die Ergebnisse der empirischen Untersuchungen zeigen, dass selbstregulatorische Kompetenzen durch gezielte Maßnahmen gefördert werden können.
Im Mittelpunkt der Arbeit steht der spätgotische Kirchenbau der 2. Hälfte des 15. Jahrhunderts im alten Erzbistum Trier. Dabei soll besonderes Augenmerk auf die unter Erzbischof und Kurfürst Johann II. von Baden (1456-1503) neu entstandenen und/oder umgebauten bzw. "modernisierten" Kirchen gelegt werden. Diese wurden in der bisherigen Forschung, bis auf Einzelmonographien, nicht in einer Zusammenschau betrachtet. Auch auf die Bau- und Stiftungspolitik Johanns II. von Baden, der scheinbar sämtliche in seiner Regierungszeit entstandenen Baumaßnahmen durch sein Wappen kennzeichnete, und deren Hintergründe, soll näher eingegangen werden. Neben den bekannteren Bauten in den Zentren des Erzstiftes Trier " Trier und Koblenz - entstanden in der 2. Hälfte des 15. Jahrhunderts im gesamten Erzbistum bedeutende spätgotische Bauten, so etwa in St. Wendel, in Klausen oder die Kirche des ehem. Kreuzherrenklosters Helenenberg. Neben den allgemein bekannteren Bauten sollen in der geplanten Dissertation aber vor allem auch die zahlreichen ländlichen Pfarrkirchen in Eifel, Hunsrück, Westerwald und Rhein-Lahn-Kreis gewürdigt werden. Diese blieben in der bisherigen kunsthistorischen Forschung außen vor, obwohl sie zum Teil von großer künstlerischer Qualität zeugen und einen wesentlichen Beitrag der Kunst- und Kulturgeschichte des Trierer Raumes leisten. Mit einer solchen Arbeit könnte eine Lücke der bisherigen Forschung zum spätmittelalterlichen Kirchenbau in Westdeutschland geschlossen werden, was nicht nur aus kunsthistorischer Sicht, sondern auch aus lokal-historischer, sozial- und kirchengeschichtlicher Sicht dringend erforderlich wäre.
This dissertation includes three research articles on the portfolio risks of private investors. In the first article, we analyze a large data set of private banking portfolios in Switzerland of a major bank with the unique feature that parts of the portfolios were managed by the bank, and parts were advisory portfolios. To correct the heterogeneity of individual investors, we apply a mixture model and a cluster analysis. Our results suggest that there is indeed a substantial group of advised individual investors that outperform the bank managed portfolios, at least after fees. However, a simple passive strategy that invests in the MSCI World and a risk-free asset significantly outperforms both the better advisory and the bank managed portfolios. The new regulation of the EU for financial products (UCITS IV) prescribes Value at Risk (VaR) as the benchmark for assessing the risk of structured products. The second article discusses the limitations of this approach and shows that, in theory, the expected return of structured products can be unbounded while the VaR requirement for the lowest risk class can still be satisfied. Real-life examples of large returns within the lowest risk class are then provided. The results demonstrate that the new regulation could lead to new seemingly safe products that hide large risks. Behavioral investors who choose products based only on their official risk classes and their expected returns will, therefore, invest into suboptimal products. To overcome these limitations, we suggest a new risk-return measure for financial products based on the martingale measure that could erase such loopholes. Under the mean-VaR framework, the third article discusses the impacts of the underlying's first four moments on the structured product. By expanding the expected return and the VaR of a structured product with its underlying moments, it is possible to investigate each moment's impact on them, simultaneously. Results are tested by Monte Carlo simulation and historical simulation. The findings show that for the majority of structured products, underlyings with large positive skewness are preferred. The preferences for variance and for kurtosis are ambiguous.
Dans une perspective du développement touristique durable du territoire d'Agadir / région Souss Massa Draa (Maroc), qu'est un territoire touristique offrant un produit balnéaire diversifié et généralement consolidé par une offre en matière du tourisme rural. Ce travail de recherche vise la mise en œuvre d"un management environnemental adapté à la situation locale, conforme aux normes internationales et à l'apporté des entreprises touristiques y opérant. Ainsi, la réalisation d"un diagnostic environnemental est une étape fondamentale et se fera à l'aide de quatre différents outils d'enquête (Observation, guide d"entretien, grille d'évaluation et questionnaires). Cependant, il va falloir choisir les cas leadeurs en la matière - s'ils existent - pour les présenter aux managers afin de les sensibiliser concrètement à la nécessité d'adopter un management environnemental au sein de leurs structures et de prendre ces cas sélectionnés comme modèles. Cette étude a permis de tirer les conclusions suivantes : - Une maturité du territoire d'étude de la région SMD, lui permettra de s"inscrire dans une démarche de développement touristique durable à travers l'adoption d'un management environnemental en passant par l"assurance de la qualité des services. - La qualité des services est satisfaisante au sein des EHT étudiés et relevant du milieu urbain. En revanche, en milieu rural elle à rehausser en soulignant qu'ils sont dotés d'un paysage régional remarquable et exceptionnel. - Les responsables interviewés n'ont cité que les impacts positifs de leurs activités sur l"environnement (Création d'emplois, promotion de l'économie et de la culture locales, financement des événements à caractère social...). - Une faible existence du Management environnemental au sein des EHT étudiés (4,16 % l'échantillonnage dispose d'une politique environnementale). Ainsi que à l'issue de l'évaluation deux cas ont été proposés comme modèles en la matière. - La charte et le Manuel comme de deux solutions locales visant la promotion du Management Environnemental. Actuellement, la charte a été mise en Å“uvre en milieu rural dans une perspective de la généraliser sur la totalité du territoire régional voire même national. Enfin, cette étude a apporté une réponse à la problématique et aux hypothèses de recherche et a permis par la même occasion de proposer des outils visant l'instauration et/ou la promotion du management environnemental à l'échelle régionale.
Hartmann von Aue hat das Präteritum des Verbs "komen" in seinem Frühwerk 'Erec' und noch am Anfang seines letzten Werks 'Iwein' häufig, nach dessen ersten tausend Versen aber kaum mehr gereimt. Vom Standpunkt der einschlägigen Forschung aus soll Hartmann Reime mit seinen alemannischen Formen "kam", "kâmen" und "kæme(n)" nun aus Rücksicht auf denjenigen Dialektraum gemieden haben, in dem die schwer zu reimenden Formen "kom", "kâmen" und "kæme(n)" heimisch waren und den man somit am ehesten als den bairischen identifiziert hat. Die vorliegende Arbeit befasst sich mit diesem für den Etablierungsprozess der Literatursprache um 1200 relevanten Befund der traditionellen mittelhochdeutschen Reimuntersuchungen. Nach einem Referat über die bisherigen Forschungsergebnisse wird zunächst beobachtet, dass der späte Hartmann im Unterschied zu seinen beiden ebenfalls das Präteritum von "komen" vereinzelt reimenden Vergleichsgrößen Wolfram von Eschenbach und Wirnt von Grafenberg die entsprechenden Reimtypen "-am", "-âmen" und "-æme(n)" überhaupt nur selten oder nie benutzt hat. Der folgende Hauptteil behandelt das Vorkommen der präteritalen Formen von "komen" und ihrer gängigen Reimpartner (vor allem der entsprechenden Formen weiterer drei Verben derselben Ablautreihe "nëmen", "vernëmen" und "zëmen" und von Adjektiven auf "-sam") in den Werken der drei Dichter sowie in vier Werken von Hartmanns noch bedenkenlos "quam" / "kam" usw. reimenden Vorgängern und Zeitgenossen ('Straßburger Alexander', Heinrichs von Veldeke 'Eneit', Ulrichs von Zatzikhoven 'Lanzelet' und Gottfrieds von Straßburg 'Tristan') ausführlich, indem u. a. die Verhältnisse im Versinnern mit berücksichtigt werden. Die Untersuchungen haben ergeben, dass das Seltenerwerden oder Verschwinden der besagten Reimtypen beim späten Hartmann mit der Umsetzung seines Stilideals wie der prosaischen Wortstellung nur bis zu einem gewissen Grade begründet werden kann: Nach den festgestellten Verhältnissen hat er offenbar tatsächlich das Reimen mit seinen "kam"-Formen gemieden, und zwar wahrscheinlich erst allmählich. Das zentrale Ergebnis der vorliegenden Arbeit besteht in der durch eine Reihe von Häufigkeitstabellen und durch eine umfassende Belegpräsentation in den Anhängen abgesicherten Beobachtung, dass der späte Hartmann dem neuen Trend zum Nichtreimen der präteritalen Formen von "komen" vorausgegangen ist, sein eigentlich damit gut vereinbares neues Stilideal aber, vermutlich wegen des überwältigenden Einflusses Wolframs, ohne unmittelbare Nachfolge geblieben ist.
The presented research aims at providing a first empirical investigation on lexical structure in Chinese with appropriate quantitative methods. The research objects contain individual properties of words (part of speech, polyfunctionality, polysemy, word length), the relationships between properties (part of speech and polyfunctionality, polyfunctionality and polysemy, polysemy and word length) and the lexical structure composed by those properties. Some extant hypotheses in QL, such as distributions of polysemy and the relationship between word length and polysemy, are tested on the data of Chinese, which enrich the applicability of the laws with a language not tested yet. Several original hypotheses such as the distribution of polyfunctionality and the relationship between polyfunctionality and polysemy are set up and inspected.
Stress has been considered one of the most relevant factors promoting aggressive behavior. Animal and human pharmacological studies revealed the stress hormones corticosterone in rodents and cortisol in humans to constitute a particularly important neuroendocrine determinate in facilitating aggression and beyond that, assumedly in its continuation and escalation. Moreover, cortisol-induced alterations of social information processing, as well as of cognitive control processes, have been hypothesized as possible influencing factors in the stress-aggression link. So far, the immediate impact of a preceding stressor and thereby stress-induced rise of cortisol on aggressive behavior as well as higher-order cognitive control processes and social information processing in this context have gone mostly unheeded. The present thesis aimed to extend the hitherto findings of stress and aggression in this regard. For this purpose two psychophysiological studies with healthy adults were carried out, both using the socially evaluated-cold pressor test as an acute stress induction. Additionally to behavioral data and subjective reports, event related potentials were measured and acute levels of salivary cortisol were collected on the basis of which stressed participants were divided into cortisol-responders and "nonresponders. Study 1 examined the impact of acute stress-induced cortisol increase on inhibitory control and its neural correlates. 41 male participants were randomly assigned to the stress procedure or to a non-stressful control condition. Beforehand and afterwards, participants performed a Go Nogo task with visual letters to measure response inhibition. The effect of acute stress-induced cortisol increase on covert and overt aggressive behavior and on the processing of provoking stimuli within the aggressive encounter was investigated in study 2. Moreover, this experiment examined the combined impact of stress and aggression on ensuing affective information processing. 71 male and female participants were either exposed to the stress or to the control condition. Following this, half of each group received high or low levels of provocation during the Taylor Aggression Paradigm. At the end of the experiment, a passive viewing paradigm with affective pictures depicting positive, negative, or aggressive scenes with either humans or objects was realized. The results revealed that men were not affected by a stress-induced rise in cortisol on a behavioral level, showing neither impaired response inhibition nor enhanced aggressive behavior. In contrast, women showed enhanced overt and covert aggressive behavior under a surge of endogenous cortisol, confirming previous results, albeit only in case of high provocation and only up to the level of the control group. Unlike this rather moderate impact on behavior, cortisol showed a distinct impact on neural correlates of information processing throughout inhibitory control, aggression-eliciting stimuli, and emotional pictures for both men and women. At this, stress-induced increase of cortisol resulted in enhanced N2 amplitudes to Go stimuli, whereas P2 amplitudes to both and N2 to Nogo amplitudes retained unchanged, indicating an overcorrection and caution of the response activation in favor of successful inhibitory control. The processing of aggression-eliciting stimuli during the aggressive encounter was complexly altered by stress differently for women and men. Under increased cortisol levels, the frontal or parietal P3 amplitude patterns were either diminished or reversed in the case of high provocation compared to the control group and to cortisol-nonresponders, indicating a desensitization towards aggression-eliciting stimuli in males, but a more elaborate processing of those in women. Moreover, stress-induced cortisol and provocation jointly altered subsequent affective information processing at early as well as later stages of the information processing stream. Again, increased levels of cortisol led opposite directed amplitudes in the case of high provocation relative to the control group and cortisol-nonresponders, with enhanced N2 amplitudes in men and reduced P3 and LPP amplitudes in men and women for all affective pictures, suggesting initially enhanced emotional reactivity in men, but ensuing reduced motivational attention and enhanced emotion regulation in both, men and women. As a result, these present findings confirm the relevance of HPA activity in the elicitation and persistence of human aggressive behavior. Moreover, they reveal the significance of compensatory and emotion regulatory strategies and mechanisms in response to stress and provocation, indorsing the relevance of social information and cognitive control processes. Still, more research is needed to clarify the conditions which lead to the facilitation of aggression and by which compensatory mechanisms this is prevented.
The present thesis addresses the validity of Binge Eating Disorder (BED) as well as underlying mechanisms of BED from three different angles. Three studies provide data discriminating obesity with BED from obesity without BED. Study 1 demonstrates differences between obese individuals with and without BED regarding eating in the natural environment, psychiatric comorbidity, negative affect as well as self reported tendencies in eating behavior. Evidence for possible psychological mechanisms explaining increased intake of BED individuals in the natural environment was given by analyzing associations of negative affect, emotional eating, restrained eating and caloric intake in obese BED compared to NBED controls. Study 2 demonstrated stress-induced changes in the eating behavior of obese individuals with BED. The impact of a psychosocial stressor, the Trier Social Stress Test (TSST, Kirschbaum, Pirke, & Hellhammer, 1993), on behavioral patterns of eating behavior in laboratory was investigated. Special attention was given to stress-induced changes in variables that reflect mechanisms of appetite regulation in obese BED individuals compared to controls. To further explore by which mechanisms stress might trigger binge eating, study 3 investigated differences in stress-induced cortisol secretion after a socially evaluated cold pressure test (SECPT, Schwabe, Haddad, & Schachinger, 2008) in obese BED as compared to obese NBED individuals.
This study focuses on the representation of British South Asian identities in contemporary British audiovisual media. It attempts to answer the question, whether these identities are represented as hybrid, heterogeneous and ambivalent, or whether these contemporary representations follow in the tradition of colonial and postcolonial racialism. Racialised depictions of British South Asians have been the norm not only in the colonial but also in the postcolonial era until the rise of the Black British movement, whose successes have been also acknowledged in the field of representation. However these achievements have to be scrutinized again, especially in the context of the post 9/11 world, rising Islamophobia, and new forms of institutionalized discrimination on the basis of religion. Since the majority of British Muslims are of South Asian origin, this study tries to answer the question whether the marker of religious origin is racial belonging, i.e. skin colour, and old stereotypes associated with the racialised representation are being perpetuated into current depictions through an examination of the varied genre of popular audio visual media texts.
Wegen der vielfältigen Kenntnisse und Perspektiven, die die Mitglieder von Gruppen besitzen, werden anstelle von Individuen oft Gruppen an Verhandlungen beteiligt. Allerdings konzentrierte sich die bisherige Forschung auf den Austausch und die Integration von Informationen zwischen Verhandlungsgruppen. Informationen innerhalb von Verhandlungsgruppen wurden dagegen als von den Gruppenmitgliedern geteilt angesehen. Daher wurde Informationsverarbeitung innerhalb von Verhandlungruppen und ihre Folgen für die gemeinsamen Ergebnisse der Parteien in integrativen Win-Win-Verhandlungen vernachlässigt. Im Rahmen dieser Dissertation wird angenommen, dass ein Unterschieds-Mindset (d.h. eine besondere Sensibilität für Unterschiede) (1) durch eine hohe Diversität in Gruppen aktiviert wird, (2) die Projektion von Gruppenmitgliedern auf andere Gruppenmitglieder reduziert, (3) die Qualität der ersten Forderung durch eine verbesserte Informationsverarbeitung innerhalb der Gruppen erhöht und (4) die gemeinsamen Verhandlungsergebnisse durch eine verbesserte Informationsverarbeitung innerhalb der Gruppen (5a) vor und während Zwischen-Gruppen-Verhandlungen und (5b) vor Repräsentantenverhandlungen steigert. These 1 wurde durch eine experimentelle Onlinestudie mit manipulierter Rückmeldung über hohe (vs. niedrige) Gruppendiversität (Studie 1) bestätigt. These 2 wurde durch eine experimentelle Studie mit manipulierten Online-Gruppen und komparativen Mindsets (Ähnlichkeiten vs. Unterschiede) als unabhängige Variablen (Studie 2) bestätigt. These 3 konnte von einer experimentellen Laborstudie mit Zwischen-Gruppen-Verhandlungen (Studie 3) nicht gestützt werden, wohl aber durch eine experimentelle Laborstudie mit Repräsentantenverhandlungen (Studie 4). Beide Studien unterstützen ebenfalls These 4 und 5, mit der Einschränkung, dass ein Unterschieds-Mindset die gemeinsamen Ergebnisse in einer Zwischen-Gruppen-Verhandlung nur durch die Informationsverarbeitung während der Verhandlung beeinflusst, nicht durch die Verarbeitung zuvor. Beiträge, Grenzen und Implikationen für die zukünftige Forschung werden diskutiert.
A sustainable development of forests and their ecosystem services requires the monitoring of the forests" state and changes as well as the prediction of their future development. To achieve the latter, eco-physiological forest growth models are usually applied. These models require calibration and validation with forestry reference data. This data includes forest structural parameters such as tree height or stem diameter which are easy to measure and can be used to estimate the core model parameters, i.e. the tree- biomass pools. The methods traditionally applied to derive the structural parameters are mainly manual and time-consuming. Hence, the in situ data acquisition is inefficient and limited in its ability to capture the vertical and horizontal variability in stand structure. Ground-based remote sensing bears the potential to overcome the limitations of the traditional methods. As they can be automated, ground-based remote sensing methods allow a much more efficient data acquisition and a larger spatial coverage. They are also able to capture forest structure in its three dimensions. Nevertheless, at present further research is required, in particular with respect to the practical integration of ground-based remote sensing data into forest growth models as well as regarding factors influencing the structural parameter retrieval from this data. Therefore, the goal of this PhD thesis was to investigate the influencing factors of two ground-based remote sensing methods (terrestrial laser scanning and hemispherical photography), which have not or only scarcely been studied to date. In addition, the use of forest structural parameters derived from these methods for the calibration of a forest growth model was assessed. Both goals were achieved. The results of this thesis could contribute significantly to a comprehensive assessment of ground-based remote sensing and its potential to derive the forest structural parameters. However, the use of these methods to calibrate forest growth models proved to be limited. An optimized data sampling design is expected to eliminate the major limitations, though. Furthermore, the combination of ground-based, airborne, and satellite remote sensing sensors was suggested to provide an optimized framework for the general integration of remotely sensed data into forest growth models. This combination of remote sensing observations at different scales will contribute greatly to a modern forest management with the purpose of warranting a sustainable forest development even under growing economic and ecological pressures.
An einer Stichprobe mit insgesamt N = 204 Psychotherapiepatienten einer stationären Rehabilitationseinrichtung wurden die Auswirkungen der Posttraumatischen Verbitterungsstörung (Posttraumatic Embitterment Disorder; PTED) auf die berufliche Vertrauens-Trias untersucht und eine Emotionsanalyse zur Verbitterung durchgeführt. Als weitere Persönlichkeitsmerkmale wurden Ärgerneigung, Ärgerbewältigung, Zielanpassung und das arbeitsbezogene Verhaltens- und Erlebensmuster erfasst. Ein Vergleich der Patientengruppen "mit Verbitterungsaffekt" und "ohne Verbitterungsaffekt" belegt die ätiologische Relevanz der Faktoren Zielblockierung, Attribution der Verantwortung, anhaltender Ärger und misslungene Situationsbewältigung bei der Entstehung der Emotion Verbitterung. Nach den Ergebnissen einer durchgeführten MANOVA mit den drei Gruppen (PTED aufgrund eines Arbeitsplatzereignisses vorhanden; PTED aufgrund eines Arbeitsplatzereignisses nicht vorhanden; kein Arbeitsplatzereignis) unterscheiden sich die beiden Patientengruppen mit einem Arbeitsplatzereignis nicht signifikant voneinander in Bezug auf ihre berufliche Vertrauens-Trias, ihre Ärgerneigung und -bewältigung sowie ihre Zielanpassung. Allerdings haben Patienten mit Arbeitsplatzereignis eine geringere berufliche internale Kontrollüberzeugung, besitzen weniger interpersonales Vertrauen am Arbeitsplatz und ihr Vertrauen in die eigene berufliche Zukunft ist niedriger als bei Patienten ohne Arbeitsplatzereignis. Ein weiterer Unterschied sind die höheren Arbeitsunfähigkeitszahlen bei Patienten mit Arbeitsplatzereignis " mit den meisten Krankschreibungen in der Gruppe der PTED-Patienten. Im arbeitsbezogenen Verhaltens- und Erlebensmuster unterscheiden sich die drei Patientengruppen in den Skalen Ehrgeiz, Verausgabungsbereitschaft, Distanzierungsfähigkeit, Offensive Problembewältigung und Soziale Unterstützung. Auch hier unterscheiden sich hauptsächlich die beiden Gruppen mit Arbeitsplatzereignis von der Gruppe ohne Arbeitsplatzereignis, einzige Ausnahme ist das Erleben sozialer Unterstützung.
Das übergeordnete Ziel dieser Dissertation ist die Untersuchung der aktuellen Geomorphodynamik in den Gullyeinzugsgebieten der Souss-Ebene, Südmarokko. Eine Sonderstellung nehmen besonders in der Taroudant-Region die durch land-levelling Maßnahmen beeinflussten Flächen ein. Anhand von experimentellen Feldmethoden werden verschiedene Prozesse der Bodenerosion aufgenommen und bewertet. Mittels Luftbildmonitoring mit einer Drohne erfolgt eine Analyse des Gullywachstums. Durch eine Zusammenführung der Methodenkombination kann ein Gesamtbild der aktuellen geomorphologischen Prozessdynamik im Souss erstellt werden. Mit Zerfall der Zuckerindustrie Ende des 17. Jahrhunderts setzt im Souss Becken aufgrund der nahezu vollständigen Abholzung der Arganwälder die lineare Bodenerosion ein. Mit der Transformation von traditioneller Landwirtschaft zu modernen Zitrusfrucht- und Gemüseplantagen, beginnt Anfang der 1960er Jahre ein sehr dynamischer Landnutzungswandel. Die Expansion der Anbauflächen, die von Wadi- und Gullysystemen tief zerschnittenen sind, wird durch Planierungsmaßnahmen vorangetrieben. Auf den planierten Flächen entwickeln sich durch die Verdichtung des Bodens, das Entfernen von Vegetationsbedeckung sowie Krustenbildung auf dem schluffig-lehmigen Substrat bei Starkniederschlagsereignissen zumeist erneut Gullys. Die rasche lineare Zerschneidung bedroht weitere Anbauflächen. Eine nachhaltige Entwicklung auf diesen Flächen ist daher fraglich. Durch starke Verschlämmung nach Niederschlägen bilden sich auf den planierten Flächen sehr schnell physikalische Bodenkrusten aus. Ihre Mikromorphologie ist aufgrund der Belastungen mit schwerem Gerät sowie mehrfacher Erosions- und Akkumulationszyklen durch Plattenstruktur und Vesikel geprägt, wodurch die Infiltrationskapazität des Bodens verringert wird. Diese Auswirkungen können durch Messungen mit dem Einringinfiltrometer bestätigt werden. Sie zeigen auf ungestörten Flächen durchschnittlich eine 2,6-fach höhere Infiltrationsrate als auf planierten Flächen. Durch eine Inventarisierung der Bodeneigenschaften und Oberflächencharakteristika kann ihre signifikante Veränderung nach Planierungsmaßnahmen identifiziert werden. So zeigen planierte Flächen hohe Anteile an Bodenverkrustung und wenig Vegetationsbedeckung auf. Ungestörte Flächen sind dagegen weniger verkrustet und stärker mit Vegetation bedeckt. Zudem kann eine Kompaktion der oberen Bodenschicht nachgewiesen werden. Diese Faktoren wirken auf die Oberflächenabflussbildung und den Sedimentabtrag ein. Die Ergebnisse von 122 Niederschlagssimulationen mit einer Kleinberegnungsanlage zeigen einen signifikanten Anstieg der mittleren Oberflächenabflüsse und Sedimentfrachten (1,4-, bzw. 3,5-mal höher) auf planierten im Gegensatz zu ungestörten Testflächen. Mithilfe des Gullymonitorings wird die Entwicklung eines kompletten Gullys durch Starkniederschlagsereignisse auf einer planierten Fläche detektiert. Dabei wird in einem 3,5 ha großen Einzugsgebiet etwa 1080 t Bodenmaterial erodiert. Hier wurde errechnet, dass Gullyerosion für 91 % des gesamten Bodenverlustes im Einzugsgebiet verantwortlich ist. Die Fläche dient nur als Lieferant des Erosionsagens Wasser. Das Verfüllen des ursprünglichen Gullysystems mit Material der umliegenden Hänge führt zu einer Erniedrigung der Geländehöhe von durchschnittlich über 5 cm. Auf ungestörten Flächen wird dagegen nur ein geringes Gullywachstum verzeichnet. Die vorgestellte Methodenkombination lässt eine gezielte Beschreibung der aktuellen Geomorphodynamik in den Einzugsgebieten der Souss-Ebene zu. Durch die land-levelling Maßnahmen wird die Prozessdynamik signifikant erhöht. Eine Verminderung der Vegetationsbedeckung, schnelle Krustenbildung sowie Bodenkompaktion unterstützen hohe Oberflächenabflussbildung und Sedimentabtrag. Durch lineare Konzentration des Abflusses wird rapide Gullyerosion gefördert. Ganze Gullysysteme können sich auf Planierungsflächen durch nur ein einziges Starkniederschlagsereignis ausbilden. Dadurch sind Anbauflächen, Gebäude und Infrastruktur gefährdet.
Attitudes are "the most distinctive and indispensable concept in contemporary social psychology" (Allport, 1935, p. 798). This outstanding position of the attitude concept in social cognitive research is not only reflected in the innumerous studies focusing on this concept but also in the huge number of theoretical approaches that have been put forth since then. Yet, it is still an open question, what attitudes actually are. That is, the question of how attitude objects are represented in memory cannot be unequivocally answered until now (e.g., Barsalou, 1999; Gawronski, 2007; Pratkanis, 1989, Chapter 4). In particular, researchers strongly differ with respect to their assumptions on the content, format and structural nature of attitude representations (Ferguson & Fukukura, 2012). This prevailing uncertainty on what actually constitutes our likes and dislikes is strongly dovetailed with the question of which processes result in the formation of these representations. In recent years, this issue has mainly been addressed in evaluative conditioning research (EC). In a standard EC-paradigm a neutral stimulus (conditioned stimulus, CS) is repeatedly paired with an affective stimulus (unconditioned stimulus, US). The pairing of stimuli then typically results in changes in the evaluation of the CS corresponding to the evaluative response of the US (De Houwer, Baeyens, & Field, 2005). This experimental approach on the formation of attitudes has primarily been concerned with the question of how the representations underlying our attitudes are formed. However, which processes operate on the formation of such an attitude representation is not yet understood (Jones, Olson, & Fazio, 2010; Walther, Nagengast, & Trasselli, 2005). Indeed, there are several ideas on how CS-US pairs might be encoded in memory. Notwithstanding the importance of these theoretical ideas, looking at the existing empirical work within the research area of EC (for reviews see Hofmann, De Houwer, Perugini, Baeyens, & Crombez, 2010; De Houwer, Thomas, & Baeyens, 2001) leaves one with the impression that scientists have skipped the basic processes. Basic processes hereby especially refer to the attentional processes being involved in the encoding of CSs and USs as well as the relation between them. Against the background of this huge gap in current research on attitude formation, the focus of this thesis will be to highlight the contribution of selective attention processes to a better understanding of the representation underlying our likes and dislikes. In particular, the present thesis considers the role of selective attention processes for the solution of the representation issue from three different perspectives. Before illustrating these different perspectives, Chapter 1 is meant to envision the omnipresence of the representation problem in current theoretical as well as empirical work on evaluative conditioning. Likewise, it emphasizes the critical role of selective attention processes for the representation question in classical conditioning and how this knowledge might be used to put forth the uniqueness of evaluative conditioning as compared to classical conditioning. Chapter 2 then considers the differential influence of attentional resources and goal-directed attention on attitude learning. The primary objective of the presented experiment was thereby to investigate whether attentional resources and goal-directed attention exert their influence on EC via changes in the encoding of CS-US relations in memory (i.e., contingency memory). Taking the findings from this experiment into account, Chapter 3 focuses on the selective processing of the US relative to the CS. In particular, the two experiments presented in this chapter were meant to explore the moderating influence of the selective processing of the US in its relation to the CS on EC. In Chapter 4 the important role of the encoding of the US in relation to the CS, as outlined in Chapter 3, is illuminated in the context of different retrieval processes. Against the background of the findings from the two presented experiments, the interplay between the encoding of CS-US contingencies and the moderation of EC via different retrieval processes will be discussed. Finally, a general discussion of the findings, their theoretical implications and future research lines will be outlined in Chapter 5.
Evaluative conditioning (EC) refers to changes in liking that are due to the pairing of stimuli, and is one of the effects studied in order to understand the processes of attitude formation. Initially, EC had been conceived of as driven by processes that are unique to the formation of attitudes, and that occur independent of whether or not individuals engage in conscious and effortful propositional processes. However, propositional processes have gained considerable popularity as an explanatory concept for the boundary conditions observed in EC studies, with some authors going as far as to suggest that the evidence implies that EC is driven primarily by propositional processes. In this monograph I present research which questions the validity of this claim, and I discuss theoretical challenges and avenues for future EC research.
Mankind has dramatically influenced the nitrogen (N) fluxes between soil, vegetation, water and atmosphere " the global N cycle. Increasing intensification of agricultural land use, caused by the growing demand for agricultural products, has had major impacts on ecosystems worldwide. Particularly nitrogenous gases such as ammonia (NH3) have increased mainly due to industrial livestock farming. Countries with high N deposition rates require a variety of deposition measurements and effective N monitoring networks to assess N loads. Due to high costs, current "conventional"-deposition measurement stations are not widespread and therefore provide only a patchy picture of the real extent of the prevailing N deposition status over large areas. One tool that allows quantification of the exposure and the effects of atmospheric N impacts on an ecosystem is the use of bioindicators. Due to their specific physiology and ecology, especially lichens and mosses are suitable to reflect the atmospheric N input at ecosystem level. The present doctoral project began by investigating the general ability of epiphytic lichens to qualify and quantify N deposition by analysing both lichens and total N and δ15N along a gradient of different N emission sources and severity. The results showed that this was a viable monitoring method, and a grid-based monitoring system with nitrophytic lichens was set up in the western part of Germany. Finally, a critical appraisal of three different monitoring techniques (lichens, mosses and tree bark) was carried out to compare them with national relevant N deposition assessment programmes. In total 1057 lichen samples, 348 tree bark samples, 153 moss samples and 24 deposition water samples, were analysed in this dissertation at different investigation scales in Germany.The study identified species-specific ability and tolerance of various epiphytic lichens to accumulate N. Samples of tree bark were also collected and N accumulation ability was detected in connection with the increased intensity of agriculture, and according to the presence of reduced N compounds (NHx) in the atmosphere. Nitrophytic lichens (Xanthoria parietina, Physcia spp.) have the strongest correlations with high agriculture-related N deposition. In addition, the main N sources were revealed with the help of δ15N values along a gradient of altitude and areas affected by different types of land use (NH3 density classes, livestock units and various deposition types). Furthermore, in the first nationwide survey of Germany to compare lichens, mosses and tree bark samples as biomonitors for N deposition, it was revealed that lichens are clearly the most meaningful monitor organisms in highly N affected regions. Additionally, the study shows that dealing with different biomonitors is a difficult task due to their variety of N responses. The specific receptor surfaces of the indicators and therefore their different strategies of N uptake are responsible for the tissue N concentration of each organism group. It was also shown that the δ15N values depend on their N origin and the specific N transformations in each organism system, so that a direct comparison between atmosphere and ecosystems is not possible.In conclusion, biomonitors, and especially epiphytic lichens may serve as possible alternatives to get a spatially representative picture of the N deposition conditions. Furthermore, bioindication with lichens is a cost-efficient alternative to physico-chemical measurements to comprehensively assess different prevailing N doses and sources of N pools on a regional scale. They can at least support on-site deposition instruments by qualification and quantification of N deposition.
In der Dissertation "Kartographische Medien zur Entscheidungsunterstützung: empirische Untersuchungen georäumlicher Visualisierungen im Rahmen des Trierer Kommunalhaushalts" werden kartographische Medien im Hinblick auf die Funktion der Entscheidungsunterstützung bei der Aufstellung eines Kommunalhaushalts untersucht. Die Akteure der Haushaltsaufstellung können in drei Gruppen aufgeteilt werden: Bürger, Politiker und Verwaltungsmitarbeiter. Die grundlegende Fragestellung der Arbeit lautet: Wie muss ein räumliches Finanzauskunftssystem gestaltet sein, um die Beteiligten in verschiedenen Phasen des Entscheidungsprozesses bestmöglich zu unterstützen? Ziel ist dabei die modellhafte Entwicklung eines nutzerorientierten kommunalen Finanzauskunftssystems. Zur Erstellung der kartographischen Medien werden zunächst die Ausgaben des Trierer Kommunalhaushalts georeferenziert und mit Hilfe von Karten visualisiert. Die Georeferenzierung erfolgt dabei über die theoretische Herleitung der Raumwirkung einzelner Haushaltspositionen, die vom Grundsatz her sehr kleinräumig, gesamtstädtisch oder auch regional wirken können. Theoretisch lassen sich 79% der Ausgabepositionen des Finanzhaushalts und 45% der Ausgabepositionen des Ergebnishaushalts 2009 räumlich verorten. Einschränkungen der Georeferenzierungsquote ergeben sich aus der Datenverfügbarkeit der Stadtverwaltung Trier. Die erzeugten Kartendarstellungen unterscheiden sich im Hinblick auf die Komplexität der dargestellten Inhalte. Zum Einsatz kommen verschiedene kartographische Modellformen sowie unterschiedliche Darstellungsformen der Legende (verbal und numerisch). Der Studie besteht aus zwei empirischen Untersuchungsreihen: einer Online-Befragung und einem Bildschirmexperiment mit eye tracking und Logfile-Aufzeichnung. Diese haben gezeigt, dass die Unterschiede zwischen den drei Akteursgruppen nicht entscheidend sind. Die generelle Haltung der Probanden zur Relevanz des Raumbezugs ist vielmehr ausschlaggebend dafür, ob das Medium Karte positiv angenommen wird oder nicht. Während die Relevanz des Kriteriums "Raum" bei Entscheidungen nachgewiesen wurde, bleibt die Frage nach dessen Gewichtung innerhalb diverser Einflussgrößen kommunal-politischer Entscheidungen offen. Kartographische Medien können eine sinnvolle Unterstützung im Entscheidungsprozess darstellen, bedürfen jedoch je nach Art der Fragestellung und dementsprechend vom Nutzer durchzuführenden räumlichen Operationen einer Kombination mit Texten und/oder Tabellen. Der Bedarf an Nutzerunterstützung steigt mit der Komplexität der räumlichen Operationen: das Bilden von Mustern ist für die Nutzer mit erheblich mehr Blickaufwand verbunden als das Identifizieren von Werten in der Karte. Generell stellt die Komplexität des Informationsgehalts für die Probanden keinen Hinderungsgrund dar, mit kartographischen Medien zu arbeiten. Vielmehr müssen sich die dargestellten Inhalte an den Interessen der Akteure orientieren. Beim Betrachten der Kartendarstellungen spielen Erfahrungen im Georaum eine wesentliche Rolle. Die Untersuchung konnte zeigen, dass das Raumwissen der Probanden jedoch oft mangelhaft ist. Kartographische Medien können dabei helfen, das Raumwissen auch in Bezug auf die Verteilung von Merkmalen im Raum zu steigern. Die Probanden steuerten in der empirischen Erhebung viele Anregungen zur Gestaltung eines interaktiven Systems bei, die darauf hinweisen, dass eine nutzerorientierte Systemgestaltung zwingend erforderlich ist, wenn möglichst viele Akteure von einem kommunalen Finanzauskunftssystem profitieren sollen.
In a paper of 1996 the british mathematician Graham R. Allan posed the question, whether the product of two stable elements is again stable. Here stability describes the solvability of a certain infinite system of equations. Using a method from the theory of homological algebra, it is proved that in the case of topological algebras with multiplicative webs, and thus in all common locally convex topological algebras that occur in standard analysis, the answer of Allan's question is affirmative.
High-resolution projections of the future climate are required to assess climate change realistically at a regional scale. This is in particular important for climate change impact studies since global projections are much too coarse to represent local conditions adequately. A major concern is thereby the change of extreme values in a warming climate due to their severe impact on the natural environment, socio-economical systems and the human health. Regional climate models (RCMs) are, however, able to reproduce much of those local features. Current horizontal resolutions are about 18-25km, which is still too coarse to directly resolve small-scale processes such as deep-convection. For this reason, projections of a possible future climate were simulated in this study with the regional climate model COSMO-CLM at horizontal resolutions of 4.5km and 1.3km for the region of Saarland-Lorraine-Luxemburg and Rhineland-Palatinate for the first time. At a horizontal scale of about 1km deep-convection is treated explicitly, which is expected to improve particularly the simulation of convective summer precipitation and a better resolved orography is expected to improve near surface fields such as 2m temperature. These simulations were performed as 10-year long time-slice experiments for the present climate (1991"2000), the near future (2041"2050) and the end of the century (2091"2100). The climate change signals of the annual and seasonal means and the change of extremes are analysed with respect to precipitation and 2m temperature and a possible added value due to the increased resolution is investigated. To assess changes in extremes, extreme indices have been applied and 10- and 20-year return levels were estimated by "peak-over-threshold" models. Since it is generally known that model output of RCMs should not directly be used for climate change impact studies, the precipitation and temperature fields were bias-corrected with several quantile-matching methods. Among them is a new developed parametric method which includes an extension for extreme values and is hence expected to improve the correction. In addition, the impact of the bias-correction on the climate change signals and on the extreme value statistics was investigated. The results reveal a significant warming of the annual mean by about +1.7 -°C until 2041"2050 and +3.7 -°C until 2091"2100, but considerably stronger signals of up to +5 -°C in summer in the Rhine Valley. Furthermore, the daily variability increases by about +0.8 -°C in summer but decreases by about -0.8 -°C in winter. Consequently, hot extremes increase moderately until the mid of the century but strongly thereafter, in particular in the Rhine Valley. Cold extremes warm continuously in the complete domain in the next 100 years but strongest in mountainous areas. The change signals with regard to annual precipitation are of the order -±10% but not significant. Significant, however, are a predicted increase of +32% of the seasonal precipitation in autumn until 2041"2050 and a decrease of -28% in summer until 2091-2100. No significant changes were found for days with intensities > 20 mm/day, but the results indicate that extremes with return periods ≤2 years increase as well as the frequency and duration of dry periods. The bias-corrections amplified positive signals but dampened negative signals and considerably reduced the power of detection. Moreover, absolute values and frequencies of extremes were altered by the correction but change signals remained approximately constant. The new method outperformed other parametric methods, in particular with regard to extreme value correction and related extreme indices and return levels. Although the bias correction removed systematic errors, it should be treated as an additional layer of uncertainty in climate change studies. Finally, the increased resolution of 1.3km improved predominantly the representation of temperature fields and extremes in terms of spatial heterogeneity. The benefits for summer precipitation were not as clear due to a severe dry-bias in summer, but it could be shown that in principle the onset and intensity of convection improves. This work demonstrates that climate change will have severe impacts in this investigation area and that in particular extremes may change considerably. An increased resolution provides thereby an added value to the results. These findings encourage further investigations, for other variables as for example near-surface wind, which will be more feasible with growing computing resources. These analyses should, however, be repeated with longer time series, different RCMs and anthropogenic scenarios to determine the robustness and uncertainty of these results more extensively.
Veterinary antibiotics are released to arable agricultural soil together with manure, including nutrients, organic matter, and microorganisms. Previously, the effects of antibiotic-contaminated manure on soil microbial community activity, function, structure, and resistance have been reported under controlled experimental conditions. This thesis further evaluated the antimicrobial effects as influenced by different manure compositions, soil microhabitats and moisture regimes, plants, and different distances to roots. Microbial community responses were determined by phenotypic phospholipid fatty acid (PLFA) and genotypic 16S rRNA gene fragment analyses. (Chapter 3) demonstrates that medication of pigs with difloxacin (DIF) and sulfadiazine (SDZ) alters the molecular-chemical pattern of slurries, confounding the detection of a consistent antibiotic effect in bulk and respective rhizosphere soil. This was evaluated in a 63-day mesocosm experiment considering typical agricultural manure applications to maize planted soil. Fecal bacteria were detected even 14 days after manure amendment. Manure of DIF- and SDZ-medicated pigs clearly affected the microbial community in mesocosm bulk and rhizosphere soil, temporarily matching antibiotic effects reported in previous studies. (Chapter 4) discusses the influences of different soil microhabitats on antibiotic fate and the effects on soil microflora. Total extractable SDZ was more than two-fold larger in earthworm burrows and soil macroaggregate surfaces compared to bulk soil or the interior fraction of aggregates. Furthermore, soil microbial communities were affected by a combination of soil microhabitat and treatment, which was reflected by different structural and functional community responses to SDZ in laboratory and under field conditions. (Chapter 5) evaluates if SDZ effects on microbial communities are more pronounced in soils which undergo periodic changes in soil moisture by drying-rewetting dynamics compared to soils without such moisture fluctuations. This was tested in a 49-day climate chamber soil pot experiment grown with grass. Manure-amended pots without or with SDZ contamination were incubated under a dynamic moisture regime with repeated drying and rewetting changes of more than twenty percent maximum water holding capacity compared to the control moisture regime. The microbial biomass, but less pronouncedly the community structure, showed an increased responsiveness to the combined stress of SDZ and dynamic moisture changes in the laboratory. Similar responses were documented under field conditions. (Chapter 6) indicated adverse effects of SDZ on root geotropism, number of lateral roots, and water uptake by plants in a 40-day greenhouse experiment with willow and maize grown in soil with environmentally relevant and worst-case antibiotic contamination. (Chapter 7) showed that the associated microbial community responded to a combination of plant species, distance to the root, and antibiotic spiking concentration. In highly antibiotic-contaminated soils, the structural and functional responses of the microbial community were dominated by indirect antibiotic effects on plants and roots.
Die Fragestellung der Dissertation lautet: Welche Rolle spielten die politische Repräsentation, ihr Wandel und die Auseinandersetzung um die Teilhabe an ihr für das Entstehen einer gemeinsamen Vorstellung der Nation? Diese Frage kombiniert ein historisches und ein politikwissenschaftliches Interesse. Auf Seiten der Geschichtswissenschaft ist die Dissertation Teil des Forschungsprojekts "Nationenbildung und Demokratie" an der Universität Luxemburg. Auf Seiten der Politikwissenschaft ist sie im Bereich der Politischen Theorie angesiedelt. Im Anschluss an das abgeschlossene Forschungsprojekt "Formen und Funktionsweisen politischer Repräsentation von Fremden und Armen" im Sonderforschungsbereich 600 an der Universität Trier sind dabei primär repräsentationstheoretische Fragen von Interesse. Das Fallbeispiel Luxemburg erlaubt in diesem Zusammenhang einen neuen Blick auf Probleme, die in der Literatur bislang eher im französischen oder angelsächsischen Kontext diskutiert werden. In Auseinandersetzung mit gängigen Theorien der Nation wird in der Arbeit zunächst argumentiert, dass die Nation weder als ethnische Identität noch als Willenseinheit angemessen verstanden werden kann. Diese Überlegungen münden in die These, dass die erfolgreiche Verhandlung von Konflikten auf einer gemeinsamen politischen Bühne die Vorstellung eines gemeinsamen Schicksals mit erzeugen kann. Diese Vermutung wird in einem zweiten Schritt demokratieheoretisch begründet. Das Volk der modernen Demokratie ist kein einheitliches Subjekt, das einfach an die Stelle des alten Souveräns treten könnte. Zum einen verunmöglicht die Tatsache, dass die Demokratie durch multiple Zeitlichkeiten konstituiert ist, ihre Reduktion auf einen ursprünglichen Moment der Präsenz. Zum anderen ist der Demos selbst von Differenzen durchzogen. Doch indem gesellschaftliche Konflikte auf der Bühne der Macht symbolisch dargestellt werden, verlagert Repräsentation den Konflikt in ein politisches Kontinuum, auf das alle Bürger in gleicher Weise bezogen sind. Die Bürger erfahren, beurteilen und unterstellen sich wechselseitig als Teilnehmer an demselben Gemeinwesen, auch wenn sie unterschiedlicher Meinung sind. Diese These wird in einem dritten Schritt anhand einer Genealogie der verschiedenen Versuche " von Hobbes und Rousseau über Sieyès, Hegel und Proudhon bis zu Carl Schmitt und Hans Kelsen ", den Demos und den korrekten Modus seiner Vergegenwärtigung zu identifizieren, historisch fundiert. Das empirische Fallbeispiel steht im Zentrum des zweiten Teils der Arbeit. Zunächst wird das Entstehen einer landesweiten politischen Öffentlichkeit herausgearbeitet. In der Folge der Protest- und Petitionsbewegung von 1848 wurde das Parlament zur politischen Bühne, auf der vor aller Augen öffentliche Angelegenheiten diskutiert wurden. Die anschließende Entwicklung hin zum allgemeinen Wahlrecht führte zu einem qualitativen Wandel des Politischen. Das Wahlrecht nahm den Charakter eines Rechts an, das jedem Staatsbürger als solchem zustand, die einzig legitime Grenze des neuen Raums der Gleichheit wurde durch die Nation gestiftet. Die vorgestellte Gemeinschaft der Staatsbürger verselbstständigte sich dabei auch gegenüber dem Fürsten und trat zuletzt an dessen Stelle. Statt als über der Gesellschaft und den Bürgern thronende Hüterin der staatlichen Einheit wurde die Monarchie seit 1918 im Namen des Volkswillens begründet. Doch in demselben Augenblick, in dem das Volk als Gemeinschaft der Gleichen zum neuen Souverän erklärt wurde, wurden auch gesellschaftliche Konfliktlinien politisiert und durch ein landesweites Parteiensystem dauerhaft abgebildet. Durch die repräsentative Politisierung des Konflikts wurde die Frage, was denn das Gemeinsame sei, das sich durch die verschiedenen Teilungen hindurch zeige, dramatisiert. Anhand von zwei Fallbeispielen wird in der Arbeit gezeigt, wie auch diejenigen, die sich als Repräsentanten der Arbeiterklasse verstanden, im Kampf um Hegemonie auf eine nationale Rhetorik zurückgriffen und ein Narrativ der Nation als Solidaritätsgemeinschaft entwarfen. Zusammenfassend kommt die Dissertation zum Ergebnis, dass die Erfahrung der Politisierung und der öffentlichen Auseinandersetzung um politische Teilhabe innerhalb bestehender, ursprünglich aber keineswegs national oder demokratisch legitimierter Institutionen maßgeblich dazu beitrug, dass ein großer Teil der Bevölkerung Luxemburgs sich nach und nach als Teil einer vorgestellten Gemeinschaft verstand.
Fast and Slow Effects of Cortisol on Several Functions of the Central Nervous System in Humans
(2014)
Cortisol is one of the key substances released during stress to restore homeostasis. Our knowledge of the impact of this glucocorticoid on cognition and behavior in humans is, however, still limited. Two modes of action of cortisol are known, a rapid, nongenomic and a slow, genomic mode. Both mechanisms appear to be involved in mediating the various effects of stress on cognition. Here, three experiments are presented that investigated fast and slow effects of cortisol on several functions of the human brain. The first experiment investigated the interaction between insulin and slow, genomic cortisol effects on resting regional cerebral blood flow (rCBF) in 48 young men. A bilateral, locally distinct increase in rCBF in the insular cortex was observed 37 to 58 minutes after intranasal insulin admission. Cortisol did not influence rCBF, neither alone nor in interaction with insulin. This finding suggests that cortisol does not influence resting cerebral blood flow within a genomic timeframe. The second experiment examined fast cortisol effects on memory retrieval. 40 participants (20 of them female) learned associations between neutral male faces and social descriptions and were tested for recall one week later. Cortisol administered intravenously 8 minutes before retrieval influenced recall performance in an inverted U-shaped dose-response relationship. This study demonstrates a rapid, presumably nongenomic cortisol effect on memory retrieval in humans. The third experiment studied rapid cortisol effects on early multisensory integration. 24 male participants were tested twice in a focused cross-modal choice reaction time paradigm, once after cortisol and once after placebo infusion. Cortisol acutely enhanced the integration of visual targets and startling auditory distractors, when both stimuli appeared in the same sensory hemi-field. The rapidity of effect onset strongly suggests that cortisol changes multisensory integration by a nongenomic mechanism. The work presented in this thesis highlights the essential role of cortisol as a fast acting agent during the stress response. Both the second and the third experiment provide new evidence of nongenomic cortisol effects on human cognition and behavior. Future studies should continue to investigate the impact of rapid cortisol effects on the functioning of the human brain.
Theodor Fontanes Roman "Unwiederbringlich" ist - so die These dieser Arbeit - ein ganz im Zeichen von Memoria konzipiertes Werk. Fontane erzählt in seinen Geschichten auch immer Geschichte und der Umgang mit Vergangenheit und die Dialektik von Erinnerung und Vergessen spielen eine zentrale Rolle in seinen Texten und in besonderer Weise in Unwiederbringlich. Hier wird ein historischer Raum beschrieben, in dem die traditionellen Formen kultureller Erinnerung ihre Gültigkeit verlieren und die Auseinandersetzung mit kultureller und mit individueller Vergangenheit zunehmend problematisch erscheint. Memoria als identitätsstiftende Kraft konstituiert das Bewusstsein der Figuren in Unwiederbringlich. Das kulturelle Gedächtnis wird zur entscheidenden Handlungsmotivation. Dabei erfährt der Umgang mit Vergangenheit eine Subjektivierung und Perspektivierung durch die einzelnen Figuren und erfüllt nicht mehr die Funktion eines gemeinschaftsstiftenden Gedächtnisses, sondern verursacht gerade auch den Dissens der Figuren. Vor diesem Hintergrund bietet es sich an, Unwiederbringlich vor der Folie aktueller Memoria-Theoreme zu lesen, wie sie z.B. im New Historicism oder in der Diskussion um Archivprozesse thematisiert werden.
Die Dissertation widmet sich der Eisenbahninfrastruktur des Raumes Saarland-Lothringen-Luxemburg mit ihrer hohen Netzdichte sowie der Frage, wie diese Bahnstrecken besser genutzt werden können. Möglichkeiten, wie diese Strecken durch innovative, insbesondere aber durch grenzüberschreitende Angebote im Schienen-¬verkehr besser genutzt werden können, werden aufgezeigt. Ziel ist es zu zeigen, welche Potenziale der Schienenverkehr auf Basis der vorhandenen Bahninfrastruktur als Alternative zum dominierenden Straßenverkehr bieten könnte. Der Grenzraum SaarLorLux wird dazu porträtiert, einschließlich einer historischen Genese des Bahnsystems. Dieser historische Rückblick ist kartographisch aufbereitet. Die wechselhafte politische und wirtschaftliche Geschichte des Grenzraumes, insbesondere seine Montanindustrie haben den Untersuchungsraum und die Entwicklung seiner Eisenbahnen entscheidend geprägt. Neben den neuen und schnellen Korridor-Verbindungen nach Paris und Frankfurt wird auch eine gegenläufige Entwicklung aufgezeigt, die zu einem Einbruch der Fernverkehrsqualität für SaarLorLux geführt hat. Auch beim Güterverkehr ist ein Niedergang zu beobachten, gerade im Bereich der Güter in der Montanindustrie. Die Analyse des Bestandsnetzes der gesamten Verkehrsinfrastruktur einschließlich Luftfahrt, Schifffahrt und Straßenverkehr im SaarLorLux-Raum zeigt auf, welche Standards und Verbindungsqualitäten hier vorhanden sind. Ein Schwerpunkt der Betrachtung ist der Frage gewidmet, wie durch angebotsorientierte, aber auch durch organisatorische Maßnahmen die grenzüberschreitende Zusammenarbeit im Schienenregionalverkehr optimiert werden kann. Am Beispiel eines Ringverkehrs Luxemburg-Metz-Saarbrücken-Trier-Luxemburg (Q_Intracity) zeigt der Autor, welche Chancen sich ergäben, wenn die grenzüberschreitende Kooperation ausgeweitet würde. Weitere Vorschläge betreffen die Reaktivierung von derzeit kaum genutzten oder stillgelegten Bahnstrecken sowie die Verlängerung des bestehenden Nahverkehrs über die Grenze hinweg. Für den Saar-Rossel-Raum im Eurodistrikt Saarbrücken-Forbach erläutert die Abhandlung beispielhaft, wie ein neues Stadtbahnangebot die grenzüberschreitende und umwelt-¬freundliche Mobilität stärken kann. Dabei spielt die Wiedernutzung stillgelegter Bahnstrecken der ehemaligen lothringischen Kohlebahn HBL und des Bahnnetzes links der Saar eine große Rolle. Die vorgelegte Arbeit skizziert auch Verbesserungen für den Fernverkehr: Die Abhandlung umreißt die technischen Möglichkeiten, um vorhandene Bahnstrecken zeitgemäß auszurüsten. Die Elektromobilität spielt hierbei eine besondere Rolle Das Schließen von Lücken bei der Elektrifizierung vermag die Kapazitäten der Bahnstrecken deutlich auszudehnen und gerade auch dem Güterverkehr neue und günstigere Wege zu erschließen. Die ermittelte Elektrifizierung von rund dreihundert Kilometern an bestehenden Strecken im Unter-¬suchungsraum ermöglichte beispielsweise, den regelmäßigen Dieselbetrieb auf einem Netz von fast 500 Kilometern durch elektrische Traktion zu ersetzen. Ausgehend von der Analyse der Organisationsstruktur im Schienenverkehr und mit Blick auf die heterogene Struktur der Aufgabenträger im Schienenpersonennahverkehr schlägt der Autor vor, eine grenzüberschreitend agierende Instanz mit Verantwortung für den regionalen Nahverkehr zu schaffen. Diese sollte sich an dem Rechtsrahmen eines Europäischen Verbundes für Territoriale Zusammenarbeit (EVTZ) ausrichten und dazu beitragen, dass Angebote im bestellten Schienen-¬personennahverkehr nicht mehr an den Grenzen der Zuständigkeitsbereiche von Aufgabenträgern enden. Ein weiterer Vorschlag umfasst die Schaffung einer Infrastruktur-Sicherungs- und Entwicklungs-¬gesellschaft für den Schienen-verkehr. Ihre Aufgabe sollte die akteursüber-¬greifende Initiative sein mit dem Ziel, vorhandene aber aus der Nutzung genommene Bahnstrecken vor dem Verfall zu retten und für eine spätere Nutzung aufzuwerten. Die Abhandlung beinhaltet eine erste Kostenschätzung und eine erste Priorisierung der vorgeschlagenen technischen, infrastrukturellen und administrativen Maßnahmen. Das Leitmotiv ist dabei Erhalt vor Neubau. Neubaustrecken sind nur in geringem Umfang von 32 Kilometern vorgesehen, wohingegen auf rund 165 Kilometern bestehender Trassen ein Personen-¬verkehrsangebot wieder aufgenommen werden sollte und mindestens 50 neue Bahnhöfe und Haltestellen zu errichten sind. Der Autor ermittelt einen Bedarf von rund 500 Kilometern, um Strecken mit moderner Leit- und Sicherungstechnik, Funkbetrieb und Gleiswechselbetrieb zu modernisieren. Die Dissertation versteht sich als ersten Beitrag, um für den SaarLorLux-Raum einen Masterplan Schiene zu verwirklichen. Die Abhandlung beinhaltet 147 überwiegend kartographische Abbildungen und 23 Tabellen. Im Anhang greift ein Kartendossier im Format DIN A 3 15 Karten aus der Abhandlung großformatig auf.
Magnet Resonance Imaging (MRI) and Electroencephalography (EEG) are tools used to investigate the functioning of the working brain in both humans and animal studies. Both methods are increasingly combined in separate or simultaneous measurements under the assumption to benefit from their individual strength while compensating their particular weaknesses. However, little attention has been paid to how statistical analyses strategies can influence the information that can be retrieved from a combined EEG fMRI study. Two independent studies in healthy student volunteers were conducted in the context of emotion research to demonstrate two approaches of combining MRI and EEG data of the same participants. The first study (N = 20) applied a visual search paradigm and found that in both measurements the assumed effects were absent by not statistically combining their results. The second study (N = 12) applied a novelty P300 paradigm and found that only the statistical combination of MRI and EEG measurements was able to disentangle the functional effects of brain areas involved in emotion processing. In conclusion, the observed results demonstrate that there are added benefits of statistically combining EEG-fMRI data acquisitions by assessing both the inferential statistical structure and the intra-individual correlations of the EEG and fMRI signal.
In splitting theory of locally convex spaces we investigate evaluable characterizations of the pairs (E, X) of locally convex spaces such that each exact sequence 0 -> X -> G -> E -> 0 of locally convex spaces splits, i.e. either X -> G has a continuous linear left inverse or G -> E has a continuous linear right inverse. In the thesis at hand we deal with splitting of short exact sequences of so-called PLH spaces, which are defined as projective limits of strongly reduced spectra of strong duals of Fréchet-Hilbert spaces. This class of locally convex spaces contains most of the spaces of interest for application in the theory of partial differential operators as the space of Schwartz distributions , the space of real analytic functions and various spaces of ultradifferentiable functions and ultradistributions. It also contains non-Schwartz spaces as B(2,k,loc)(Ω) and spaces of smooth and square integrable functions that are not covered by the current theory for PLS spaces. We prove a complete characterizations of the above problem in the case of X being a PLH space and E either being a Fréchet-Hilbert space or a strong dual of one by conditions of type (T ). To this end, we establish the full homological toolbox of Yoneda Ext functors in exact categories for the category of PLH spaces including the long exact sequence, which in particular involves a thorough discussion of the proper concept of exactness. Furthermore, we exhibit the connection to the parameter dependence problem via the Hilbert tensor product for hilbertizable locally convex spaces. We show that the Hilbert tensor product of two PLH spaces is again a PLH space which in particular proves the positive answer to Grothendieck- problème des topologies. In addition to that we give a complete characterization of the vanishing of the first derivative of the functor proj for tensorized PLH spectra if one of the PLH spaces E and X meets some nuclearity assumptions. To apply our results to concrete cases we establish sufficient conditions of (DN)-(Ω) type and apply them to the parameter dependence problem for partial differential operators with constant coefficients on B(2,k,loc)(Ω) spaces as well as to the smooth and square integrable parameter dependence problem. Concluding we give a complete solution of all the problems under consideration for PLH spaces of Köthe type.
Die Frage, wie und in welche Richtung sich Wohlfahrtsstaaten entwickeln ist seit gut zwei Jahrzehnten zentraler Gegenstand der wissenschaftlichen Auseinandersetzung. Insbesondere dem konservativen Wohlfahrtsstaat, zu dem u.a. Österreich und Deutschland gezählt werden, wird dabei eine gewisse Reformresistenz nachgesagt. Besonders bei der Bewältigung neuer sozialer Risiken, wie Pflegebedürftigkeit, zeigt sich, dass der Wohlfahrtsstaat an tradierten sozialstaatlichen Leitprinzipien und kulturellen Leitbildern festhält und damit die tatsächlichen Anforderungen und Bedürfnisse sich wandelnder gesellschaftlicher Verhältnisse vernachlässigt. Auf dieses institutionelle Setting ist auch die Entstehung sogenannter Grauer Pflegemärkte in konservativen Wohlfahrtsstaaten zurückzuführen. Auf diesen Grauen Pflegemärkten bieten Migrantinnen Betreuungs- und Pflegedienstleistungen an, die überwiegend unter Umgehung nationaler arbeits- und sozialrechtlicher Standards erbracht und deshalb als irregulär eingestuft werden. Versuche der Regulierung Grauer Pflegemärkte müssen deshalb beim bisherigen sozialstaatlichen institutionellen Setting der Bereitstellung formeller/informeller Betreuungsdienstleistungen in Frage gestellt werden " aus diesem Grund können sie auch Hinweise auf die Entwicklung von Wohlfahrtsstaaten geben. Gerade hier mangelt es den zahlreichen Analysen zu den Ursachen und Folgen der Entstehung Grauer Pflegemärkte die Regulierungsversuche und -diskurse in einen größeren politikübergreifenden Forschungskontext zu setzen und zu analysieren. Dieses Dissertationsprojekt setzt an dieser Forschungslücke an und geht der Frage nach, was der parlamentarische Diskurs um die Legalisierung der 24-Stunden-Betreuung über die Richtung des wohlfahrtsstaatlichen Wandels konservativer Wohlfahrtsstaaten aussagt. Hierbei werden die wohlfahrtsstaatlichen Entwicklungen der vergangenen zwei Jahrzehnte sowie die sozialpolitischen Leitprinzipien des konservativen Wohlfahrtsstaates in die Untersuchung mit einbezogen. In theoretischer Hinsicht knüpft das Vorhaben an Theorieansätze der Wissenspolitologie und Wissenssoziologie an und verbindet sie mit dem Ansatz der Theorie der sozialen Probleme. Wissenspolitologie erlaubt es wohlfahrtsstaatliche Veränderungsprozesse vor dem Hintergrund von Deutungen, Ideen oder Argumenten, also dem, was politische Akteure sagen, zu analysieren und sehen gleichzeitig hierin den Ausgangspunkt eben jener wohlfahrtsstaatlichen Veränderungsprozesse und Entwicklungen. Der wissenssoziologische Zugang in dieser Arbeit begründet sich über die Beobachtung, dass Graue Pflegemärkte rund zwanzig Jahre unbeachtet von Politik und Gesellschaft existieren konnten. Erst die Problematisierung der Grauen Pflegemärkte bzw. der auf ihnen irregulär erbrachten Betreuungsdienstleistungen ermöglichte einen Diskurs um die Frage, wie und in welchem Rahmen Betreuungsdienstleistungen zukünftig erbracht werden sollen. Insofern kann die Problematisierung als Ausgangspunkt für einen sozialpolitischen Veränderungsprozess gesehen werden. Die Analyse stützt sich dabei auf qualitative Methoden und wertet hierzu wichtige Parlamentsdebatten, Gesetzesentwürfe, Parteiendokumente sowie Zeitungsartikel die im Rahmen der Problematisierung und öffentlichen Diskussion zur Legalisierung der 24-Stunden-Betreuung geführt wurden aus. Ziel dieser Arbeit ist es, den Wandel des konservativen Wohlfahrtsstaates (1) durch das bislang wenig beachtete Politikfeld Betreuungsarbeit und Pflege zu ergänzen und (2) die Analyse um die Bedeutung von Deutungen und sozialpolitischen Leitprinzipien für sozialpolitische Reformprozesse zu erweitern.
Preisvergleiche zwischen verschiedenen Regionen spielen in zahlreichen wirtschaftlichen und politischen Zusammenhängen eine wichtige Rolle. Unabhängig davon, ob es darum geht, die Wirtschaftskraft von Regionen oder Ländern gegenüber zu stellen, die Lebensverhältnisse innerhalb eines Landes zu vergleichen, oder aber die Wirkungsweise sozial- und lohnpolitischer Entscheidungen einzuschätzen: Interregionale Preisvergleiche dienen in erster Linie als Instrument, um gesamtwirtschaftliche und ökonomische Größen zwischen verschiedenen Regionen oder Ländern real vergleichbar zu machen. Interregionale Preisvergleiche sind allgemeinhin besser bekannt als sogenannte Kaufkraftparitäten. Die enorme Bedeutung von Kaufkraftparitäten wurde in der Vergangenheit lange unterschätzt. Insbesondere bei Preisvergleichen innerhalb eines Landes mangelt es oftmals an einer soliden Datenbasis, sodass verlässliche Schätzungen regionaler Preisniveauunterschiede häufig nicht möglich sind. Die vorliegende Arbeit zeigt allerdings, dass ein breites Angebot verschiedener multilateraler Aggregationsmethoden bereit. Im Mittelpunkt des ersten Teils Arbeit steht die methodische Ausarbeitung verschiedener Aggregationsverfahren, mit deren Hilfe sich erhobene Daten zu verlässlichen und aussagekräftigen Preisvergleichskennzahlen aggregieren lassen. Im Unterschied zu intertemporalen Vergleichen sind gewöhnliche bilaterale Preisindizes für diesen Zweck nur begrenzt einsetzbar. Vielmehr sind spezielle multilaterale methodische Instrumente nötig, die den speziellen Anforderungen regionaler Preisvergleiche gerecht zu werden. Im Rahmen der Arbeit werden die verschiedenen multilateralen Aggregationsverfahren unterschiedlichen Berechnungsansätzen zugeordnet, wobei jeder dieser Ansätze durch bestimmte Eigenschaften charakterisiert ist. Neben den Mitgliedern der Klasse des Gini-Eltetö-Köves-Szulc (GEKS) und Minimum Spannning Tree (MST) Ansatzes sowie des Regressionsansatzes, widmet sich diese Arbeit schwerpunktmäßig den unterschiedlichen Verfahren des sogenannten Standardisierungsansatzes. Es stellt sich heraus, dass der Standardisierungsansatz grundsätzlich sehr dem Konstruktionsprinzip bilateraler Durchschnittswertindizes (GUV-Indizes) ähnelt, weshalb sich die Mitglieder dieser Klasse auch als multilaterale GUV-Indizes auffassen lassen. Darüber hinaus wird eine neue Unterklasse des Standardisierungsansatzes definiert, deren Mitglieder die breite Palette bereits existierender Verfahren ergänzen. Allerdings wird den Aggregationsverfahren des Standardisierungsansatzes nachgesagt, unter den Auswirkungen des sogenannten Gerschenkron-Effekts zu leiden und im Gegensatz zu anderen Aggregationsverfahren häufig verzerrte Preisvergleiche hervorzubringen. Der zweite Teil der Arbeit ist einem empirischen Vergleich der zuvor erörterten Aggregationsverfahren vorbehalten. Grundlage für die Berechnungen (auf und unterhalb der elementaren Güterebene) sind Daten des Europäischen Vergleichsprogramms (EVP). Eine wichtige Erkenntnis des empirischen Teils der Arbeit ist, dass viele der unterschiedlichen Aggregationsmethoden für die Berechnungen auf der Elementarebene sehr ähnliche Ergebnisse für die Preisvergleiche zwischen den Ländern im EVP generieren. Die Sorge verzerrter Preisvergleiche infolge der Auswirkungen des Gerschenkron-Effektes lässt sich auf Grundlage der empirischen Untersuchungen nicht (zweifelsfrei) bestätigen. Ferner zeigen die empirischen Untersuchungen, dass weitaus größere Schwierigkeiten bei der Berechnung von Preisvergleichen unterhalb der Elementarebene bestehen. Die Berechnungen offenbaren, dass die häufig in der Praxis eingesetzten Verfahren der GEKS-Methode in Situationen, in denen nur wenige Daten vorhanden sind, keine plausiblen Ergebnisse liefern. Es stellt sich heraus, dass in diesen Fällen die Verfahren des Regressionsansatzes eine unkompliziertere und verlässlichere Berechnung von Preisvergleichen erlauben. Nichtsdestotrotz decken die Ergebnisse schonungslos die Probleme und Schwächen interregionaler Preisvergleiche auf. Trotz intensiver Anstrengungen der internationalen statistischen Organisationen, eine vergleichbare und fundierte Datenbasis zu schaffen, sind die Dateninformationen einiger Regionen bzw. Länder nach wie vor sehr lückenhaft. Da verlässliche und aussagekräftige Preisvergleiche im Wesentlichen von der Verfügbarkeit und der Qualität der Daten abhängig sind, sollte der Forschungsschwerpunkt zukünftig daher mehr an der Bereitstellung eines soliden Datenfundaments ausgerichtet werden.
In dieser Dissertation beschäftigen wir uns mit der konstruktiven und generischen Gewinnung universeller Funktionen. Unter einer universellen Funktion verstehen wie dabei eine solche holomorphe Funktion, die in gewissem Sinne ganze Klassen von Funktionen enthält. Die konstruktive Methode beinhaltet die explizite Konstruktion einer universellen Funktion über einen Grenzprozess, etwa als Polynomreihe. Die generische Methode definiert zunächst rein abstrakt die jeweils gewünschte Klasse von universellen Funktionen. Mithilfe des Baireschen Dichtesatzes wird dann gezeigt, dass die Klasse dieser Funktionen nicht nur nichtleer, sondern sogar G_delta und dicht in dem betrachteten Funktionenraum ist. Beide Methoden bedienen sich der Approximationssätze von Runge und von Mergelyan. Die Hauptergebnisse sind die folgenden: (1) Wir haben konstruktiv die Existenz von universellen Laurentreihen auf mehrfach zusammenhängenden Gebieten bewiesen. Zusätzlich haben wir gezeigt, dass die Menge solcher universeller Laurentreihen dicht im Raum der auf dem betrachteten Gebiet holomorphen Funktionen ist. (2) Die Existenz von universellen Faberreihen auf gewissen Gebieten wurde sowohl konstruktiv als auch generisch bewiesen. (3) Zum einen haben wir konstruktiv gezeigt, dass es so genannte ganze T-universelle Funktionen mit vorgegebenen Approximationswegen gibt. Die Approximationswege sind durch eine hinreichend variable funktionale Form vorgegeben. Die Menge solcher Funktionen ist im Raum der ganzen Funktionen eine dichte G_delta-Menge. Zum anderen haben wir generisch die Existenz von auf einem beschränkten Gebiet T-universellen Funktionen bezüglich gewisser vorgegebener Approximationswege bewiesen. Die Approximationswege sind auch hier genügend allgemein.
Die Notwendigkeit einer ökologischen Aufwertung kleiner urbaner Gewässer und damit einer effektiven Siedlungswasserwirtschaft ist in den Fokus gerückt und wurde zum Bestandteil der Wasserrahmenrichtlinie ( 2000/60/EG). Die Zunahme von Regenwassermanagementsystemen und die Renaturierung kanalisierter Gewässerabschnitte führt zu einer Integration von Flüssen und Bächen in das städtische Umfeld. Diese Arbeit fokussiert die zeitlich hochaufgelöste Analyse des Stofftransports während Abflussereignissen in mesoskaligen Einzugsgebieten. Es wird untersucht, ob die Landnutzung und die Entwässerungssysteme von Siedlungsflächen, die Abflusssdynamik und die Stoffkonzentrationen beeinflussen. Beleuchtet wird, inwieweit naturnahe Regenwassermanagementsysteme in Siedlungsgebieten den natürlichen Wasserhaushalt erhalten und eine Gewässerbelastung reduzieren. Untersucht werden die Schadstoffdynamiken und -frachten dreier verschiedener Einzugsgebiete, ähnlich hinsichtlich Einzugsgebietsgröße, Topographie und klimatischen Bedingungen, aber unterschiedlich in Landnutzung und Entwässerungssystemen. Darüber hinaus wird der Einfluss der Ableitungsart des Regenwassers aus den Siedlungsgebieten auf die Abflussdynamik und die Schadstoffverlagerung auf unterschiedlichen Skalen untersucht. Abflussganglinien und Chemographen aller Gewässer zeigen große Schwankungen während und zwischen Hochwasserereignissen. Kurzfristige Konzentrationen sind sehr hoch und können nur mittels zeitlich hochaufgelöster Beprobung bestimmt werden. Frachten und mittlere Ereigniskonzentrationen weisen eine hohe Variabilität in Abhängigkeit von vorangehenden hydro-klimatischen Bedingungen auf. Erhöhte Schadstoffkonzentrationen treten in einem ländlich geprägten Einzugsgebiet in Verbindung mit Regenfällen durch Remobilisierung von Schadstoffen aus der Kanalisation auf. In einem städtisch geprägten Vorfluter sind Schadstoffbelastungen mit dem Basisabfluss aufgrund sanitärer Fehlanschlüsse und Kläranlageneinleitungen das ganze Jahr über bedeutsam. Ein biologischer Test zur Bestimmung östrogener Aktivität zeigt, dass die Toxizität von der Kläranlagentechnologie und deren Elimination östrogener Wirkstoffe abhängt. Saisonale Effekte, durch steigende östrogene Aktivität im Sommer und abnehmende Aktivität im Winter aufgrund der Verdünnung durch Boden- und Grundwasser, konnten beobachtet werden. Dezentrale Regenrückhalte führen zum Erhalt des quasi-natürlichen Wasserhaushaltes und zur Dämpfung von Abflussspitzen im Vorfluter. Die Beprobung der Zuläufe und des Ablaufes einer Retentionsfläche zeigt die Reduktion der Maximalkonzentrationen sowie der jährlichen Frachten von Xenobiotika. Mit zunehmender Einzugsgebietsgröße nimmt die Anzahl und Diversität der Entwässerungssysteme zu. Die Skalenabhängigkeit der Gewässerbelastung ergibt sich aus dem Vorhandensein und Zusammenwirken von Misch- und Trennkanalisationen, sowie Regenwassermanagementsysteme, und Kläranlageneinläufen. Vor allem Mischwasserkanalüberläufe führen zu einer hydraulischen Belastung sowie zu hohen Momentankonzentrationen der Xenobiotika. Regenwassermanagementsysteme tragen zu einer deutlichen Reduktion der chemischen und hydraulischen Belastung des Gewässers bei. Dies führt zu einer Entlastung der Vorfluter und zu einem besseren ökologischen Zustand, wie durch die Wasserrahmenrichtlinie gefordert.
Handeln in der Organisation Schule - Eine Fallstudie zur Selbstgestaltung der Realschule plus unter Einbezug politischer Rahmenbedingungen. Die in der rheinland-pfälzischen Schulstrukturreform von 2008 festgelegte Einführung der Realschule plus und damit verbundene schulische Fusionierungsprozesse wurden in der vorliegenden Dissertation mittels eines qualitativen Methodenmixes fallanalytisch untersucht. Im Zentrum stand dabei zum einen die Beleuchtung der schulischen Binnenstruktur, zum anderen wurde der Frage nachgegangen, welche Handlungsspielräume bzw. Entwicklungsstrategien zur individuellen Selbstgestaltung die einzelne Schule für sich erarbeiten kann. Forschungsleitend ist dabei der Befund aus schulübergreifenden Untersuchungen der "Agentur für Qualitätssicherung, Evaluation und Selbstständigkeit von Schulen" (AQS) gewesen, der besagt, dass sich unterschiedliche Schularten insgesamt nur wenig voneinander unterscheiden, jedoch die Differenzen zwischen einzelnen Schulen eine ausgedehnte Vielfalt aufweisen und im Kontext einzelschulischer Qualitätsentwicklung eine Fülle unterschiedlicher Merkmale und Handlungsstrategien offenbaren. Zur Operationalisierung sind dementsprechend folgende Forschungsfragen formuliert worden: Inwieweit gelingt es politische Rahmenbedingungen zum Schultyp der Realschule plus umzusetzen? Wie wird schulische Selbstverwaltung als Programmatik von Schulentwicklung verstanden? Welche Handlungsmuster und -strategien der Beteiligten können in diesem Zusammenhang herausgearbeitet werden? Abschließend wurde der Versuch unternommen, Handlungsempfehlungen aus den wichtigsten Ergebnissen der Arbeit abzuleiten, die aus Sicht der Verfasserin eine Relevanz für einen möglichst positiven Vollzug der gegenwärtigen Reformbemühungen besitzen.
In dieser Arbeit präsentieren wir einen systematischen Ansatz zur Multithread Implementierung von Divide und Conquer sowie inkrementellen Algorithmen. Wir stellen für beide Kategorien von Algorithmen ein Framework vor. Beide Frameworks sollen die Behandlung von Threads erleichtern, die Implementierung von parallelen Algorithmen beschleunigen und die Rechenzeit verringern. Mit Hilfe der Frameworks parallelisieren wir beispielhaft zahlreiche Algorithmen insbesondere aus dem Bereich Computational Geometry, unter anderem: Sortieralgorithmen, konvexe Hülle Algorithmen und Triangulierungen. Der Programmcode zu diese Arbeit ist in C++ unter Verwendung templatisierter Klassen implementiert und basiert auf der LEDA Bibliothek.
A big challenge for agriculture in the 21st century is the provision of food safety to fast growing world- population, which not only demands the well utilisation of the available agricultural resources but also to develop new advancements in the mass production of food crops. Wheat is the third largest food crop of the world and Pakistan is the eighth largest wheat producing country globally. Rice is the second most important staple food of Pakistan after wheat, grown in all provinces of the country. Maize is the world- top ranking food crop followed by wheat and rice. The harvested produts have to be stored in different types of storage structures on small or large scale for food as well as seed purpose. In Pakistan, the harvested grains are stored for the whole year till the introduction of fresh produce in order to ensure the regular food supply throughout the year. However, it is this extended storage period making the commodity more vulnerable to insect attacks. Rhyzopertha dominica (Coleoptera: Bostrychidae), Cryptolestes ferrugineus (Coleoptera: Laemophloeidae), Tribolium castaneum (Coleoptera: Tenebrionidae) and Liposcelis spp. (Psocoptera: Liposcelididae) are the major and most damaging insect pests of stored products all around the world. Various management strategies have been adopted for stored grain insect pests mostly relying upon the use of a broad spectrum of insecticides, but the injudicious use of these chemicals raised various environmental and human health related issues, which necessitate the safe use of the prevailing control measures and evaluation of new and alternative control methods. The application of new chemical insecticides, microbial insecticides (particularly entomopathogenic fungi) and the use of inert dusts (diatomaceous earths) is believed amongst the potential alternatives to generally used insecticides in stored grain insect management system. In the current investigations, laboratory bioassays conducted to evaluate the effects of combining Imidacloprid (new chemistry insecticide) with and without Protect-It (diatomaceous earth formulation) against R. dominica, L. paeta, C. ferrugineus and T. castaneum, on three different grain commodities (i.e. wheat, maize and rice) revealed differences in adult mortality levels among grains and insect species tested. Individually, Imidacloprid was more effective as compared with Protect-It alone and the highest numbers of dead adults were recorded in wheat. The insecticidal efficacy of B. bassiana with Protect-It and DEBBM was also assessed against all test insect species under laboratory conditions. The findings of these studies revealed that the more extended exposure period and the higher combined application rate of B. bassiana and DEs provided the highest mortality of the test insect species. The progeny emergence of each insect species was also greatly suppressed where the highest dose rates of the combined treatments were applied. The residual efficacy of all three control measures Imidacloprid, B. bassiana and DEBBM formulation was also evaluated against all test insect species. The bioassays were carried out after grain treatments and monthly for 6 months. The results indicated that the adult mortality of each test insect species was decreased within the six month storage period, and the integarted application of the test grain protectants enhanced the mortality rates than their alone treatments. The maximum mortality was noted in the combined treatment of DEBBM with Imidacloprid. At the end, the effectiveness of B. bassiana, DEBBM and Imidacloprid applied alone as well as in combinations, against all above mentioned test insect species was also evaluated under field conditions in trials conducted in four districts of Punjab, Pakistan. For each district, a significant difference was observed between treatments, while the combined treatments gave better control of test species as compared with them alone. The least number of surviving adults and minimum percentage of grain damage was observed for the DEBBM and Imidacloprid combination, but DEBBM with B. bassiana provided the best long-term protection as compared with the remaining treatments.
Um die weiterhin ansteigende Weltbevölkerung auch zukünftig mit Nahrungsmitteln und anderen wichtigen Rohstoffen zu versorgen, bedarf es einer immer größeren Nutzungsausweitung der Landwirtschaft auf natürliche Flächen. Im Jahre 2009 wurde ein Drittel der Landoberfläche der Erde bereits landwirtschaftlich genutzt. In jüngster Zeit kommt der Landwirtschaft zusätzlich eine wichtige Bedeutung als Energielieferant zu. Ein weiter steigender Flächenbedarf ist die Konsequenz dieser Entwicklung. Dies führt zum Verlust von Habitaten und somit zu einer starken Fragmentierung der Landschaft. Die direkten und indirekten Auswirkungen dieser Entwicklung auf den weltweiten Biodiversitätsrückgang werden mittlerweile als eine der Hauptursachen für den Rückgang vieler Arten anerkannt. Auch der Gesetzgeber hat dieses Problem erkannt und versucht dem entgegenzuwirken. In der vorliegenden Arbeit wird durch einen multiplen Methodenansatz der Einfluss der Habitatfragmentierung auf die Konnektivität der Populationen von zwei unterschiedlich mobilen Insektenarten untersucht. Als Modelarten wurden eine wenig mobile Heuschreckenart (Chorthippus montanus) und ein hoch mobiler Tagfalter (Brenthis ino) ausgewählt, welche beide an feuchte Grünländer gebunden sind. Für C. montanus wurde gezeigt, dass die Art nur ein sehr eingeschränktes Mobilitätspotenzial besitzt und stark an ihr Habitat gebunden ist. Daher ist eine Durchquerung von ungeeigneten Lebensräumen als äußerst unwahrscheinlich zu erachten. Eine Studie zur Mobilität und dem Verhalten von Brenthis ino belegt eine starke Philopatrie für eine nicht territoriale Insektenart. Zusätzlich zu den Fang-Wiederfang-Untersuchungen im Freiland wurden populations- und landschaftsgenetische Analysen durchgeführt. Die populationsgenetischen Analysen zeigen eine starke Isolation der Populationen von C. montanus, während zwischen den untersuchten Populationen von B. ino eine gute Konnektivität besteht. Mittels der landschaftsgenetischen Analyse wird gezeigt, dass Wälder und bebaute Flächen für beide Arten substanzielle Genefluss-Barrieren darstellen. Basierend auf einer GIS gestützten Analyse wird dargelegt, dass eine lokal ausreichende Vernetzung von Grünländern in Rheinland-Pfalz durch den Biotopverbund existiert. Die Berücksichtigung der Konnektivität bei der Auswahl und Ausgestaltung der Instrumente zur rechtlichen Sicherung und Umsetzung des Biotopverbundes (-§ 21 BNatSchG) bergen großes Potenzial zum Schutz von Grünländern. Ferner wird gezeigt, dass die Landschaftsplanung zwar ein geeignetes Instrument zur Erarbeitung des Biotopverbundes ist, aber kein Instrument zur rechtlichen Sicherung desselbigen im Sinne des -§ 21 Abs. 4 BNatSchG sein kann.
Anlass dieser vorliegenden Arbeit ist die genannte Reformierung der Lehrerausbildung in Deutschland im Zusammenhang mit der europäischen Bologna-Reform an den Universitäten und pädagogischen Hochschulen während der letzten zehn Jahre. Nach einer Auseinandersetzung mit den Zielen und den daraus resultierenden Reformbestrebungen wird der Fokus der Forschungsarbeit auf das Bundesland Rheinland-Pfalz gerichtet, um dort das Duale Studien- und Ausbildungskonzept für angehende Lehrerinnen und Lehrer genauer zu beleuchten. Die Vorgehensweise der Forschungsarbeit gliedert sich in drei Bereiche. Auf der einen Seite wird durch die Arbeit die strukturelle Umsetzung der Lehrerausbildungsreform an den vier Universitäten in Rheinland-Pfalz (Kaiserslautern, Koblenz-Landau, Mainz und Trier) transparent gemacht. Dieser Schritt ist erforderlich, um zunächst den Ist-Stand der Ausbildung im Fach Geographie zu erfassen und damit sowohl die Gemeinsamkeiten als auch die spezifischen Merkmale der einzelnen Studienstandorte abbilden zu können. Eine sich anschließende Befragung der Studierenden liefert als Ergänzung zur ermittelten deskriptiven Grundlage zur Studiensituation weitere Erkenntnisse aus den Bereichen der Modularisierung des Studiums, der fachlichen und fachdidaktischen Grundlagenvermittlung, den praktischen Studienanteilen und der eigenen Kompetenzeinschätzung. Die Rückmeldungen der Experten, die das Reformkonzept an den Standorten landesweit umsetzen, geben im Rahmen dieser Arbeit weitere ergänzende Impulse. Gerade im Hinblick auf die Diskussion um die Stärken und Schwächen der bisher umgesetzten Reformziele und die Einschätzung zu den Entwicklungsmöglichkeiten können direkte Rückmeldungen der Akteure aus der ersten und zweiten Phase der Ausbildung wichtige Ergänzungen liefern. Dazu werden einige Ergebnisse der Experteninterviews zusammenfassend dargestellt. Abschließend werden wesentliche Schlussfolgerungen der gesamten Forschungsarbeit, insbesondere Empfehlungen für zukünftige Entwicklungsperspektiven und Forschungsfelder dargelegt.
Die Dissertation beschreibt den Bewerber als Kunden eines Unternehmens und das damit verbundene Erleben während der Bewerbungsphase. Die Gesamteindrücke des Bewerbers werden auch als Candidate Experience bezeichnet. Die theoretische Herangehensweise der Arbeit orientiert sich am Marketingkonzept Customer Experience Management (CEM), welches den Kunden in den Mittelpunkt der Betrachtung stellt. Neben der theoretischen Herleitung wurde für die empirische Datengrundlage ein vielfältiges Methodenspektrum gewählt, um sowohl die Kundensicht zu beleuchten als auch die Unternehmensseite. Die Analyse zeigt, dass Standards bzw. selbstverständliche Verhaltensregeln (Recruiting-Basics) in der Interaktion mit dem Bewerber noch lange nicht von allen Unternehmen eingehalten werden, was teilweise zu Unzufriedenheit und negativen Kommentaren im Social Web führt. Die unmittelbare Veröffentlichung und Verbreitung von Kommentaren im Internet bieten aus Sicht der Unternehmen Risiken, aber auch Chancen. Die Ergebnisse der Arbeit zeigen, dass Candidate Experience in einem durch den Fachkräftemangel bedingten "Arbeitnehmermarkt" zur Notwendigkeit wird. Es entsteht ein Umwerben von Talenten, wodurch sich der bisherige Recruiting-Ansatz umdreht. Ein modernes Recruiting kennzeichnet sich dabei durch eine aktive Ansprache der potentiellen Bewerber. Als Konsequenz dieser Entwicklung sollte das Recruiting ganzheitlich auf Maßnahmen ausgerichtet werden, die gemäß eines abgeleiteten Candidate-Experience-Management-Ansatz den persönlichen Dialog mit dem Kandidaten fördern, Orientierung und Transparenz schaffen sowie relevante Informationen aus Kundensicht bereitstellen. Dazu kann bereits eine Karriereseite mit kundenorientierten Inhalten beitragen. Weiterhin gilt der erlebte persönliche Dialog mit den Unternehmensvertretern als entscheidend. Im Hinblick auf die Erkenntnisse der Arbeit ist es für die Zukunft empfehlenswert, sowohl im Wettbewerb um die besten Talente als auch hinsichtlich einer positiven Reputation on und offline alle Kontaktpunkte des Bewerbers mit dem Unternehmen zu identifizieren und zu analysieren. Das positive Bewerbererlebnis kann dabei auf Basis der Identifizierung kritischer Kundenkontaktpunkte und gleichzeitiger Implementierung von Maßnahmen gestaltet werden. Als Strukturierungshilfe dient ein durch den Verfasser entwickeltes Prozessmodell, welches in der Praxis auf Basis einer Fallstudie angewendet wurde. Um Erwartungen von Bewerbern nicht nur zu erfüllen, sondern zu übertreffen, gilt es zusätzlich kreative Maßnahmen zu implementieren, die auch eine zunehmende Weiterempfehlungs-bereitschaft fördern. Insgesamt lässt sich hinsichtlich der Erwartungshaltung der Bewerber konstatieren, dass ein Unternehmen auch bei den jungen Akademikern der Generation Y punkten kann, wenn es sich in einem ersten Schritt zunächst auf die Einhaltung der Recruiting-Basics konzentriert.
Geographic ranges of species and their determinants are of great interest in the field of biogeography and are often studied in terms of the species" ecological niches. In this context, the range of a species is defined by the accessibility of an area, abiotic factors and biotic interactions, which affect a species" distributions with different intensities across spatial scales. Parapatry describes a distributional pattern in which the ranges of two species meet along sharp range limits with narrow contact zones. Such parapatric range limits are determined by changing abiotic conditions along sharp environmental gradients or can result from interspecific resource competition. However, it has been shown that often the interplay of abiotic conditions and species interactions determine parapatry. The geographic ranges of the land salamanders, Salamandra salamandra and S. atra, narrowly overlap in the European Alps with only few syntopic localities and to date, the cause of parapatry is unknown. The goal of this thesis was thus to identify the importance of abiotic and biotic factors for their parapatric range limits at different spatial scales. On a broad spatial scale, the role of climate for the parapatric range limits of the species was investigated within three contact zones in Switzerland. Climatic conditions at species" records were analysed and species distribution modelling techniques were used to explore the species" climatic niches and to quantify the interspecific niche overlap. Furthermore, it was tested whether the parapatric range limit coincides with a strong climatic gradient. The results revealed distinct niches for the species as well as the presence of strong climatic gradients which could explain the parapatric range limits of the species. Yet, there was a moderate interspecific niche overlap in all contact zones indicating that the species may co-occur and interact with each other in areas where they both find adequate conditions. Comparison among contact zones revealed geographic variation in the species" niches as well as in the climatic conditions at their records suggesting that the species can occur in a much wider range of conditions than they actually do. These findings imply that climate represents a main factor for the species" parapatric range limits. Yet, interspecific niche overlap and the geographic variation provide indirect evidence that interspecific interaction may also affect their spatial distribution. To test whether competition restricts the species" ranges on the habitat scale and to understand local syntopic co-occurrence of the salamanders within their contact zones, site-occupancy modelling was used. This approach allowed to find the habitat predictors that best explain the species" local distribution. While the slope of the site positively affected the occupancy probability of S. salamandra, no tested predictor explained that of S. atra. Also, there was no effect of the occurrence of one species on the occupancy probability of the other providing no evidence for competition. Should competition occur, it does not lead to spatial segregation of the species on this scale. Because biotic interactions most significantly affect the ranges of species on small spatial scales, the microhabitat conditions at locations of the species within syntopic contact zones were compared and a null model analysis was applied to determine their niche overlap. Resource selection probability function models were used to assess those attributes that affect the species" habitat selections. The results revealed species-specific microhabitat preferences related to leaf litter cover, tree number and that the species were active at different temperatures as well as times of the day. The high degree of diurnal activity of S. atra may be due to its preference of forest floor microhabitats that long remain suitable during daytime. Besides, there was a great niche overlap for shelters indicating that the species may compete for this resource. Differential habitat selection and the use of the available shelters at different times of the day may minimize species interactions and allow their local co-occurrence within contact zones. To identify whether the potential infection with the pathogenic chytrid fungus could serve as an alternative biotic explanation for the range margins of S. atra, several populations throughout its range were screened for infection. Since the occurrence of this pathogen was detected mostly at lower altitudes of the Alps, it may confine the range of S. atra to higher elevations. Because chytrid was not detected in any of the samples, the pathogen unlikely plays a role in determining its range limits. Overall, these findings underline the complexity of mechanisms that determine the range margins of parapatric species and provide an important basis for subsequent studies regarding the determinants of the parapatric distribution of the two salamander species.
This work investigates the industrial applicability of graphics and stream processors in the field of fluid simulations. For this purpose, an explicit Runge-Kutta discontinuous Galerkin method in arbitrarily high order is implemented completely for the hardware architecture of GPUs. The same functionality is simultaneously realized for CPUs and compared to GPUs. Explicit time steppings as well as established implicit methods are under consideration for the CPU. This work aims at the simulation of inviscid, transsonic flows over the ONERA M6 wing. The discontinuities which typically arise in hyperbolic equations are treated with an artificial viscosity approach. It is further investigated how this approach fits into the explicit time stepping and works together with the special architecture of the GPU. Since the treatment of artificial viscosity is close to the simulation of the Navier-Stokes equations, it is reviewed how GPU-accelerated methods could be applied for computing viscous flows. This work is based on a nodal discontinuous Galerkin approach for linear hyperbolic problems. Here, it is extended to non-linear problems, which makes the application of numerical quadrature obligatory. Moreover, the representation of complex geometries is realized using isoparametric mappings. Higher order methods are typically very sensitive with respect to boundaries which are not properly resolved. For this purpose, an approach is presented which fits straight-sided DG meshes to curved geometries which are described by NURBS surfaces. The mesh is modeled as an elastic body and deformed according to the solution of closest point problems in order to minimize the gap to the original spline surface. The sensitivity with respect to geometry representations is reviewed in the end of this work in the context of shape optimization. Here, the aerodynamic drag of the ONERA M6 wing is minimized according to the shape gradient which is implicitly smoothed within the mesh deformation approach. In this context a comparison to the classical Laplace-Beltrami operator is made in a Stokes flow situation.
Chemical communication in the reproductive behaviour of Neotropical poison frogs (Dendrobatidae)
(2013)
Chemical communication is the evolutionary oldest communication system in the animal kingdom that triggers intra- and interspecific interactions. It is initiated by the emitter releasing either a signal or a cue that causes a reaction of the receiving individual. Compared to other animals there are relatively few studies regarding chemical communication in anurans. In this thesis the impact of chemical communication on the behaviour of the poison frog Ranitomeya variabilis (Dendrobatidae) and its parental care performance was investigated. This species uses phytotelmata (small water bodies in plants) for both clutch and tadpole depositions. Since tadpoles are cannibalistic, adult frogs do not only avoid conspecifics when depositing their eggs but also transport their tadpoles individually into separated phytotelmata. The recognition of already occupied phytotelmata was shown to be due to chemical substances released by the conspecific tadpoles. In order to gain a deeper comprehension about the ability of adult R. variabilis to generally recognize and avoid tadpoles, in-situ pool choice experiments were conducted, offering chemical substances of tadpole of different species to the frogs (Chapter I). It turned out that they were able to recognize all species and avoid their chemical substances for clutch depositions. However, for tadpole depositions only dendrobatid tadpoles occurring in phytotelmata were avoided, while those species living in rivers were not. Additionally, the chemical substances of a treefrog tadpole (Hylidae) were recognized by R. variabilis. Yet, they were not avoided but preferred for tadpole depositions; thus these tadpoles might be recognized as a potential prey for the predatory poison frog larvae. One of the poison frog species which was avoided for both tadpole and clutch depositions, was the phytotelmata breeding Hyloxalus azureiventris. The chemical substances released by its tadpoles were analysed together with those of the R. variabilis tadpoles (Chapter II). After finding a suitable solid-phase extraction sorbent (DSC-18), the active chemical compounds from the water of both tadpole species were extracted and fractionated. In order to determine which fractions triggered the avoidance behaviour of the frogs, in-situ bioassays were conducted. It was found that the biologically active compounds differed between both species. Since the avoidance of the conspecific tadpoles is not advantageous to the releaser tadpoles (losing a potential food resource) the chemicals released by them might be defined as chemical cues. However, as it turned out that the avoidance of the heterospecific tadpoles was not triggered by a mere byproduct based on the close evolutionary relationship between the two species, the chemical compounds released by H. azureiventris tadpoles might be defined as chemical signals (being advantageous to the releasing tadpoles) or, more specifically as synomones, interspecificly acting chemicals that are advantageous for both emitter and receiver (since R. variabilis avoids a competition situation for its offspring, too). Another interspecific communication system investigated in this thesis was the avoidance of predator kairomones (Chapter III). Using chemical substances from damselfly larvae, it could be shown that R. variabilis was unable to recognize and avoid kairomones of these tadpole predators. However, when physically present, damselfly larvae were avoided by the frogs. For the recognition of conspecific tadpoles in contrast, chemical substances were necessary, since purely visible artificial tadpole models were not avoided. If R. variabilis is also capable to chemically communicate with adult conspecifics was investigated by presenting chemical cues/signals of same-sex or opposite-sex conspecifics to the frogs (Chapter IV). It was suggested that males would be attracted to chemical substances of females and repelled by those of conspecific males. But instead all individuals showed avoidance behaviour towards the conspecific chemicals. This was suggested to be an artefact due to confinement stress of the releaser animals, emitting disturbance cues that triggered avoidance behaviour in their conspecifics. The knowledge gained about chemical communication in parental care thus far, was used to further investigate a possible provisioning behaviour in R. variabilis. In-situ pool-choice experiments with chemical cues of conspecific tadpoles were carried out throughout the change from rainy to dry season (Chapter V). With a changepoint analysis, the exact seasonal change was defined and differences between frogs" choices were analysed. It turned out that R. variabilis does not avoid but prefer conspecific cues during the dry season for tadpole depositions, what might be interpreted as a way to provide their tadpoles with food (i.e. younger tadpoles) in order to accelerate their development when facing desiccation risk. That tadpoles were also occasionally fed with fertilized eggs could be shown in a comparative study, where phytotelmata that contained a tadpole deposited by the frogs themselves received more clutch depositions than freshly erected artificial phytotelmata containing unfamiliar tadpoles (i.e. their chemical cues; Chapter VI). Conducting home range calculations with ArcGIS, it turned out that R. variabilis males showed unexpectedly strong site fidelity, leading to the suggestion that they recognize their offspring by phytotelmata location. However, in order to test if R. variabilis is furthermore able to perform chemical offspring recognition, frogs were confronted in in-situ pool-choice experiments with chemical cues of single tadpoles that were found in their home ranges (Chapter VII). Genetic kinship analyses were conducted between those tadpoles emitting the chemical cues and those deposited together with or next to them. The results, however, indicated that frogs did not choose to deposit their offspring with or without another tadpole due to relatedness, i.e. kin recognition by chemical cues could not be confirmed in R. variabilis.
Comparing the results of the phylogeographies of the four species included in this thesis, some accordances have been found, even though certain patterns are only represented in one or two species. In all cases, the findings of the studied species strongly support the existence of forests or forest-like ecosystems beyond the classic forest refugia in the Mediterranean areas (Iberian, Apennine and Balkan peninsulas) during glacial times. However, evidence of glacial refugial areas in Southeastern Europe, especially the Balkans, have been found in this study as well. The analysed populations of Aposeris foetida, Melampyrum sylvaticum and Erebia euryale showed high genetic diversity values and mostly higher private fragments in this area, which is a strong indicator for centres of glacial survival during Würm and, regarding the results of M. sylvaticum, even during the Riss ice age. Three of the analysed species (A. foetida, M. sylvaticum and Colias palaeno) supported a second main glacial refuge area located along the Northern Alps. Again, high genetic diversity values and the uniqueness of the populations living in this region today prove the importance of this area as a glacial centre of survival. Those results confirm several recently published studies on forest species and strongly indicate the persistence of forest-like structures or even forests during the ice ages along the foothills of the Northern Alps. Additionally, the persistence of C. palaeno in this area furthermore supports the existence of peatlands north of the Alps, at least during the last glacial. The results of M. sylvaticum and E. euryale further indicate the vicinity of the Tatra Mountains as core areas for glacial survival. However, the genetic patterns found for E. euryale are ambiguous. Due to an intermediate position of two genetic lineages (originating in the Eastern Alps and Southeastern Europe), the Tatras could also reflect a postglacial mixture zone of those lineages. Moreover, the glacial and postglacial importance of this area for woodland species was accentuated, supporting other phylogeographic studies published. Besides the congruities among the results of the study species, some unique patterns and therefore further potential glacial refugia have also been illuminated in this thesis. For instance, the calcicole species, A. foetida, most probably had further survival area at both sides of the Dinaric Alps, supported by high genetic diversity values and a high number of private fragments found in Croatian populations. Furthermore, the surroundings of the German Uplands and the margin of the Southern Alps provided suitable conditions for glacial survival for M. sylvaticum, while the Eastern and Southeastern Alpine region most probably sheltered the Large Ringlet E. euryale during ice ages. Additionally, this butterfly species survived at least the glaciation along the foothills of the Massif Central, whose present populations showed a unique genetic lineage and their genetic diversity values have been measurably higher than in other populations for this species. Finally, a large and continuous Würm distribution is highly likely south of the Fennoscandian glaciers in Central Europe for C. palaeno, which might indicate extended peatland areas during Würm glacial. With all the patterns found in this study, the understanding of glacial persistence of forest, respectively forest-like structures and peatlands during Würm or even Riss glacial in Europe could be advanced. The congruencies among the analysed woodland and bog species illustrate the importance and location of extra-Mediterranean refugia for European mountain forests and the glacial presence of Central European peatlands. Thus, already postulated theories could be supported and further pieces of the overall puzzle could be added. The varieties of the different survival centres once more clarified that further phylogeographic studies on mountain forest of different habitat requirements and especially peatland species have to be implemented to get a clearer picture of the glacial history of these habitats.
Der Aufbau einer Klassifikation von Einzugsgebieten (EZG) auf Basis des Abflussverhaltens und der Gebietseigenschaften sowie die Regionalisierung von Abflussparametern sind Kernthemen der Hydrologie. Die Ziele dieser Arbeit sind der Aufbau einer Klassifikation für EZGs mit hoher räumlicher Auflösung nach dem Abflussverhalten und der Gebietseigenschaften, die Identifikation abflussrelevanter, physiogeografischer und klimatischer Gebietseigenschaften und die Regionalisierung von Abflussverhalten und Modellparametern auf Basis von Klassifikationen. Dabei wird untersucht, ob sich 53 häufig benachbarte und z.T. ineinander geschachtelte Einzugsgebiete in Rheinland-Pfalz für eine Klassifikation eignen und wie das Abflussverhalten für die Beurteilung von Ähnlichkeiten beschrieben werden kann. Das Abflussverhalten der EZGs wird mit einer großen Anzahl von Ereignis-Abflussbeiwerten je EZG und Abflussdauerlinien (Flow-Duration Curves) der EZGs beschrieben, die das Abflussverhalten umfassend und mit einer ausreichenden Trennschärfe abbilden. Gebietseigenschaften, die das Abflussgeschehen dieser EZG dominieren, sind langjährige, mittlere Niederschlagssummen, die mittlere potentielle Verdunstung, die Topografie und die Speichermöglichkeiten im EZG. Für den Aufbau und die Anwendung der EZG-Klassifikationen wird ein hierfür entwickeltes Verfahren eingesetzt, dass auf Selbstorganisierenden Merkmalskarten (Self-Organizing Maps, SOM) basiert. Vorteile dieses Verfahrens gegenüber vielen konventionellen Verfahren sind Qualitätsmaße, die datenbasierte Bestimmung wichtiger Parameter, aussagestarke Visualisierungen der Ergebnisse und die Klassifikation und Regionalisierung mit einer Methode. Die Auswertung von zwei separaten Klassifikationen, nach dem Abflussverhalten und nach den physiogeografischen und klimatischen Gebietseigenschaften, stellen einen direkten Zusammenhang zwischen Abfluss- und Gebietseigenschaften her. Der Überschneidungsbereich der beiden Klassifikationen ist die Grundlage für die Übertragung von Abflussinformationen auf unbeobachtete Gebiete (Regionalisierung). Die Ergebnisse zeigen, dass die Methode der Clusteranalyse, Klassifikation und Regionalisierung mit SOM und den genannten Abfluss- und Gebietskennwerten geeignet ist, EZGs mit einer hohen räumlichen Auflösung treffend und detailliert zu klassifizieren sowie Abflussparameter zu regionalisieren.
Diese Arbeit stellt die Ergebnisse eines abgeschlossenen Dissertationsprojektes zur sozialen Einbettung eines ländlichen Kreditmarktes im 19. Jahrhundert dar. Das Hauptziel der Untersuchung war es, herauszufinden, ob die soziale Einbettung von Akteuren einen messbaren positiven oder negativen Effekt auf ihren ökonomischen Erfolg im Rahmen eines historischen Kreditmarktes hatte. Das Fallbeispiel der Untersuchung ist der ländliche Kreditmarkt des in der Nähe von Reutlingen im Königreich von Württemberg im Südwesten Deutschlands gelegenen Dorfes Ohmenhausen. Die Datengrundlage der Untersuchung sind die Hypothekenbücher, Vermögensinventare, Steuerlisten und Kirchenbücher des Dorfes. In Übereinstimmung mit der Neuen Institutionenökonomik werden Kreditmärkte als soziale Netzwerke von Schuldnern und Gläubigern betrachtet. Die soziale Einbettung der Dorfbewohner ist über die (Re-)Konstruktion ihrer dorfinternen Verwandtschaftsnetzwerke operationalisiert worden. Die Akteure in diesen Verwandtschaftsnetzwerken sind alle Haushalte, die Grundsteuern bezahlt haben. Diese Haushalte besaßen Land und waren deshalb in der Lage Hypotheken aufzunehmen. Die Untersuchung wird durch den Vergleich der Verteilung der Kredite innerhalb der Verwandtschaftsnetzwerke der Stichjahre von 1825 und 1850 durchgeführt. Im Jahr 1830 trat eine signifikante Reform der Pfandgesetzgebung in Kraft. Deshalb wurde jeweils ein Stichjahr vor dem Inkrafttreten der Reform mit einem Stichjahr nach Inkrafttreten der Reform verglichen. Dies geschah um zu untersuchen, ob die Reform einen Einfluss auf die Marktstruktur hatte und ob sich im Rahmen der Reform auch die Verteilung der Kredite innerhalb der Verwandtschaftsnetzwerke änderte.
Die Dissertation ist der Kuünstlerpersönlichkeit und dem Werk des Kubaners Wifredo Lam gewidmet. Lam wurde 1902 auf Kuba als Sohn eines Chinesen und einer Kubanerin geboren und starb 1982 in Paris. Die vielen unterschiedlichen Lebensstationen des Künstlers bezeugen seine Mobilität und Reiselust, zeichnen aber auch gleichzeitig die historischen Turbulenzen und Umbrüche des 20. Jahrhunderts nach. Lam gilt heute als einer der Hauptvertreter der lateinamerikanischen Kunst des 20. Jahrhunderts und als Künstlerikone Kubas. Zu Lams Freunden und Bekannten gehörten unter anderem Pablo Picasso, André Breton, Michel Leiris, Pierre Mabille, Alejo Carpentier, Lydia Cabrera, Aimé Césaire, Benjamin Perét und Asger Jorn. Sein Werk ist durch den Kubismus und den Surrealismus beeinflusst. Auch interessierte er sich für die lokalen Gegebenheiten, Kulturen und Traditionen seiner jeweiligen Aufenthaltsorte. Er setzte sich unter anderem mit der Rezeption des "Primitiven" der europäischen Avantgarde vor dem Zweiten Weltkrieg, wie auch - zurück in der Heimat Kuba - mit der afrokubanischen Mischreligion Santeria auseinander und fühlte sich politisch wie intellektuell mit der karibischen Négritude verbunden. Diese und andere Eindrücke und Einflüsse hinterließen Spuren in Lams Werk, die er in eine Formensprache umsetzte, die seinem Œuvre einen unverwechselbaren Ausdruck verleiht. Dem poliperspektivistischen und semantisch mehrfach aufgeladenen Werk jedoch stehen eine erstaunlich einseitige und nicht selten stereotype internationale Repräsentation und Rezeption gegenüber. Die Dissertation jedoch stellt eine andere, eine neue Positionierung des Künstlers und seines Werkes vor, die ohne primitivistische Zuschreibungen und biografische Bezeugungen auskommt. Dies gelingt zum einen durch die Auseinandersetzung mit den Rezeptions- und Repräsentationsmechanismen, die den Künstlermythos Lam ausgebildet haben. Daran schließt sich eine detaillierte Analyse repräsentativ ausgewählter Einzelbildbeispiele an. Aber auch die Auseinandersetzung mit dem Gesamtwerk des Künstlers ist relevant. Denn es zeigt sich, dass die über Jahrzehnte hin praktizierte Wiederholung von Bildformeln und die Homogenität in der Darstellungsweise Teil des künstlerischen Programms von Wifredo Lam sind. Diese stilistische Formalität wurde von den Kritikern des Lamschen Werkes bisher nicht beachtet. Auf der Basis dieser neu erarbeiteten Erkenntnisse kann Wifredo Lam als Fallbeispiel für übergeordnete Fragestellungen dienen und zentrale Aspekte der cultural studies illustrieren. Denn Lams künstlerische Formgestaltung verweist auf ein alternatives ästhetisches Identitätsmodell, das Synkretismus und Hybridität nicht als Verlust von Identität, sondern als eine Praxis von Differenz versteht. Diese Ausrichtung der Lesart ermöglicht es, das Gesamtwerk als eine künstlerische Antwort auf Fragen kultureller Identität und Multikulturalität zu deuten.
Global change, i.e. climate and land use changes, severely impact natural ecosystems at different scales. Poikilothermic animals as butterflies, amphibians and reptiles have proven to be useful indicators for global change impacts as their phenology, spatial distribution, individual fitness and survival strongly depend on external environmental factors. In this aspect, phenological changes in terms of advanced flight or breeding periods, immigrations of foreign species, range shifts concomitant with temperature increases and even local population declines have been observed in both species groups. However, to date much attention has been paid to global change impacts on the species or population level and analyses concerning entire ecosystems are scarce. Applying a novel statistical modelling algorithm we assessed future changes in the extent and composition of terrestrial ecoregions as classified by the World Wide Fund for Nature (WWF). They are defined as coarse-scale conservation units containing exceptional assemblages of species and ecological dynamics. Our results demonstrate dramatic geographical changes in the extent and location of these ecoregions across all continents and even imply a repriorisation of conservation efforts to cope with future climate change impacts on biodiversity. On the local scale, climate change impacts become unequivocal. Comparing historical to contemporary butterfly assemblages on vineyard fallows of the Trier Region, a significant decline in butterfly richness, but also a severe depletion in trait diversity was observed. Comparisons of community temperature indices reveal a striking shift in community composition leading to a replacement of sedentary and monophagous habitat specialists by ubiquitous species. Similar changes have been observed in nature reserves in the Saar-Mosel-area. Monitoring data reveal strong losses of species diversity and remarkable shifts of community compositions at the expense of habitat specialists. Besides climatic variability, these findings are largely attributed to changes in habitat structures, mostly due to eutrophication and monotonisation. Management activities are unlikely to counterbalance these effects, thus severely questioning current conservation strategies. Most dramatic global change impacts are suspected on closely associated species and disruptions of biotic interactions are often hold responsible for species declines. A strong host-parasite association has developed in Myrmica ants and Maculinea butterflies, the later crucially depending on specific host ants for their larval survival. Applying environmental niche models we determined considerable niche dynamics in the observed parasite-host relation with a pronounced niche plasticity in the butterfly species adapting to previous evasive niche shifts in their host ants. Moreover, the new emergence of species continuously expanding their northernmost range borders concomitant with global warming like the Short-tailed blue (Cupido argiades) is attributed to climate change. However, species distribution models predict a severe habitat loss and shifts of potentially suitable habitats of this species towards north-eastern Europe and higher altitudes under several IPCC scenarios making the presence of this species in the Trier region a contemporary phenomenon. Species distribution models have emerged as powerful tools to predict species distributions over spatial and temporal scales. However, not only the presence of a species, but also its abundance have significant implications for species conservation. The ability to deduce spatial abundance patterns from environmental suitability might more efficiently guide field surveys or monitoring programs over large geographical areas saving time and money. Although the application of species distribution models to deduce vertebrate abundances is well recognized, our results indicate that this method is not an adequate approach to predict invertebrate abundances. Structural and ecological factors as well as climatic patterns acting at the microscale are key drivers of invertebrate occurrence and abundances limiting conclusions drawn from modeling approaches. Population declines should be interpreted with care as in butterflies and amphibians various reasons are debated. Both species groups are acknowledged to be highly susceptible to land use changes and variations in landscape structure. Moreover, climate and land use are not independently operating factors. The combined impact of both is demonstrated in our study linking climate-driven changes in amphibian phenologies to temporal advanced applications of pesticides and fertilizers. Both environmental factors already represent severe threats to amphibians when standing alone, but linking their combined impacts may result in an potentiated risk for amphibian populations. As all amphibians and numerous butterfly species are legally protected under the Federal Nature Conservation Act, intensifications of agricultural land use in large parts of Germany as well as new agrarian practices (including genetically manipulated plants accompanied by new herbicide technologies) might severely challenge regional conservation activities in the future.
The Hadamard product of two holomorphic functions which is defined via a convolution integral constitutes a generalization of the Hadamard product of two power series which is obtained by pointwise multiplying their coefficients. Based on the integral representation mentioned above, an associative law for this convolution is shown. The main purpose of this thesis is the examination of the linear and continuous Hadamard convolution operators. These operators map between spaces of holomorphic functions and send - with a fixed function phi - a function f to the convolution of phi and f. The transposed operator is computed and turns out to be a Hadamard convolution operator, too, mapping between spaces of germs of holomorphic functions. The kernel of Hadamard convolution operators is investigated and necessary and sufficient conditions for those operators to be injective or to have dense range are given. In case that the domain of holomorphy of the function phi allows a Mellin transform of phi, certain (generalized) monomials are identified as eigenfunctions of the corresponding operator. By means of this result and some extract of the theory of growth of entire functions, further propositions concerning the injectivity, the denseness of the range or the surjectivity of Hadamard convolution operators are shown. The relationship between Hadamard convolution operators, operators which are defined via the convolution with an analytic functional and differential operators of infinite order is investigated and the results which are obtained in the thesis are put into the research context. The thesis ends with an application of the results to the approximation of holomorphic functions by lacunary polynomials. On the one hand, the question under which conditions lacunary polynomials are dense in the space of all holomorphic functions is investigated and on the other hand, the rate of approximation is considered. In this context, a result corresponding to the Bernstein-Walsh theorem is formulated.
Die Arbeit thematisiert die Weiterentwicklung des touristischen Angebots der Deutschen Bahn, das derzeit über den Reiseveranstaltervertrieb am Markt platziert wird. Kunden, die im Reisebüro oder Internet eine Städtereise über ihren Veranstalter buchen, erhalten mit dem RIT (Rail Inclusive Tours)-Angebot ein spezielles Kooperationsticket für ihre Zugfahrt. Im ersten Abschnitt der Arbeit wird zunächst auf die Besonderheiten des Dienstleistungsbereichs inklusive Auswirkungen auf die Angebotsgestaltung von Unternehmen eingegangen. In diesem Zusammenhang werden Hintergründe von Kundenzufriedenheit und Kundenbindung skizziert sowie deren Wechselwirkungen dargestellt. Über die Einordnung der Deutschen Bahn als Dienstleistungsunternehmen im Schienenpersonenfernverkehr wird deren Positionierung im zunehmenden Wettbewerbsmarkt in einer Umfeldanalyse erarbeitet und die Bedeutsamkeit für den Unternehmenserfolg aufgezeigt. Der praktische Teil der Arbeit befasst sich mit den Befragungsergebnissen von Bestandskunden in der fokussierten Zielgruppe der Städtereisenden. Neben der Analyse von Nutzerstruktur, Reisegewohnheiten und alternativer Verkehrsmittelwahl, werden Kundenzufriedenheiten und Wichtigkeiten einzelner Leistungsbestandteile der Bahnreise näher betrachtet. Durch die Identifizierung von Kundensegmenten lassen sich Ansatzpunkte für die Weiterentwicklung des Angebots ableiten, die eine Attraktivitätssteigerung der Bahnfahrt herbeiführen und die Kundenzufriedenheit nachhaltig erhöhen können. Einbindung von Essensgutscheinen, das Angebot von Kuriergepäck oder die Integration des City-Tickets sind denkbare, nutzensteigernde Maßnahmen für die Anreisealternative Bahnfahrt. Weiterer Forschungsbedarf für die betrachtete Zielgruppe besteht in der Erfassung von Hinderungsgründen für eine bevorzugte Bahnwahl in der Verkehrsmittelentscheidung. Darüber hinaus ist das Potenzial für eine Einbindung solcher Services zu erfassen, die sich auf Seiten der Reiseveranstalter in ein Leistungspaket integrieren lassen, um weitere Indikatoren zur Attraktivitätssteigerung der Bahnfahrt ableiten zu können. Zusammenfassend stellt die Arbeit eine Analyse der skizzierten Zielgruppe der Städtereisenden der Deutschen Bahn über den Veranstaltervertrieb dar und liefert einen Beitrag, der die Ableitung einiger relevanter Handlungsempfehlungen erlaubt. Denn nur durch attraktive Angebote und die Erzielung einer hohen Kundenzufriedenheit kann sich die Bahn als bevorzugtes Transportmittel behaupten und neue Kunden für die Zugfahrt begeistern.
Copositive programming is concerned with the problem of optimizing a linear function over the copositive cone, or its dual, the completely positive cone. It is an active field of research and has received a growing amount of attention in recent years. This is because many combinatorial as well as quadratic problems can be formulated as copositive optimization problems. The complexity of these problems is then moved entirely to the cone constraint, showing that general copositive programs are hard to solve. A better understanding of the copositive and the completely positive cone can therefore help in solving (certain classes of) quadratic problems. In this thesis, several aspects of copositive programming are considered. We start by studying the problem of computing the projection of a given matrix onto the copositive and the completely positive cone. These projections can be used to compute factorizations of completely positive matrices. As a second application, we use them to construct cutting planes to separate a matrix from the completely positive cone. Besides the cuts based on copositive projections, we will study another approach to separate a triangle-free doubly nonnegative matrix from the completely positive cone. A special focus is on copositive and completely positive programs that arise as reformulations of quadratic optimization problems. Among those we start by studying the standard quadratic optimization problem. We will show that for several classes of objective functions, the relaxation resulting from replacing the copositive or the completely positive cone in the conic reformulation by a tractable cone is exact. Based on these results, we develop two algorithms for solving standard quadratic optimization problems and discuss numerical results. The methods presented cannot immediately be adapted to general quadratic optimization problems. This is illustrated with examples.
Die Zweckbestimmung der modernen Clustertheorie liegt in der Analyse regional-sektoraler Verbundsysteme von ökonomischen Aktivitäten. Erst seit kurzem wird der Versuch einer Übertragung auf touristische Destinationen in Entwicklungsländern unternommen. Die vorliegende Dissertation untersucht theoretische, methodische und praktische Implikationen dieser Übertragung anhand des Fallbeispiels der touristischen Clusterentwicklung in der Napo-Provinz Ecuadors. Hierbei stehen insbesondere die Rahmenbedingungen für die Genese wissensbasierter (kompetitiver) Wettbewerbsvorteile als Quelle der Clusterdynamik im Zentrum. Anhand einer quantitativen Methodik wird in diesem Rahmen sowohl ein Nachweis zur Gültigkeit eines vorab abgeleiteten Clusterentwicklungsmodells geführt, als auch auf dieser Grundlage ein Beitrag zur Verbesserung bestehender Diagnosesysteme geleistet.
Die Studie untersucht, wie in Deutschland und Frankreich die beiden Politikbereiche Entwicklungszusammenarbeit und Migrationspolitik miteinander verbunden werden. Hintergrund ist eine seit etwa fünfzehn Jahren laufende intensive internationale Debatte über Möglichkeiten einer kohärenten Verknüpfung der beiden Politikfelder. Dabei wurden Vorschläge gemacht, wie Migration so gestaltet werden kann, dass allen Beteiligten, d.h. Herkunftsländern, Aufnahmeländern und den Migranten selbst, möglichst große Vorteile daraus erwachsen (Schlagwort Triple-Win). Positive Effekte der Migration auf die Entwicklung der Herkunftsländer sollen verstärkt und negative minimiert werden. Bisher stand staatliches Handeln in diesem Zusammenhang selten im Fokus der Forschung. Dieser Mangel ist umso eklatanter, als die an der Debatte beteiligten Internationalen Organisation vielfach staatliches Handeln zu beeinflussen suchen. Musekamps Studie stellt daher die politische Verknüpfung von Migration und Entwicklung in den Mittelpunkt und zeigt anhand der zwei Länderfallstudien Deutschland und Frankreich, warum bestimmte Vorschläge zur politischen Verknüpfung von Migration und Entwicklung in staatliches Handeln umgesetzt worden sind, andere hingegen nicht. Zur Erklärung dient der politikwissenschaftliche Ansatz des Policy Transfer. Musekamp kommt in seiner Studie zu dem Ergebnis, dass es insbesondere politische Gründe sind, die eine Aufnahme von Vorschlägen in politisches Handeln bedingen. Diese sind etwa das Konfliktpotenzial der Vorschläge und ihre Kompatibilität mit dem Status quo. Sachlich-inhaltliche Gründe, auf die sich die bisherige Debatte und Forschung konzentrieren, sind weniger ausschlaggebend. Die Arbeit zeigt eindrücklich, dass ein Erreichen der erwarteten "Triple-Win-Situationen" wesentlich voraussetzungsreicher ist, als dies manche Beiträge der internationalen Debatte suggerieren. So stehen viele Vorhaben zur Zeit auf sehr niedrigem Umsetzungsniveau. Deutlich wird dies am deutschen Fall, bei dem bislang vor allem Pilotprojekte umgesetzt wurden, die sich weitgehend auf jene Bereiche beschränken, die die Entwicklungszusammenarbeit allein umsetzen kann. Auch in der französischen Fallstudie zeigt sich dies etwa daran, dass die Zahl staatlich unterstützter Kleinprojekte von Migrantenorganisationen stagniert. Zudem ist der dreiseitige Vorteil selbst dort, wo Migration und Entwicklung in politischem Handeln verknüpft werden, keineswegs sicher. So wurde in Frankreich Migrationspolitik zwar verstärkt in Kooperation mit den Herkunftsländern auf Basis umfassender Partnerschaftsverträge geregelt. Gerade hier zeigt sich aber weniger ein ausgewogener partnerschaftlicher Ansatz als vielmehr eine Instrumentalisierung der EZ und des Engagements von Migrantengruppen für Zwecke der Migrationssteuerung. Die Einzelergebnisse der Länderanalyse und deren systematischer Vergleich setzen neue Impulse für eine praktische Umsetzung von Politik im Schnittfeld von Migration und Entwicklung, die der Komplexität des Feldes angemessen ist.
Cortisol exhibits typical ultradian and circadian rhythm and disturbances in its secretory pattern have been described in stress-related pathology. The aim of this thesis was to dissect the underlying structure of cortisol pulsatility and to develop tools to investigate the effects of this pulsatility on immune cell trafficking and the responsiveness of the neuroendocrine system and GR target genes to stress. Deconvolution modeling was set up as a tool for investigation of the pulsatile secretion underlying the ultradian cortisol rhythm. This further allowed us to investigate the role of the single cortisol pulses on the immune cell trafficking and the role of induced cortisol pulses on the kinetics of expression of GR target genes. The development of these three tools, would allow to induce and investigate in future the significance of single cortisol pulses for health and disease.
Design and structural optimization has become a very important field in industrial applications over the last years. Due to economical and ecological reasons, the efficient use of material is of highly industrial interest. Therefore, computational tools based on optimization theory have been developed and studied in the last decades. In this work, different structural optimization methods are considered. Special attention lies on the applicability to three-dimensional, large-scale, multiphysic problems, which arise from different areas of the industry. Based on the theory of PDE-constraint optimization, descent methods in structural optimization require knowledge of the (partial) derivatives with respect to shape or topology variations. Therefore, shape and topology sensitivity analysis is introduced and the connection between both sensitivities is given by the Topological-Shape Sensitivity Method. This method leads to a systematic procedure to compute the topological derivative by terms of the shape sensitivity. Due to the framework of moving boundaries in structural optimization, different interface tracking techniques are presented. If the topology of the domain is preserved during the optimization process, explicit interface tracking techniques, combined with mesh-deformation, are used to capture the interface. This techniques fit very well the requirements in classical shape optimization. Otherwise, an implicit representation of the interface is of advantage if the optimal topology is unknown. In this case, the level set method is combined with the concept of the topological derivative to deal with topological perturbation. The resulting methods are applied to different industrial problems. On the one hand, interface shape optimization for solid bodies subject to a transient heat-up phase governed by both linear elasticity and thermal stresses is considered. Therefore, the shape calculus is applied to coupled heat and elasticity problems and a generalized compliance objective function is studied. The resulting thermo-elastic shape optimization scheme is used for compliance reduction of realistic hotplates. On the other hand, structural optimization based on the topological derivative for three-dimensional elasticity problems is observed. In order to comply typical volume constraints, a one-shot augmented Lagrangian method is proposed. Additionally, a multiphase optimization approach based on mesh-refinement is used to reduce the computational costs and the method is illustrated by classical minimum compliance problems. Finally, the topology optimization algorithm is applied to aero-elastic problems and numerical results are presented.
The startle response in psychophysiological research: modulating effects of contextual parameters
(2013)
Startle reactions are fast, reflexive, and defensive responses which protect the body from injury in the face of imminent danger. The underlying reflex is basic and can be found in many species. Even though it consists of only a few synapses located in the brain stem, the startle reflex offers a valuable research method for human affective, cognitive, and psychological research. This is because of moderating effects of higher mental processes such as attention and emotion on the response magnitude: affective foreground stimulation and directed attention are validated paradigms in startle-related research. This work presents findings from three independent research studies that deal with (1) the application of the established "affective modulation of startle"-paradigm to the novel setting of attractiveness and human mating preferences, (2) the question of how different components of the startle response are affected by a physiological stressor and (3) how startle stimuli affect visual attention towards emotional stimuli. While the first two studies treat the startle response as a dependent variable by measuring its response magnitude, the third study uses startle stimuli as an experimental manipulation and investigates its potential effects on a behavioural measure. The first chapter of this thesis describes the basic mechanisms of the startle response as well as the body of research that sets the foundation of startle research in psychophysiology. It provides the rationale for the presented studies, and offers a short summary of the obtained results. Chapter two to four represent primary research articles that are published or in press. At the beginning of each chapter the contribution of all authors is explained. The references for all chapters are listed at the end of this thesis. The overall scope of this thesis is to show how the human startle response is modulated by a variety of factors, such as the attractiveness of a potential mating partner or the exposure to a stressor. In conclusion, the magnitude of the startle response can serve as a measure for such psychological states and processes. Beyond the involuntary, physiological startle reflex, startle stimuli also affect intentional behavioural responses, which we could demonstrate for eye movements in a visual attention paradigm.
Ziel der Studie war es, die Wirksamkeit zweier psychotherapeutischer Mikrointerventionen zur Emotionsregulation und zur progressiven Relaxation und die damit einhergehenden Veränderungen auf psychometrischer und elektrokortikaler Ebene zu untersuchen. Die Stichprobe bestand aus 65 klinischen Versuchspersonen der Warteliste der Poliklinischen Psychotherapieambulanz der Universität Trier. In einer EEG-Erhebung vor und nach den Mikrointerventionen wurden neben dem Ruhe-EEG ereigniskorrelierte Potentiale (EKPs) aufgezeichnet. Im EKP-Paradigma wurden die Probanden instruiert negativ-valente Bilder aus dem IAPS-System entweder anzuschauen oder die gezeigte Situation kognitiv zu einer weniger negativen Interpretation der Bilder umzudeuten. Nach der EEG-Aufzeichnung wurden die Probanden randomisiert einer standardisierten 90-minütigen psychotherapeutischen Intervention zum kognitiven Reframing bzw. zur progressiven Relaxation zugewiesen. Im Anschluss wurde die EEG-Erhebung mit dem Ruhe-EEG und dem EKP mit einem parallelisierten Pool negativ valenter Bilder erneut durchgeführt. Auf psychometrischer Ebene wurde u.a. der positive und negative Affekt mit dem PANAS im Verlauf der Untersuchung zu insgesamt vier Messzeitpunkten erfasst. Neben dem Alpha-Frequenzband des Ruhe-EEGs wurde bei den EKPs die P3 und das Späte Positive Potential (LPP) untersucht. Die Ergebnisse geben Hinweise darauf, dass die psychotherapeutischen Mikrointerventionen zu differentiellen Effekten auf psychometrischer und elektrokortikaler Ebene führten. Auf der psychometrischen Ebene zeigte sich bei den Teilnehmern der Entspannungsintervention direkt nach der Intervention eine Abnahme des negativen Affekts, während sich dies bei den Teilnehmern der Reframing-Intervention erst im Verlauf der zweiten EEG-Messung mit dem Umdeuten der negativ valenten Bilder zeigte. Auf der elektrokortikalen Ebene waren die Ergebnisse weniger einheitlich. Durch die Entspannungs-Intervention konnte im Verlauf der Untersuchung eine Zunahme der P3-Amplituden festgestellt werden, während die Reframing-Teilnehmer über die Messzeitpunkte eine Abnahme der P3-Amplituden aufwiesen. Dies könnte so interpretiert werden, dass durch das Erlernen des Reframings das emotionale Arousal reduziert werden konnte. Bei dem LPP waren hingegen keine differentiellen Effekte der Mikrointerventionen nachweisbar. Bei beiden Interventionen kam es zu einer Zunahme der LPP-Amplituden. Bei der Analyse der Alpha-Aktivität des Ruhe-EEGs wurde bei den Entspannungs-Teilnehmern im Vergleich zu den Reframing-Teilnehmern nach der Mikrointervention eine größere Alpha-Aktivität gefunden. Diese Unterschiede wurden am deutlichsten in der linken Hemisphäre sowie in den zentralen und parietalen Hirnregionen. Eine höhere Alpha-Aktivität geht mit einer niedrigeren kortikalen Aktivität einher, so dass man davon ausgehen kann, dass die Entspannungs-Teilnehmer diese Hirnregionen während der Intervention weniger ausgeprägt nutzten. Zusammenfassend geben die Befunde erste Hinweise auf eine differentielle Wirkung der beiden Mikrointerventionen.
Thema der Untersuchung ist die Sklaverei im nördlichen Schwarzmeerraum (heute Ukraine und Südrußland), wofür die von der Forschung bislang wenig beachtete Quellengruppe der Grabreliefs ausgewertet wird. An erster Stelle steht dabei die Identifizierung möglicher Dienerdarstellungen anhand verschiedener ikonographischer Kriterien wie 1) dem Prinzip der Bedeutungsgröße bzw. der Bedeutungskleinheit, 2) Komposition und technische Ausführung, 3) Haltung, Gesten und Gebärden, 4) Kleidung und 5) Haartracht. Diese Kriterien werden auf ausgesuchte Grabreliefs aus dem Bosporanischen Reich, Chersonesos und Olbia angewendet. Nach Auswertung der literarischen Überlieferung kann als Ergebnis festgehalten werden, daß es sich bei den auf Grabreliefs regelmäßig erscheinenden Hausdienerinnen, Mundschenken und Waffenburschen in den meisten Fällen tatsächlich um Unfreie gehandelt hat. Die Dissertation widmet sich darüber hinaus der Frage nach dem Status der in Grabinschriften erwähnten threptoi und trophimoi; hierbei bestätigt die Analyse der Reliefs ältere Untersuchungsergebnisse, nach denen die Termini eine Beziehung zwischen Personen unterschiedlichen Ranges ausdrücken. Aufgrund der schmalen Materialbasis von nur vier Stelen können keine allgemeingültigen Aussagen zum Freigelassenenwesen im nördlichen Schwarzmeerraum getroffen werden. Allerdings läßt sich beobachten, daß sich die ehemaligen Sklaven entweder im bürgerlichen Habitus oder realistisch haben darstellen lassen. Abschließend wird nach der Funktion der Dienerfiguren im Bild gefragt. So dienten sie als Attribute zur Charakterisierung der Herrschaften und hatten die Aufgabe, deren hohen sozialen Rang vor Augen zu führen.
Die in einem Einzugsgebiet herrschende räumliche Inhomogenität wird im Wasserhaushaltsmodell LARSIM (Large Area Runoff Simulation Modell) in den einzelnen Modellkomponenten unterschiedlich stark berücksichtigt. Insbesondere die räumliche Verteilung der Abflussprozesse wurde bisher nicht berücksichtigt, weil keine flächenhaft verfügbare Information über eben diese Verteilung vorlag. Für das Einzugsgebiet der Nahe liegt nun seit dem Jahr 2007 eine Bodenhydrologische Karte vor, die flächenhaft den bei ausreichenden Niederschlägen zu erwartenden Abflussprozess ausweist. In der vorliegenden Dissertation wird die Nutzung dieser Prozessinformation bei der Parametrisierung des Bodenmoduls von LARSIM beschrieben: Für drei Prozessgruppen " gesättigter Oberflächenabfluss, Abfluss im Boden, Tiefenversickerung " werden mittels zweier neuer Parameter P_Bilanz und P_Dämpfung inhomogene Parametersätze aus empirisch ermittelten Kennfeldern gewählt, um die Prozessinformation bei der Abflussbildung im Modell zu berücksichtigen. Für die Abbildung der Prozessintensitäten in den Gebietsspeichern werden zwei unterschiedliche Ansätze vorgestellt, die sich in ihrer Komplexität unterscheiden. In der ersten Variante werden fünf Oberflächenabflussspeicher für unterschiedlich schnell reagierende Prozessgruppen eingeführt, in der zweiten Variante wird der erste Ansatz mit dem ursprünglichen Schwellenwert zur Aufteilung in schnelle und langsame Oberflächenabflusskomponenten kombiniert. Es wird gezeigt, dass die Parametrisierung mit den beiden neuen Parametern P_Bilanz und P_Dämpfung einfacher, effektiver und effizienter ist, da beide Parameter minimale Interaktionen aufweisen und in ihrer Wirkungsweise leicht verständlich sind, was auf die ursprünglichen Bodenparameter nicht zutrifft. Es wird ein Arbeitsfluss vorgestellt, in dem die neuen Parameter in Kombination mit Signature Measures und unterschiedlichen Darstellungen der Abflussdauerlinie gemeinsam genutzt werden können, um in wenigen Arbeitsschritten eine Anpassung des Modells in neuen Einzugsgebieten vorzunehmen. Die Methode wurde durch Anwendung in drei Gebieten validiert. In den drei Gebieten konnte in wenigen Kalibrierungsschritten die Simulationsgüte der ursprünglichen Version erreicht und " je nach Zielsetzung " übertroffen werden. Hinsichtlich der Gütemaße zeigte sich bei der Variante, in der die Gebietsspeicher nicht modifiziert wurden, aber kein eindeutiges Bild, ob die ursprüngliche Parametrisierung oder die neue grundsätzlich überlegen ist. Neben der Auswertung der Validierungszeiträume wurden dabei auch die simulierten Ganglinien in geschachtelten Gebieten betrachtet. Die Version, in der die Gebietsspeicher modifiziert wurden, zeigt hingegen vor allem im Validierungszeitraum tendenziell bessere Simulationsergebnisse. Hinsichtlich der Abbildung der Abflussprozesse ist das neue Verfahren dem alten deutlich überlegen: Es resultiert in plausiblen Anteilen von Abflusskomponenten, deren Verteilung und Abhängigkeit von Speicherkapazitäten, Landnutzungen und Eingangsdaten systematisch ausgewertet wurden. Es zeigte sich, dass vor allem die Speicherkapazität des Bodens einen signifikanten Einfluss hat, der aber im hydrologischen Sinn richtig und hinsichtlich der Modellannahmen plausibel ist. Es wird deutlich gemacht, dass die Einschränkungen, die sich ergeben haben, aufgrund der Modellannahmen zustande kommen, und dass ohne die Änderung dieser Annahmen keine bessere Abbildung möglich ist. Für die Zukunft werden Möglichkeiten aufgezeigt, wie die Annahmen modifiziert werden können, um eine bessere Abbildung zu erzielen, indem der bereits bestehende Infiltrationsansatz in die Methode integriert wird.
Ausgangspunkt der vorliegenden Untersuchung sind die deutlichen Unterschiede in den Ukrainepolitiken Polens und Tschechiens. Das Erkenntnisinteresse ist, worauf diese Unterschiede im außenpolitischen Verhalten zweier Staaten, die in der Außenpolitikforschung meistens als Vertreter einer relativ homogenen Gruppe betrachtet werden, zurückzuführen sind. Die Studie geht auf Basis bisheriger konstruktivistischer Forschung zur polnischen Sicherheitspolitik von der Hypothese aus, dass dies mit kulturellen Faktoren zu tun hat, speziell der unterschiedlichen sicherheitspolitischen Bewertung der Ukraine und Osteuropas im Allgemeinen sowie unterschiedlichen ukrainepolitischen Rollenkonzeptionen, die sich hieraus ergeben. Die Fragestellung lautet daher, welche ukrainebezogenen, sicherheitspolitisch motivierten Rollenkonzeptionen sich in Polen und Tschechien nach 1989 herausgebildet haben.Zur Beantwortung dieser Fragestellung wird zunächst auf Grundlage der Forschung zur politischen und zur strategischen Kultur das Konzept der sicherheitspolitischen Kultur entwickelt und die Rollentheorie als bislang in der diesbezüglichen Forschung kaum rezipiertes Analyseinstrument vorgestellt, das aus mehreren Gründen Vorteile gegenüber anderen Ansätzen hat. Methodisch wird eine wissenssoziologische Diskursanalyse durchgeführt, die als Instrument zur Erfassung von sozial konstruierter Wirklichkeit dient, sich aufgrund derselben metatheoretischen Grundlagen hervorragend in das Modell sicherheitspolitischer Kultur einfügt und daher für eine Analyse der Entstehung von Rollenkonzeptionen geeignet ist. Die Untersuchung ergibt, dass in Polen die Bedrohungskonstruktion einer möglichen Wiederkehr des russischen Imperiums zentral ist und eine unabhängige, stabilisierte Ukraine als Schutz hiergegen aufgefasst wird. Die sich ergebenden ukrainepolitischen Rollenkonzeptionen sind Teil eines weitgehend konsensuellen Komplexes sicherheitspolitischer Rollenkonzeptionen, die abgesehen von rollenspezifischen sicherheitspolitischen Zielen auch zentral durch die Bedrohungskonstruktion der politischen Marginalisierung motiviert und daher häufig als Führungsrollen charakterisierbar sind. Tschechien zeichnet sich hingegen durch das weitgehende Fehlen einer Bedrohungskonstruktion des russischen Imperialismus aus, stattdessen wird die Ukraine stärker als Quelle von Gefahren konstruiert. Zudem ist die sicherheitspolitische Kultur Tschechiens von einer konzeptionellen Unterkomplexität, einem Mangel an Konsens, einer Konstruktion Tschechiens als machtloser Akteur sowie einer Unterordnung der Außenpolitik unter innenpolitische Fragen gekennzeichnet. Daher fehlen im tschechischen Falle nicht nur jegliche ukrainepolitische Rollenkonzeptionen, es ist grundsätzlich ein Mangel an klaren Vorstellungen darüber festzustellen, welche Rollen Tschechien in der internationalen Politik spielen soll.
In der modernen Survey-Statistik treten immer häufifiger Optimierungsprobleme auf, die es zu lösen gilt. Diese sind oft von hoher Dimension und Simulationsstudien erfordern das mehrmalige Lösen dieser Optimierungsprobleme. Um dies in angemessener Zeit durchführen zu können, sind spezielle Algorithmen und Lösungsansätze erforderlich, welche in dieser Arbeit entwickelt und untersucht werden. Bei den Optimierungsproblemen handelt es sich zum einen um Allokationsprobleme zur Bestimmung optimaler Teilstichprobenumfänge. Hierbei werden neben auf einem Nullstellenproblem basierende, stetige Lösungsmethoden auch ganzzahlige, auf der Greedy-Idee basierende Lösungsmethoden untersucht und die sich ergebenden Optimallösungen miteinander verglichen.Zum anderen beschäftigt sich diese Arbeit mit verschiedenen Kalibrierungsproblemen. Hierzu wird ein alternativer Lösungsansatz zu den bisher praktizierten Methoden vorgestellt. Dieser macht das Lösen eines nichtglatten Nullstellenproblemes erforderlich, was mittels desrnnichtglatten Newton Verfahrens erfolgt. Im Zusammenhang mit nichtglatten Optimierungsalgorithmen spielt die Schrittweitensteuerung eine große Rolle. Hierzu wird ein allgemeiner Ansatz zur nichtmonotonen Schrittweitensteuerung bei Bouligand-differenzierbaren Funktionen betrachtet. Neben der klassischen Kalibrierung wird ferner ein Kalibrierungsproblem zur kohärenten Small Area Schätzung unter relaxierten Nebenbedingungen und zusätzlicher Beschränkung der Variation der Designgewichte betrachtet. Dieses Problem lässt sich in ein hochdimensionales quadratisches Optimierungsproblem umwandeln, welches die Verwendung von Lösern für dünn besetzte Optimierungsprobleme erfordert.Die in dieser Arbeit betrachteten numerischen Probleme können beispielsweise bei Zensen auftreten. In diesem Zusammenhang werden die vorgestellten Ansätze abschließend in Simulationsstudien auf eine mögliche Anwendung auf den Zensus 2011 untersucht, die im Rahmen des Zensus-Stichprobenforschungsprojektes untersucht wurden.
In this thesis, global surrogate models for responses of expensive simulations are investigated. Computational fluid dynamics (CFD) have become an indispensable tool in the aircraft industry. But simulations of realistic aircraft configurations remain challenging and computationally expensive despite the sustained advances in computing power. With the demand for numerous simulations to describe the behavior of an output quantity over a design space, the need for surrogate models arises. They are easy to evaluate and approximate quantities of interest of a computer code. Only a few number of evaluations of the simulation are stored for determining the behavior of the response over a whole range of the input parameter domain. The Kriging method is capable of interpolating highly nonlinear, deterministic functions based on scattered datasets. Using correlation functions, distinct sensitivities of the response with respect to the input parameters can be considered automatically. Kriging can be extended to incorporate not only evaluations of the simulation, but also gradient information, which is called gradient-enhanced Kriging. Adaptive sampling strategies can generate more efficient surrogate models. Contrary to traditional one-stage approaches, the surrogate model is built step-by-step. In every stage of an adaptive process, the current surrogate is assessed in order to determine new sample locations, where the response is evaluated and the new samples are added to the existing set of samples. In this way, the sampling strategy learns about the behavior of the response and a problem-specific design is generated. Critical regions of the input parameter space are identified automatically and sampled more densely for reproducing the response's behavior correctly. The number of required expensive simulations is decreased considerably. All these approaches treat the response itself more or less as an unknown output of a black-box. A new approach is motivated by the assumption that for a predefined problem class, the behavior of the response is not arbitrary, but rather related to other instances of the mutual problem class. In CFD, for example, responses of aerodynamic coefficients share structural similarities for different airfoil geometries. The goal is to identify the similarities in a database of responses via principal component analysis and to use them for a generic surrogate model. Characteristic structures of the problem class can be used for increasing the approximation quality in new test cases. Traditional approaches still require a large number of response evaluations, in order to achieve a globally high approximation quality. Validating the generic surrogate model for industrial relevant test cases shows that they generate efficient surrogates, which are more accurate than common interpolations. Thus practical, i.e. affordable surrogates are possible already for moderate sample sizes. So far, interpolation problems were regarded as separate problems. The new approach uses the structural similarities of a mutual problem class innovatively for surrogate modeling. Concepts from response surface methods, variable-fidelity modeling, design of experiments, image registration and statistical shape analysis are connected in an interdisciplinary way. Generic surrogate modeling is not restricted to aerodynamic simulation. It can be applied, whenever expensive simulations can be assigned to a larger problem class, in which structural similarities are expected.
Im querschnittlichen Vergleich zwischen 10- bis 18-jährigen Mädchen mit Major Depression und gleichaltrigen gesunden Probandinnen wiesen die depressiven Mädchen mehr Probleme, mehr körperliche und psychische Stresssymptome, erhöhte Cortisolsekretion sowie eine ungünstigere Stressverarbeitung auf. Im Längsschnitt zeigte sich die Bedeutsamkeit von psychischer Stressbelastung und der Einfluss von Bewältigungsstrategien auf den Verlauf der Depression.
Im Leistungssport ist ein gesunder Körper die Hauptvoraussetzung für das Erbringen sportlicher Höchstleistungen. Allerdings müssen Leistungssportler tagtäglich in Training und Wettkampf gesundheitliche Risiken eingehen. Aus diesem Dilemma wird ein Trilemma, sobald es sich um jugendliche Leistungssportler handelt, da das Jugendalter mit all den Veränderungen auf psychischer, physischer und sozialer Ebene, die es mit sich bringt, häufig das Einstiegsalter für gesundheitsrelevante Risikoverhaltensweisen wie den Konsum von Alkohol, Tabak und Marihuana bildet. Diese können zusätzlich Auswirkungen auf die Gesundheit und damit das Erbringen sportlicher Leistung haben. Aus diesem Grund war es das Ziel dieser Dissertation, das gesundheitsrelevante Risikoverhalten und die subjektive Gesundheit in der speziellen Gruppe jugendlicher Leistungssportler zu untersuchen, mit einer jugendlicher Referenzstichprobe bestehend aus Nicht-Leistungssportlern zu vergleichen und assoziierte Determinanten - sowohl individueller als auch kontextueller Natur - zu identifizieren. Dazu wurden im Rahmen der GOAL Study (German Young Olympic Athletes" Lifestyle and Health Management Study) 1.138 jugendliche Leistungssportler aller olympischer Disziplinen schriftlich befragt. Ausgewertet wurden neben der subjektiven Gesundheit der Konsum von Alkohol, Tabak und Marihuana, das Ernährungsverhalten und die Nutzung von Nahrungsergänzungsmitteln. Als Vergleichspopulation wurde der KiGGS (Kinder- und Jugendgesundheitssurvey) des Robert Koch-Instituts herangezogen. Es zeigte sich, dass jugendliche Leistungssportler zwar selten rauchten (3%) oder Marihuana konsumierten (3%), aber dass sie durchaus Alkohol zu sich nahmen (86%) und insbesondere Binge Drinking betrieben (24%). Bezüglich des Rauchverhaltens, des Konsums von Marihuana und des Jemalskonsums von Alkohol zeigten sie jedoch niedrigere Prävalenzen als jugendliche Nicht-Leistungssportler. Bei der Ernährung der Athleten ergaben sich teilweise Defizite. Lediglich 52% der Athleten nahmen täglich eine Auswahl an vitamin- und ballaststoffreichen Nahrungsmitteln zu sich, jedoch waren dies mehr als in der Referenzpopulation. Neun von zehn Athleten nutzten Nahrungsergänzungsmittel, davon konsumierten rund 30% täglich Supplemente. Die Mehrheit der Athleten bezeichnete ihre Gesundheit als gut oder sehr gut (89%), was einem größeren Anteil entspricht als in der Referenzgruppe (86%). Es fanden sich eine Vielzahl an individuellen und kontextuellen Determinanten mit den einzelnen Risikoverhaltensweisen und der subjektiven Gesundheit verknüpft. Insgesamt lässt sich festhalten, dass Beratung und Aufklärung bezüglich der einzelnen Risikoverhaltensweisen immens wichtig erscheinen. Beispiele für bestehenden Aufklärungsbedarf sind der übermäßige Alkoholkonsum, welcher Auswirkungen auf die Leistungsfähigkeit haben kann, die Einnahme von Nahrungsergänzungsmitteln wie Kreatin, welche für Jugendliche nicht unbedenklich ist, und der häufig vorliegende nicht-tägliche Konsum von vitamin- und ballaststoffreichen Lebensmitteln, welcher wichtig für eine adäquate Ernährung ist. Daher sollten bereits Athleten in niedrigeren Kaderstufen Experten (z. B. Ernährungsberater) zur Seite gestellt werden. Aber nicht nur die Athleten sollten besser geschult werden sondern auch deren Trainer, Betreuer und Eltern, die allesamt wichtige Bezugspersonen darstellen.
Bei synthetischen Simulationsgesamtheiten handelt es sich um künstlichernDaten, die zur Nachbildung von realen Phänomenen in Simulationen verwendetrnwerden. In der vorliegenden Arbeit werden Anforderungen und Methoden zur Erzeugung dieser Daten vorgestellt. Anhand von drei Beispielen wird gezeigt, wie erzeugte synthetische Daten in einer Simulation zur Anwendung kommen.
Die Evangelische Kirche in Deutschland (EKD) ist eine der größten Nonprofit-Organisationen in Deutschland. Sie ist ein sehr heterogenes Gebilde aus (zum Zeitpunkt der Untersuchung) 22 Landeskirchen unterschiedlichen Bekenntnisses mit jeweils eigenen Organisationsstatuten und rechtlichen Regelungen. Lokale Anlaufpunkte für ihre 23,9 Millionen Mitglieder (Stand Ende 2010) sind die Gemeinden. Sie verwalten sich weitgehend selbständig und werden von gewählten und berufenen Ehrenamtlichen sowie dem oder den Geistlichen der Gemeinde geleitet. Ein Mitglieder- und Einnahmerückgang bewirkt steigende Anforderungen an die Gemeindeleitung und die Notwendigkeit umfassender organisatorischer Veränderungen, die einen groß angelegten Reformprozess in der EKD angestoßen hat. Dies führt u.a. zu Zusammenlegungen von Landeskirchen und Kirchengemeinden, Pfarrstellenkürzungen und einer Reduzierung kirchlicher Gebäude. Auch hiervon sind die Gemeinden und ihre Leitungsgremien betroffen. Ziel der Arbeit ist, vor diesem Hintergrund die Gemeindeleitung (mit Fokus auf den ehrenamtlichen Gemeindeleitern) und die Entscheidungsprozesse in den Leitungsgremien explorativ zu beleuchten. Die Betrachtung erfolgt aus einer verfügungsrechtlichen Perspektive und rückt damit die Handlungsspielräume, die Einstellungen und das Entscheidungsverhalten der ehrenamtlichen Gemeindeleiter in den Fokus. Zunächst werden die aktuellen Herausforderungen für die Gemeinden sowie die Themen und unterschiedlichen Ansätze in der Reformdebatte betrachtet. Es folgt eine Darlegung der Einflussmöglichkeiten der Gemeindeleiter auf die Situation ihrer Gemeinde. Hierzu werden die für die Dienstleistungsproduktion von Gemeinden relevanten Entscheidungsfelder, wichtige Kenngrößen für die Gemeindearbeit und die von den Gemeindeleitern beeinflussbaren Entscheidungsvariablen ermittelt. Es folgt eine Analyse der verfügungsrechtlichen Arrangements der 22 Landeskirchen der EKD für die Gemeindeleitung. Für den angestrebten Organisationsvergleich sind Regelungsaspekte von Interesse, deren Ausgestaltung in einzelnen Landeskirchen stark voneinander abweicht. Für die empirische Untersuchung werden konkret die drei Aspekte 'Grad der Selbständigkeit des Gemeindeleitungsgremiums', 'Einflussverteilung zwischen Pfarrern und Ehrenamtlichen im Gremium' sowie 'Haftungsregelungen für die ehrenamtlichen Gemeindeleiter' ausgewählt. Zu den Auswirkungen der unterschiedlichen Ausgestaltung dieser drei Regelungsaspekte werden Hypothesen aufgestellt, die anhand von Fallstudien überprüft werden sollen. Hierfür wurden mit der Evangelischen Kirche in Hessen und Nassau, der Evangelischen Kirche von Kurhessen-Waldeck und der Evangelisch-reformierten Kirche drei Landeskirchen selektiert, die in den genannten Bereichen sehr unterschiedliche Regelungen aufweisen. Den Kern der Arbeit bildet eine explorative vergleichende Untersuchung der unterschiedlichen verfügungsrechtlichen Rahmenbedingungen in den ausgewählten Landeskirchen und ihrer Auswirkung auf das Entscheidungsverhalten der ehrenamtlichen Gemeindeleiter. Auf der Basis von Interviews mit rechtlich versierten Vertretern der drei Landeskirchen werden die historischen Hintergründe für die unterschiedliche rechtliche Ausgestaltung sowie die praktische Relevanz und Anwendbarkeit der einzelnen Regelungen analysiert. Zusätzlich werden für die gemeindlichen Fallstudien wichtige Veränderungs- / Entscheidungsprozesse mit aktuell großer Bedeutung für die Gemeinden ermittelt. Dies sind konkret der Gemeindezusammenschluss, die Pfarrstellenbesetzung und die Durchführung einer großen Baumaßnahme. Für die gemeindliche Untersuchung wurden für jede der drei Landeskirchen drei bis vier Gemeinden (insgesamt 11) ausgewählt, die mindestens einen der drei genannten Prozesse gerade durchliefen oder abgeschlossen hatten. Für jeden ausgewählten Prozess wird damit in jeder Landeskirche mindestens ein Fall betrachtet. An die ehrenamtlichen Gemeindeleiter der selektierten Gemeinden adressierte Fragebögen geben Aufschluss zu ihren Motivstrukturen. Mittels eine Clusteranalyse werden dabei sechs unterschiedliche Gemeindeleitertypen mit verschiedenen Motiven und Schwerpunkten ermittelt und vorgestellt. Anhand von mit den ehrenamtlichen Vorsitzenden der Gemeinden geführten Interviews werden schließlich die durchlaufenen Entscheidungsprozesse beleuchtet. Auf Basis der Erkenntnisse aus den Interviews und den Fragebögen wird analysiert, wie sich die unterschiedlichen verfügungsrechtlichen Rahmenbedingungen in den drei Landeskirchen auf das Entscheidungsverhalten verschiedener Gemeindeleitertypen und damit auf die Entscheidungsprozesse und -ergebnisse in den Gemeinden auswirken. Dabei werden die zuvor aufgestellten Hypothesen anhand der vornehmlich qualitativen Auswertungen überprüft. Abschließend werden die gewonnenen Erkenntnisse in die Reformdebatte eingeordnet und konkrete organisatorische Gestaltungsvorschläge abgeleitet.
Michel Foucaults Überlegungen zu Wahrheits- und Erfahrungsbüchern zugrunde legend, untersucht die Promotionsschrift Wechselwirkungen von Fremd- und Selbstrepräsentation, von Repräsentation und Subjektkonstitution und fragt ausgehend von diesen Zusammenhängen nach einer möglichen Poetik entsubjektivierender Erfahrungsbücher. Exemplarisch nachgezeichnet werden die oft paradoxalen Effekte dieser Wechselwirkungen zunächst anhand des kriminalisierenden und pathologisierenden Diskurses über Jenische und der daran anknüpfenden Ausarbeitung jenischer Subjektpositionen im Zuge der politischen Selbstrepräsentation der Schweizer Minderheit seit den 1970er Jahren. Die in diesem Kontext entstandenen literarisch-publizistischen Texte der Schweizer Autorin und ehemaligen jenischen Bürgerrechtlerin Mariella Mehr, in denen sich ebenfalls normalisierende, am Wahrheitsdiskurs orientierte Ausarbeitungen jenischer Subjektpositionen finden, werden als Wahrheitsbücher im Sinne Foucaults gelesen. An Mehrs späten Texten wird daran anschließend gezeigt, wie mittels einer Hyperbolisierung des Wahrheitsdiskurses in Kombination mit sich durchkreuzenden auto- und heteroreferentiellen Erzählverfahren der von Foucault im Interview mit Ducio Trombadori beschriebene entsubjektivierende Effekt eines Erfahrungsbuches erreicht werden kann.
One of the main tasks in mathematics is to answer the question whether an equation possesses a solution or not. In the 1940- Thom and Glaeser studied a new type of equations that are given by the composition of functions. They raised the following question: For which functions Ψ does the equation F(Ψ)=f always have a solution. Of course this question only makes sense if the right hand side f satisfies some a priori conditions like being contained in the closure of the space of all compositions with Ψ and is easy to answer if F and f are continuous functions. Considering further restrictions to these functions, especially to F, extremely complicates the search for an adequate solution. For smooth functions one can already find deep results by Bierstone and Milman which answer the question in the case of a real-analytic function Ψ. This work contains further results for a different class of functions, namely those Ψ that are smooth and injective. In the case of a function Ψ of a single real variable, the question can be fully answered and we give three conditions that are both sufficient and necessary in order for the composition equation to always have a solution. Furthermore one can unify these three conditions to show that they are equivalent to the fact that Ψ has a locally Hölder-continuous inverse. For injective functions Ψ of several real variables we give necessary conditions for the composition equation to be solvable. For instance Ψ should satisfy some form of local distance estimate for the partial derivatives. Under the additional assumption of the Whitney-regularity of the image of Ψ, we can give sufficient conditions for flat functions f on the critical set of Ψ to possess a solution F(Ψ)=f.
Der Titel der Dissertation enthält bereits die inhaltlichen Vorgaben, die zu Grund gelegt werden. Wie nämlich gelingt es Eckhart insbesondere in seinen deutschen Predigten, den Erfahrungsbereich Gott zu verbalisieren? Bei der Untersuchung der Frage, wie Gott - dem eine eigene, den Menschen nur bedingt erfahrbare Wirklichkeit zugrunde liegt - wie er also zur Sprache gebracht werden kann, ist es erforderlich, sich über die Wirklichkeit und ihre Beziehungen zu Gott und den Menschen klar zu werden. Mir geht es darum, die Problematik des Verhältnisses von Mensch und Gott in Beziehung zum Glaubensleben in einer tiefen geistig-geistlichen Durchdringung transparent zu machen. Konkreter: Bei der Textuntersuchung geht es um die Interpretation sprachlicher Äußerungen im Hinblick auf die darin zur Sprache gebrachte Erfahrung der Wirklichkeit Gottes. Bereits in dieser groben Skizzierung wird deutlich, dass sich die Untersuchung nicht alleine auf eine wissenschaftliche Disziplin beschränkt, sondern in ihrem interdisziplinären Charakter Fragen der Germanistik, der Philosophie und Theologie gleichermaßen berührt. Die Aufgabenstellung der Dissertation an sich und der Versuch, sich Meister Eckhart und seiner Gedankenwelt in seinen deutschen Predigten zu nähern, implizierte bereits die dann zugrunde gelegte methodische Vorgehensweise. Im Mittelpunkt der Untersuchung stand zwangsläufig Eckharts deutsches Predigtkorpus. Als textliche Grundlage habe ich mich für die Largier-Ausgabe entschieden, weil sie m. E. die am besten handhabbare Ausgabe war. Wichtig war für mich, Eckhart so oft als möglich selbst zu Wort kommen zu lassen. Das bedeutete eine dezidiert intensive Auseinandersetzung mit seinen Predigten einerseits und andererseits einer kritischen Würdigung der Sekundärliteratur. Den Gedankengang dieser weiter zu verfolgen und neue Deutungsebenen zu erschließen, gehörten ebenso zum methodischen Procedere. Zuerst war aber das geistig-geistliche Umfeld ME-´s in den Blick zu nehmen. Grundsätzlich ist zum Gesamtverständnis seines Werkes wichtig, ihn als Dominikaner zu begreifen. Zum Selbstverständnis dieses Bettelordens gehört seine intellektuelle Ausrichtung, die für Eckharts Erkenntnislehre fundamental ist: Demnach ist das Erkennen die Grundlage von Gottes Sein und steht sogar höher als das Sein. Wort und Intellekt haben Vorrang vor dem Sein. Gott ist das Sein dadurch, weil er denkt. Alles Sein ist abgeleitet vom Intellekt. Die Auseinandersetzung mit den theologisch-philosophischen Strömungen seiner Zeit war maßgebend für das weitere Verständnis von Eckharts Gedankenwelt. So wurden zunächst Fragen geklärt, wie Eckhart in seiner Zeit, nämlich der Schwelle zum 14. Jahrhundert, zu verorten ist. Ebenso wurden die Denker in ihrer Beziehung und Rezeption Eckharts vorgestellt: Plotin, Dionysius Areopagita, auf theologischer Seite insbesondere Augustinus und Albertus Magnus. Gleiches gilt für die weiblichen Vordenkerinnen Margarete Porete, Mechthild von Magdeburg und Schwester Hadewijch von Antwerpen. Wie sich Eckharts Christologie und theologische Anthropologie in seinen Predigten niederschlägt, welche Bedeutung er des Menschen Durchbruch und Sprung in Gottes Sphäre zubilligt, wie sich Gottesgeburt im Menschen ereignet und damit neue Wirklichkeiten konstituiert, wurden weiterhin dargelegt. ME ist nicht leicht zu fassen und festzulegen. Er, der selbst kein eigenes Lehrsystem und keine Dogmen entwickelt hat, lässt sich in keine Schablone pressen. Am ehesten greifbar ist Eckhart, wenn man erkennt, dass für ihn Sprache mehr ist als ein Vehikel, um göttliche Botschaften in Alltägliche zu transformieren. Bei Eckhart transzendiert Sprache selbst: Sprache beschreibt eine Wirklichkeit, die selbst wiederum Teil der Wirklichkeit ist. Gott kommuniziert nicht nur informierend, sondern sich selbst, Kommunikation ist Beziehungstheologie im trinitarischen Sinne, die gleichzeitig neue Wirklichkeiten schafft.
Optimal control problems are optimization problems governed by ordinary or partial differential equations (PDEs). A general formulation is given byrn \min_{(y,u)} J(y,u) with subject to e(y,u)=0, assuming that e_y^{-1} exists and consists of the three main elements: 1. The cost functional J that models the purpose of the control on the system. 2. The definition of a control function u that represents the influence of the environment of the systems. 3. The set of differential equations e(y,u) modeling the controlled system, represented by the state function y:=y(u) which depends on u. These kind of problems are well investigated and arise in many fields of application, for example robot control, control of biological processes, test drive simulation and shape and topology optimization. In this thesis, an academic model problem of the form \min_{(y,u)} J(y,u):=\min_{(y,u)}\frac{1}{2}\|y-y_d\|^2_{L^2(\Omega)}+\frac{\alpha}{2}\|u\|^2_{L^2(\Omega)} subject to -\div(A\grad y)+cy=f+u in \Omega, y=0 on \partial\Omega and u\in U_{ad} is considered. The objective is tracking type with a given target function y_d and a regularization term with parameter \alpha. The control function u takes effect on the whole domain \Omega. The underlying partial differential equation is assumed to be uniformly elliptic. This problem belongs to the class of linear-quadratic elliptic control problems with distributed control. The existence and uniqueness of an optimal solution for problems of this type is well-known and in a first step, following the paradigm 'first optimize, then discretize', the necessary and sufficient optimality conditions are derived by means of the adjoint equation which ends in a characterization of the optimal solution in form of an optimality system. In a second step, the occurring differential operators are approximated by finite differences and the hence resulting discretized optimality system is solved with a collective smoothing multigrid method (CSMG). In general, there are several optimization methods for solving the optimal control problem: an application of the implicit function theorem leads to so-called black-box approaches where the PDE-constrained optimization problem is transformed into an unconstrained optimization problem and the reduced gradient for these reduced functional is computed via the adjoint approach. Another possibilities are Quasi-Newton methods, which approximate the Hessian by a low-rank update based on gradient evaluations, Krylov-Newton methods or (reduced) SQP methods. The use of multigrid methods for optimization purposes is motivated by its optimal computational complexity, i.e. the number of required computer iterations scales linearly with the number of unknowns and the rate of convergence, which is independent of the grid size. Originally multigrid methods are a class of algorithms for solving linear systems arising from the discretization of partial differential equations. The main part of this thesis is devoted to the investigation of the implementability and the efficiency of the CSMG on commodity graphics cards. GPUs (graphic processing units) are designed for highly parallelizable graphics computations and possess many cores of SIMD-architecture, which are able to outperform the CPU regarding to computational power and memory bandwidth. Here they are considered as prototype for prospective multi-core computers with several hundred of cores. When using GPUs as streamprocessors, two major problems arise: data have to be transferred from the CPU main memory to the GPU main memory, which can be quite slow and the limited size of the GPU main memory. Furthermore, only when the streamprocessors are fully used to capacity, a remarkable speed-up comparing to a CPU is achieved. Therefore, new algorithms for the solution of optimal control problems are designed in this thesis. To this end, a nonoverlapping domain decomposition method is introduced which allows the exploitation of the computational power of many GPUs resp. CPUs in parallel. This algorithm is based on preliminary work for elliptic problems and enhanced for the application to optimal control problems. For the domain decomposition into two subdomains the linear system for the unknowns on the interface is solved with a Schur complement method by using a discrete approximation of the Steklov-Poincare operator. For the academic optimal control problem, the arising capacitance matrix can be inverted analytically. On this basis, two different algorithms for the nonoverlapping domain decomposition for the case of many subdomains are proposed in this thesis: on the one hand, a recursive approach and on the other hand a simultaneous approach. Numerical test compare the performance of the CSMG for the one domain case and the two approaches for the multi-domain case on a GPU and CPU for different variants.
Psychotherapeutische Maßnahmen wirken im Mittel, doch ist unklar, ob eine Therapie bei einem konkreten Patienten auch ihre (maximale) Wirkung zeigt. Befunde der Patientenorientierten Versorgungsforschung zur Wirksamkeit von Feedback zeigen, dass eine Verbesserung des Therapieergebnisses durch Qualitätssicherungsmaßnahmen wie z.B. kontinuierliches Monitoring möglich ist. Diese Forschung und ihre praktische Anwendung machen es nötig, Daten am Einzelfall wiederholt zu erheben. Damit wird es unumgänglich, die Messungen effizienter zu gestalten. Diese Arbeit widmet sich der Frage, wie Mischverteilungsmodelle (Item Response/ Rasch-Modell sowie Latent Profile Analysis) dazu genutzt werden können, Fragebögen (weiter-) zu entwickeln, die mit kürzerem Umfang für diese Zwecke besser eingesetzt werden können. Gegen die Verwendung von Mischverteilungsmodellen sprach lange, dass spezielle Software und Training erforderlich waren und dies im Praxiskontext nicht machbar war. Mit R steht eine freie Softwareumgebung zur Verfügung, die die Schätzung einer ganzen Fülle von Modellen möglich macht, auch von Mischverteilungsmodellen. Da Qualitätssicherung bei frei verfügbarer Software nötig ist, widmet sich Studie I der Frage, ob drei zentrale Pakete zur Schätzung von Rasch-Modellen in der R-Umgebung (eRm, ltm, mixRasch; Details siehe unten) zu akzeptablen Schätzergebnissen führen, d.h. zur Nutzung empfohlen werden können. Hierzu wurden in einer Simulationsstudie die Itemzahl, Stichprobengröße und Verteilung der Stichprobe systematisch variiert und der Effekt auf die Schätzgenauigkeit geprüft. Es zeigte sich, dass alle drei Schätzalgorithmen unter den realisierten Bedingungen zu zufriedenstellenden Genauigkeiten kommen und die Verteilungsform unter den gewählten Bedingungen keinen Einfluss auf die Genauigkeit hatte. Studie II nutzte das Rasch-Modell um für ein Maß psychischer Belastung Kurzformen für spezifische Erhebungszwecke zu entwickeln: (1) verkürzte Erhebung beim Screening und (2) verkürzte Erfassung im hohen Belastungsbereich. Die Kurzformen wurden mittels Bootstrap und Kreuzvalidierung dahingehend geprüft, ob sie replizierbar eine bessere Messqualität erbrachten als andere Itemauswahlen aus dem Fragebogen, was sich bestätigte. Durch die Verwendung des Rasch-Modells sind die so erstellten Kurzformen miteinander und auch mit der Vollversion vergleichbar. Dies macht auch ohne die Verwendung spezieller Software (teil-)adaptives Testen möglich. Studie III untersuchte wie drei Methoden genutzt werden können um festzustellen, welche Items eines Tests sich über den Verlauf einer Therapie als veränderungssensitiv erweisen. Hierzu wurden mittels einer Bevölkerungsstichprobe und den Prä- und Post-Erhebungen einer ambulanten Behandlungsstichprobe Items aus einer Beschwerden-Skala verwendet. Die drei Methoden waren (1) herkömmliche Mittelwertsvergleiche, (2) Auswahl über Bootstrap-Konfidenzintervalle und (3) Auswahl mittels einer Latent Profile Analysis, die latente Klassen von Varianzmustern um die Itemmittelwerte schätzte. Das Bootstrap-Verfahren erwies sich am Konservativsten (4 Items) während die Auswahl mittels herkömmlicher Mittelwertsvergleiche am liberalsten war (9 Items). Die Effektstärken und Reliabilitäten der Kurzfassungen waren alle im akzeptablen Bereich. Die Diskussion beginnt mit einer knappen Zusammenfassung der Ergebnisse der drei Studien. Im Anschluss werden die Ergebnisse der Studien auf übergreifende Aspekte bezogen. Dies sind faktorielle Validität, die Angemessenheit von Item Response Modellen zur Repräsentation psychische Belastung und die Anforderungen, die Kurzversionen letztlich erfüllen können. Insgesamt lässt sich festhalten, dass die Methoden nützliche Werkzeuge zur spezifischen Untersuchung von Skalen und zur Erstellung von Kurzformen darstellen. Besonders der in Studie II vorgestellte Bootstrap-Test der Itemauswahl stellt eine relevante Ergänzung der etablierten Vorgehensweise dar, da er empirisch belegt, dass die Auswahl für den jeweiligen Zweck einer Kurzform besser geeignet ist, als andere Items. Klinisch lässt sich festhalten, dass mit statischen Kurzversionen etablierter Messinstrumente auch in Erhebungskontexten ohne computerisierte Erhebungsmethoden hochqualitative Erhebungen durchgeführt werden können.
In dieser Dissertation wird das bürgerliche Trauerspiel von Lessing bis Hebbel aus Sicht der Gender Studies und der Kulturwissenschaft untersucht. Zuerst lässt sich das Folgende über den Zusammenhang von Geschlechterdifferenz und bürgerlichem Trauerspiel erschließen: Die dramatis personae in den bürgerlichen Dramen inkarnieren in extremer Weise die männlich-orientierte Geschlechterdifferenz der bürgerlichen Zeit und demonstrieren deutlich die allumfassende Bedeutung von Vaterschaft und Männlichkeit. Trotzdem ist es von Nöten, die Tochterfiguren, die in Konflikt mit diesen Vaterfiguren geraten, hinsichtlich ihrer Bestrebung die männlich-dominierte Geschlechterdifferenz zu überwinden und ihrer aufklärerischen Ideale wie Selbstständigkeit und Selbstbewusstsein zu betrachten. Die abwesenden, unmündigen und gesellschaftsorientierten Mütter (mater societastis) sowie die grausamen Mütter bzw. bösen Frauen (mater et mulier male) werden in extremer Weise durch die männlich-orientierte Tradition und Kultur dargestellt. Deshalb gilt es bei allem emanzipatorischem Potenzial, das durch die Darstellungen der guten Mutterschaft (mater domestica) durch die Ersatzmutterfiguren und die Adoptionsidee verwirklicht wird, zu betonen, dass diese neuen Verwandtschaftsformen nicht aus neutraler Sicht bzw. nicht aus dem Interesse des Weiblichen, sondern aus männlicher Sicht dargestellt und vorgestellt werden.
Dieser Fragebogenstudie im Längsschnittdesign liegen die Antworten von initial 169 stationären Patienten mit chronischen Schmerzen aus der orthopädischen Rehabilitation zugrunde. Anhand dessen wurden Aspekte religiöser Krankheitsverarbeitung bei der psychischen Anpassung an chronische Schmerzen untersucht. An der Verbesserung des körperlichen Befindens über die Zeit zeigte "negatives religiöses Coping" einen inversen Beitrag, der durch die Mediatorvariable "Hilflosigkeit" vermittelt wird. Für "positives religiöses Coping" war kein Beitrag zur Anpassung nachzuweisen. In der Behandlung von Schmerzpatienten gilt es von daher, religiöses Hadern sowie dahinterliegende psychologischen Mechanismen zu berücksichtigen.
In der Forschung zur aktuellen Prozessdynamik der Bodenerosion sind Niederschlagssimulationen mit kleinen mobilen Beregnungsanlagen (KBA) ein unverzichtbarer Bestandteil. Weltweit werden sehr viele KBA unterschiedlicher Bauart, Plotgrößen, Tropfenerzeugung, Niederschlagsintensitäten, und -spektren eingesetzt. Eine Standardisierung der Anlagen ist aufgrund der Verschiedenheit der Forschungsfelder und -fragen nicht in Sicht. Darüber hinaus sind die erzeugten Niederschläge (Nd) der Anlagen unzureichend genau charakterisiert und es liegt keine einheitliche Datenbasis aller relevanten Parameter vor. Zudem werden mit KBA bisher ausschließlich Starkregen unter windstillen Bedingungen simuliert, obwohl Wind einen deutlichen Einfluss auf fallende Regentropfen ausübt. Die vorliegende Arbeit gliedert sich in drei Teile: (1) Weiterentwicklung und Anwendung von KBA: Wie lässt sich die Performance der Trierer KBA optimieren und eine einheitliche Mess- und Kalibrierungsmethode für den simulierten Niederschlag definieren? Welche Anforderungen, Möglichkeiten, Grenzen und Anwendungsbereiche gibt es? (2) Vergleich verschiedener Typen von KBA im Gelände: Inwieweit sind Nd-Charakteristika, Oberflächen-¬abflussgenerierungen und Bodenabträge europäischer KBA vergleichbar? (3) Implemen-¬tierung von windbeschleunigtem Regen in KBA mit dem neuen mobilen Trierer Windregenkanal (WiReKa): Wie kann Wind in ein KBA-Setting integriert werden? Wie sind Unterschiede von Erosionsraten mit und ohne Windeinfluss in-situ zu quantifizieren und wie hoch fallen sie aus? Im ersten Teil der Arbeit wurde zunächst die Nd-Charakteristik der langjährig von der Physischen Geographie eingesetzten KBA mit unterschiedlichen, weltweit angewandten Messmethoden untersucht. Dabei zeigten sich einige Schwächen der KBA bezüglich ihrer Funktionalität. Der Einsatz verschiedener Mess-¬methoden zur Charakterisierung des künstlich erzeugten Nd führte zu sehr unterschiedlichen Ergebnissen. Mittels Laser-Niederschlags-Monitor (LNM) und Nd-Sammlern wurde daher ein einheitliches Testverfahren entwickelt, das eine detaillierte Aufnahme, Auswertung und Darstellung der relevanten Nd-Parameter nahezu aller KBA-Designs ermöglicht. Mit Hilfe dieses Testverfahrens wurden Nd-Charakteristik, Funktionalität und Mobilität der Trierer KBA durch technische Veränderungen deutlich verbessert. Alle Parameter dieser Anlage sind nun bekannt und lassen sich zuverlässig reproduzieren. Die Anforderungen, Möglichkeiten und Grenzen des Einsatzes von KBA wurden detailliert erarbeitet und beschrieben. Auf dem "International Rainfall Simulator Workshop" in Trier konnte mit 40 Wissenschaftlern aus 11 Nationen Einigkeit über grundlegende Aspekte beim Bau und Einsatz von KBA erzielt werden. Der zweite Teil der Arbeit stellt die Arbeitsmethoden und Ergebnisse eines in internationaler Kooperation durchgeführten Projektes zu Messmethoden und Vergleichbarkeit von Simulatordesigns und Nd-Charakteristika unterschiedlicher europäischer KBA vor. An 13 Instituten in Deutschland, den Niederlanden, der Schweiz und Spanien wurde mit dem Trierer Testverfahren eine einheitliche Datenbasis aller wesentlichen Nd-Parameter erstellt. Im praktischen Teil des Rainfall Simulator Workshop in Trier wurden dann vergleichende Versuche mit sieben KBA auf einer universitätsnahen Versuchsfläche zur Oberflächenabflussgenerierung und zum Bodenabtrag durchgeführt. Vor allem die (maximale) Sedimentkonzentration einer Simulation hat sich dabei als gute Vergleichsgröße herausgestellt. Differenzen in den gemessenen Oberflachenabfluss- und Sedimentmengen sind ganz klar unterschiedlichen Nd zuzuordnen. Der zeitliche Ablauf des Oberflächenabfluss- und Erosionsverhalten differiert dagegen nur bei zunehmender Plotgröße. Im dritten Teil der Arbeit wird analysiert, wie windbeschleunigter Regen in einer KBA simuliert werden kann. Darüber hinaus wurde eine spezielle Testreihenfolge für die Erosionsmessungen entwickelt, deren Praktikabilität sich in der Anwendung bewährt hat. Es konnten stark erhöhte Abtragsraten aufgrund der Zuschaltung von Wind zu der Regensimulation auf kohäsionslosem sandigen Substrat quantifiziert werden. Das Dissertationsprojekt kann auf mehreren Ebenen als erfolgreich angesehen werden: Die Arbeit mit den Trierer KBA konnte qualitativ verbessert werden insofern, als die Anlagenparameter optimiert und die Güte der produzierten Daten gewährleistet werden konnte. Darüber hinaus konnten die gewonnenen Erkenntnisse durch eine gezielte internationale Vernetzung in Wert gesetzt und die Zusammenarbeit auf der operationalen Ebene gestärkt werden.
Als Möglichkeiten zur Steigerung der Nachhaltigkeit einer stationären Rehabilitation stehen aktuell vor allem zwei Varianten der Nachbehandlung im Mittelpunkt des wissenschaftlichen Interesses - einerseits wird eine solche Nachsorge häufig über persönliche (Telefon)Kontakte realisiert, andererseits werden auch immer öfter die Möglichkeiten des Einsatzes neuer Medien untersucht. Um eine vergleichende Betrachtung dieser beiden Nachsorgevarianten zu ermöglichen, wurde im Rahmen der vorliegenden Arbeit ein individuelles, indikationsübergreifendes und ortsunabhängiges Nachsorgeangebot entwickelt und parallel auf eben diese beiden Arten realisiert (persönlich-telefonisch vs. web-basiert), die Untersuchung der Effektivität erfolgte mittels einer randomisierten kontrollierten Mehrzeitpunktbefragung. Alle teilnehmenden Patientinnen und Patienten wurden noch während ihres Rehabilitationsaufenthalts zu einer von drei Gruppen randomisiert: eine Gruppe wurde persönlich-telefonisch nachbetreut, eine Gruppe erhielt Zugang zu einer für diesen Zweck erstellten Internet-Plattform, die dritte Gruppe erhielt keinerlei Nachsorge und diente als Kontrollgruppe. Zu insgesamt vier Messzeitpunkten (Aufnahme, Entlassung, 3-monats- und 12-monats Katamnese) wurde die berichtete Symptombelastung hinsichtlich Depressivität, psychosomatischer Beschwerden und gesundheitsbezogener Lebensqualität erfasst. Aufgrund der vorliegenden Ergebnisse scheint vornehmlich die minimale Intervention der automatisierten web-basierten Nachsorge einen statistisch abgesicherten positiven Effekt auf die Nachhaltigkeit der betrachteten Ergebnismaße nach einer stationären psychosomatischen Rehabilitation zu haben und kann folglich als der vielversprechendere Ansatz zur Verbesserung der Nachhaltigkeit von erzielten Rehabilitationseffekten gesehen werden.
Bei der Preisberechnung von Finanzderivaten bieten sogenannte Jump-diffusion-Modelle mit lokaler Volatilität viele Vorteile. Aus mathematischer Sicht jedoch sind sie sehr aufwendig, da die zugehörigen Modellpreise mittels einer partiellen Integro-Differentialgleichung (PIDG) berechnet werden. Wir beschäftigen uns mit der Kalibrierung der Parameter eines solchen Modells. In einem kleinste-Quadrate-Ansatz werden hierzu Marktpreise von europäischen Standardoptionen mit den Modellpreisen verglichen, was zu einem Problem optimaler Steuerung führt. Ein wesentlicher Teil dieser Arbeit beschäftigt sich mit der Lösung der PIDG aus theoretischer und vor allem aus numerischer Sicht. Die durch ein implizites Zeitdiskretisierungsverfahren entstandenen, dicht besetzten Gleichungssysteme werden mit einem präkonditionierten GMRES-Verfahren gelöst, was zu beinahe linearem Aufwand bezüglich Orts- und Zeitdiskretisierung führt. Trotz dieser effizienten Lösungsmethode sind Funktionsauswertungen der kleinste-Quadrate-Zielfunktion immer noch teuer, so dass im Hauptteil der Arbeit Modelle reduzierter Ordnung basierend auf Proper Orthogonal Decomposition Anwendung finden. Lokale a priori Fehlerabschätzungen für die reduzierte Differentialgleichung sowie für die reduzierte Zielfunktion, kombiniert mit einem Trust-Region-Ansatz zur Globalisierung liefern einen effizienten Algorithmus, der die Rechenzeit deutlich verkürzt. Das Hauptresultat der Arbeit ist ein Konvergenzbeweis für diesen Algorithmus für eine weite Klasse von Optimierungsproblemen, in die auch das betrachtete Kalibrierungsproblem fällt.
Krylov subspace methods are often used to solve large-scale linear equations arising from optimization problems involving partial differential equations (PDEs). Appropriate preconditioning is vital for designing efficient iterative solvers of this type. This research consists of two parts. In the first part, we compare two different kinds of preconditioners for a conjugate gradient (CG) solver attacking one partial integro-differential equation (PIDE) in finance, both theoretically and numerically. An analysis on mesh independence and rate of convergence of the CG solver is included. The knowledge of preconditioning the PIDE is applied to a relevant optimization problem. The second part aims at developing a new preconditioning technique by embedding reduced order models of nonlinear PDEs, which are generated by proper orthogonal decomposition (POD), into deflated Krylov subspace algorithms in solving corresponding optimization problems. Numerical results are reported for a series of test problems.
Die Einführung leistungsorientierter Entgeltsysteme stellt Mitarbeiter und Unternehmen vor besondere Herausforderungen. Dabei verändert sich vor allem die Rolle des Mitarbeiters. War er vormals Ausführender der ihm übertragenen Arbeitsaufgaben, wird er zunehmend zum eigenverantwortlichen Gestalter und Mitunternehmer. Im Rahmen einer multiplen Fallstudie wird zunächst der Frage nachgegangen, wie die Mitarbeiter in drei karitativen Einrichtungen die Einführung einer leistungsorientierten Vergütungskomponente erleben. Dazu werden inhaltliche Gestaltungsmerkmale der Entgeltsysteme, Merkmale des Einführungsprozesses und ihre Auswirkungen untersucht. Die Ergebnisse zeigen, dass die Mitarbeiter in allen Einrichtungen dem Aspekt der Finanzierung des variablen Vergütungsanteils eine wesentliche Bedeutung beimessen. Wird dieser Anteil durch die Variabilisierung bisher garantierter, fixer Vergütungsanteile finanziert, entstehen unsichere Gehalts-anteile und es erhöht sich das Risiko von möglichen Gehaltsverlusten. In der Einrichtung mit dem höchsten Entgeltrisiko führte dieser Umstand dazu, dass Mitarbeiter und Vorgesetzte durch informelle Absprachen versucht haben, mögliche Verluste zu vermeiden. Wird der variable Entgeltanteil durch die Einrichtungen mitfinanziert, erhöhen sich hingegen die Chancen auf Einkommensgewinne, was auch zu einer höheren Akzeptanz der neuen Entgeltsysteme beiträgt. Aufbauend auf den Ergebnissen der Fallstudie werden in einer quantitativen Analyse die Auswirkungen eines erhöhten Entgeltrisikos auf die Zufriedenheit der Mitarbeiter mit ihrem variablen Vergütungsanteil (Bonuszufriedenheit) untersucht. Dabei wird das Entgeltrisiko durch drei konzeptuelle Facetten operationalisiert: die Variabilität der Entlohnung, das Ausmaß möglicher Verluste und das Verhältnis von Risiko und Chance (RCV). Entgegen der bisherigen Annahme in der Forschungsliteratur, dass vor allem die Variabilität der Entlohnung ausschlaggebend für die Auswirkungen von Entgeltrisiko ist, zeigen regressionsanalytische Ergebnisse, dass in der Einführungsphase neuer Entgeltsysteme vor allem das RCV einen signifikanten Effekt auf die Bonuszufriedenheit der Mitarbeiter hat. Die Ergebnisse einer multiplen Mediationsanalyse legen nahe, dass der Effekt von RCV auf die Bonuszufriedenheit zum Teil von Einstellungen der distributiven und prozeduralen Gerechtigkeit vermittelt wird. Wei-terführende Analysen ergeben, dass der Zusammenhang zwischen dem RCV und der Bonuszufriedenheit durch zwei moderierende Variablen beeinflusst wird: zum einen durch die partizipative Beteiligung der Mitarbeiter am Einführungsprozess und zum anderen durch die individuelle Präferenz für leistungsorientierte Entlohnung. Vor allem bei hoher partizipativer Beteiligung wirkt sich ein günstiges RCV positiv auf die Bonuszufriedenheit der Mitarbeiter aus. Außerdem sind jene Mitarbeiter unzufriedener mit einem risiko-reichen Entgeltsystem, die eine stark ausgeprägte Präferenz für leistungsorientierte Entlohnung besitzen.
Rinnen werden als effektive Sedimentquellen und als Transportwege für große Sedimentmengen angesehen, zusätzlich agieren sie als bevorzugte Fließwege für den Oberflächenabfluss. Sie können sich zu irreversiblen Formen (Gullys) weiterentwickeln. Trotz Fortschritten in der Modellierung bleibt insbesondere die Modellierung von Rinnenerosion schwierig. Daher ist es wichtig, experimentelle Daten aus Geländeversuchen zu erheben, um das Prozesswissen zu verbessern und bessere Modelle zu entwickeln. In den Experimenten sollte eine standardisierte Methode verwendet werden, um eine gewisse Vergleichbarkeit der Ergebnisse zwischen unterschiedlichen Testgebieten zu gewährleisten. Die meisten Experimente zur Rinnenerosion, die unter Labor- oder Geländebedingungen durchgeführt wurden, verwendeten Substrate mit unterschiedlichen Korngrößen und natürlichen oder simulierten Niederschlag. Ziel war meist die Entstehung von Rinnennetzwerken zu beobachten, Startbedingungen für Rinnenbildung zu definieren, die Entwicklung der Rinnenmorphologie zu untersuchen, die wichtigsten hydraulischen Parameter wie Fließquerschnitt, benetzten Umfang, hydraulischen Radius, mittlere Fließgeschwindigkeit und shear stress abzuschätzen oder mathematische Modelle zu kreieren, um den Bodenabtrag durch Rinnenerosion abschätzen zu können. Aber es fehlen Untersuchungen zum Verhalten von existierenden Rinnen, natürlichen oder anthropogen entwickelten, unter Geländebedingungen. Um diese Lücke zu schließen wurde eine reproduzierbare Versuchsanordnung entworfen und in verschiedenen Rinnen angewendet um folgende Fragen zu beantworten: Wie hoch ist der Anteil der Rinnenerosion am Bodenabtrag? 2) Wie effektiv sind Rinnen beim Transport von Wasser und Sediment durch ihr Einzugsgebiet? In prozess-basierten Modellen werden verschiedene Prozesse durch mathematische Gleichungen beschrieben. Die Grundlage dieser Formeln ist meist ein hydraulischer Parameter, der in Verbindung zum Abtrag gebracht wird. Der am häufigsten verwendete Parameter ist der shear stress, von dem angenommen wird, dass er ein lineares Verhältnis zu Erosionsparametern wie detachment rate, detachment capacity oder Sedimentkonzentration aufweist. Aus dem shear stress lassen sich weitere Parameter wie unit length shear force oder verschiedene Varianten der stream power berechnen. Die verwendeten Erosions- und hydraulischen Parameter ändern sich je nach Forschergruppe. Eine weitere Modellannahme ist, dass die transport rate die trasnport capacity nicht übersteigen kann. Wenn das transport rate vs. transport capacity - Verhältnis 1 übersteigt, verringern Sedimentationsprozesse die Rate bis die transport capacity wieder erreicht ist. Wir untersuchten in Geländeversuchen die folgenden Annahmen: 1) Ist das Verhältnis zwischen transport rate und transport capacity immer kleiner 1? 2) Besteht die lineare Beziehung zwischen verschiedenen hydraulischen Parametern und Bodenabrtagsparametern? 3)Verursachen die selben hydraulischen Parameter, die in verschiedenen Versuchen aufgenommen wurden, auch immer die selben Erosionsparameter?
In this thesis, in order to shed light on the biological function of the membrane-bound Glucocorticoid Receptor (mGR), proteomic changes induced by 15 min in vivo acute stress and by short in vitro activation of the mGR were analyzed in T-lymphocytes. The numerous overlaps between the two datasets suggest that the mGR mediates physiologically relevant actions and participates in the early stress response, triggering rapid early priming events that pave the way for the slower genomic GC activities. In addition, a new commercially available method with suitable sensitivity to detect the human mGR is reported and the transcriptional origin of this protein investigated. Our results indicates that specific GR-transcripts, containing exon 1C and 1D, are associated with the expression of this membrane isoform.
Die vorliegende Arbeit hat die zunehmende Bedeutung des Social Web und die daraus resultierenden Auswirkungen auf das Informations- und Reiseverhalten von Städtetouristen zum Thema. Hauptfragestellung ist, inwiefern sich die gestiegene Bedeutung des Social Web auf das Informationsverhalten von Reisenden und ihr Verhalten vor Ort, insbesondere hinsichtlich des Interesses an Nischenattraktionen, auswirkt. Große Städte, vor allem Metropolen, verfügen über eine fast unüberschaubare Zahl von touristischen Attraktionen und Angeboten. Dazu zählen auch jene, die abseits der Haupttouristenrouten in weniger touristisch geprägten Stadtteilen liegen. Trotz dieser Angebotsvielfalt ist die Mehrzahl der Städtetouristen meist auf der sogenannten "Straße der Ameisen" anzutreffen. Eine Ausnahme stellen jedoch die sogenannten neuen Städtetouristen dar, die weniger an klassischen Mainstream-Sehenswürdigkeiten, sondern mehr am Entdecken authentischer und einzigartiger Plätze abseits der Touristenpfade und am Erleben des Alltags der Einheimischen interessiert sind. Für die vorliegende Untersuchung der Fragestellung wurden insgesamt drei methodische Bausteine herangezogen: 1) Eine Inhaltsanalyse für den Vergleich von Social-Web-Anwendungen und klassischen Reisemedien hinsichtlich ihrer thematischen Schwerpunktsetzung; 2) eine Touristenbefragung mit dem Ziel, mehr über die Nutzung des Social Web als Reiseinformationsquelle und über das Verhalten der Social-Web-Nutzer im Allgemeinen, und ihr Interesse an Nischen und Orten abseits der Touristenpfade im Besonderen, zu erfahren. Schließlich sollten 3) Interviews mit städtetouristischen Nischenunternehmen weitere Erkenntnisse über die Nutzung sozialer Medien durch Anbieter im Städtetourismus liefern. Die Ergebnisse machen deutlich, dass die Auswirkungen des Social Web " sowohl durch die Nutzung als Reiseinformationsquelle durch die Nachfrager, als auch durch die Verwendung als Marketing- und Vertriebskanal von Seiten der Anbieter " bislang geringer sind als zunächst angenommen. Auch wenn Nischenangebote und Alltagskultur zum Teil in sozialen Medien stärker präsent sind als z. B. in Reiseführern, und einige kleine Nischenanbieter die Möglichkeiten, die ihnen das Social Web bietet, schon optimal nutzen, so hat eine verstärkte Social-Web-Nutzung bislang doch keine grundlegenden Verhaltensänderungen auf Seiten der Reisenden bewirkt. Die Straße der Ameisen ist trotz der gestiegenen Social-Web-Nutzung nach wie vor existent. Dass das Social Web als ein Filter fungiert, der Interessierte in Richtung der Long-Tail-Angebote "schickt", konnte im Rahmen der vorliegenden Dissertation nur zum Teil bestätigt werden. Neben der Informationsquelle Social Web üben doch auch viele andere Faktoren einen Einfluss auf das Interesse von Reisenden an Lokalkolorit, authentischen Erlebnissen und besonderen Nischenangeboten aus. Trotzdem dürfte gerade für den sogenannten neuen Touristen das Social Web neue Möglichkeiten der Informationsgewinnung über einzigartige Örtlichkeiten an den Reisezielen bereitstellen. So ist es heutzutage einfacher als je zuvor, an Hinweise und Tipps zu ganz spezifischen Reisezielen und -aktivitäten zu kommen, die zudem meist noch sehr persönlich und authentisch wirken, da sie größtenteils von anderen Nutzern stammen.
The contribution of three genes (C15orf53, OXTR and MLC1) to the etiology of chromosome 15-bound schizophrenia (SCZD10), bipolar disorder (BD) and autism spectrum disorder (ASD) were studied. At first, the uncharacterized gene C15orf53 was comprehensively analyzed. Previous genome-wide association studies (GWAS) in bipolar disorder samples have identified an association signal in close vicinity to C15orf53 on chromosome 15q14. This gene is located in exactly the genomic region, which is segregating in our SCZD10 families. An association study with bipolar disorder (BD) and SCZD10 individual samples did not reveal any association of single nucleotide polymorphisms (SNPs) in C15orf53. Mutational analysis of C15orf53 in SCZD10-affected individuals from seven multiplex families did not show any mutations in the 5'-untranslated region, the coding region and the intron-exon boundaries. Gene expression analysis revealed that C15orf53 was expressed in a subpopulation of leukocytes, but not in human post-mortem limbic brain tissue. Summarizing these studies, C15orf53 is unlikely to be a strong candidate gene for the etiology of BD or SCZD10. The second investigated gene was the human oxytocin receptor gene (OXTR). Five well described SNPs located in the OXTR gene were taken for a transmission-disequilibrium test (TDT) in parents-child trios with ASD-affected children. Neither in the complete sample nor in a subgroup with children that had an intelligence quotient (IQ) above 70, association was found, independent from the application of Haploview or UNPHASED for analysis. The third gene, MLC1, was investigated with regards to its implication in the etiology of SCZD10. Mutations in the MLC1 gene lead to megalencephalic leukoencephalopathy with subcortical cysts (MLC) and one variant coding for the amino acid methionine (Met) instead of leucine (Leu) at position 309 was identified to segregate in a family affected with SCZD10. For further investigation of MLC1 and its possible implication in the etiology of SCZD10, a constitutive Mlc1 knockout mouse model should be created. Mouse embryonic stem cells (mES) were electroporated with a knockout vector construct and analyzed with respect to homologous recombination of the knockout construct with the genomic DNA (gDNA) of the mES. Polymerase chain reaction (PCR) on the available stem cell clones did not reveal any homologous recombined ES. Additionally, we conducted experiments to knockdown MLC1 and using microRNAs. The 3'-untranslated region of the MLC1 gene was analyzed with the bioinformatics tool TargetScan to screen for potential microRNA target sites. In the 3'-untranslated region of the MLC1 gene, a potential binding site for miR-137 was identified. The gene expression level of genes that had been linked to psychiatric disorders and carried a predicated miR-137 binding site has been proven to be immediately responsive to miR-137. Thus, there is new evidence that MLC1 is a candidate gene for the etiology of SCZD10.
Gegenstand dieser bauarchäologischen Analyse ist die Baugeschichte von Saint-Jacques zu Dieppe von ihrem Beginn bis zur 1543 abgeschlossenen Chorwölbung. Die Untersuchung stützt sich auf eine detaillierte Bauanalyse sowie auf die Auswertung des spärlichen Quellenmaterials, das neue Aufschlüsse zur ursprünglichen Bestimmung des Baus und zum Zeitpunkt der Gründung lieferten. Zu Beginn lieferten Bauten der Niedernormandie mit Caen als Zentrum die Vorbilder und die Anregungen. Nach einem kurzen Aufscheinen der kronländischen Architektur, insonderheit Mello, kommen hauptsächlich Roueneser Kirchenbauten als Inspirationsquellen für die Architektur vor. Die Pfarrkirche Saint-Jacques konnte aufgrund ihrer langjährigen Entstehungsgeschichte nicht als Gesamtkonzept rezipiert werden. Dort wurden aber Teillösungen entwickelt, die in normannischen Nachfolgebauten wiederzufinden sind. Die Rose des Südquerhauses von Saint-Ouen in Rouen stellt das bedeutendste Beispiel dafür dar. Ob der im Bauverlauf zu Beginn des 13. Jahrhundert konstatierte Formen- und Vorbilderwechsel auf die politischen Ereignisse zurückzuführen ist, konnte ebenso wenig für Dieppe wie auch für die Kathedrale Notre-Dame in Rouen beantwortet werden. Außer Zweifel steht, dass Saint-Jacques eine wichtige Rolle für das Verständnis der Entwicklungsgeschichte der normannischen Gotik spielt, indem dort etwa 350 Jahre Baukunst dokumentiert sind.
Sklaverei und Demokratie? Für viele Plantagenbesitzer auf Kuba wurden die Vereinigten Staaten vor dem amerikanischen Bürgerkrieg zu einer attraktiven Alternative zur despotischen Kolonialmacht Spanien. Kubanische Emigranten in den USA versuchten um 1850 mit Hilfe von amerikanischen Expansionisten und Sklavereibefürwortern Kuba durch Militärexpeditionen Spanien zu entreißen und die Insel an seinen großen Nachbarn im Norden zu annektieren. Um für ihr Unternehmen zu werben, brachten Exilkubaner zahlreiche Zeitungen in US-Metropolen wie New York oder New Orleans heraus, in welchen sie ihren Lesern die Vorteile einer Annexion erläuterten. Im Fokus der Dissertation stehen die Argumente der kubanischen Exilpresse und ihrer Gegner.
The stress hormone cortisol as the end-product of the hypothalamic-pituitary-adrenal (HPA) axis has been found to play a crucial role in the release of aggressive behavior (Kruk et al., 2004; Böhnke et al., 2010). In order to further explore potential mechanisms underlying the relationship between stress and aggression, such as changes in (social) information processing, we conducted two experimental studies that are presented in this thesis. In both studies, acute stress was induced by means of the Socially Evaluated Cold Pressor Test (SECP) designed by Schwabe et al. (2008). Stressed participants were classified as either cortisol responders or nonresponders depending on their rise in cortisol following the stressor. Moreover, basal HPA axis activity was measured prior to the experimental sessions and EEG was recorded throughout the experiments. The first study dealt with the influence of acute stress on cognitive control processes. 41 healthy male participants were assigned to either the stress condition or the non-stressful control procedure of the SECP. Before as well as after the stress induction, all participants performed a cued task-switching paradigm in order to measure cognitive control processes. Results revealed a significant influence of acute and basal cortisol levels, respectively, on the motor preparation of the upcoming behavioral response, that was reflected in changes in the magnitude of the terminal Contingent Negative Variation (CNV). In the second study, the effect of acute stress and subsequent social provocation on approach-avoidance motivation was examined. 72 healthy students (36 males, 36 females) took part in the study. They performed an approach-avoidance task, using emotional facial expressions as stimuli, before as well as after the experimental manipulation of acute stress (again via the SECP) and social provocation realized by means of the Taylor Aggression Paradigm (Taylor, 1967). Additionally to salivary cortisol, testosterone samples were collected at several points in time during the experimental session. Results indicated a positive relationship between acute testosterone levels and the motivation to approach social threat stimuli in highly provoked cortisol responders. Similar results were found when the testosterone-to-cortisol ratio at baseline was taken into account instead of acute testosterone levels. Moreover, brain activity during the approach-avoidance task was significantly influenced by acute stress and social provocation, as reflected in reductions of early (P2) as well as of later (P3) ERP components in highly provoked cortisol responders. This may indicate a less accurate, rapid processing of socially relevant stimuli due to an acute increase in cortisol and subsequent social provocation. In conclusion, the two studies presented in this thesis provide evidence for significant changes in information processing due to acute stress, basal cortisol levels and social provocation, suggesting an enhanced preparation for a rapid behavioral response in the sense of a fight-or-flight reaction. These results confirm the model of Kruk et al. (2004) proposing a mediating role of changed information processes in the stress-aggression-link.
Time series archives of remotely sensed data offer many possibilities to observe and analyse dynamic environmental processes at the Earth- surface. Based on these hypertemporal archives, which offer continuous observations of vegetation indices, typically at repetition rates from one to two weeks, sets of phenological parameters or metrics can be derived. Examples of such parameters are the beginning and end of the annual growing period, as well as its length. Even though these parameters do not correspond exactly to conventional observations of phenological events, they nevertheless provide indications of the dynamic processes occurring in the biosphere. The development of robust algorithms for the derivation of phenological metrics can be challenging. Currently, such algorithms are most commonly based on digital filters or the Fourier analysis of time series. Polynomial spline models offer a useful alternative to existing methods. The possibilities of using spline models in the analytical description of time series are numerous, and their specific mathematical properties may help to avoid known problems occurring with the more common methods for deriving phenological metrics. Based on a selection of different polynomial spline models suitable for the analysis of remotely sensed time series of vegetation indices, a method to derive various phenological parameters from such time series was developed and implemented in this work. Using an example data set from an intensively used agricultural area showing highly dynamic variations in vegetation phenology, the newly developed method was verified by a comparison of the results of the spline based approach to the results of two alternative, well established methods.
Arctic and Antarctic polynya systems are of high research interest since extensive new ice formation takes place in these regions. The monitoring of polynyas and the ice production is crucial with respect to the changing sea-ice regime. The thin-ice thickness (TIT) distribution within polynyas controls the amount of heat that is released to the atmosphere and has therefore an impact on the ice-production rates. This thesis presents an improved method to retrieve thermal-infrared thin-ice thickness distributions within polynyas. TIT with a spatial resolution of 1 km × 1 km is calculated using the MODIS ice-surface temperature and atmospheric model variables within the Laptev Sea polynya for the winter periods 2007/08 and 2008/09. The improvement of the algorithm is focused on the surface-energy flux parameterizations. Furthermore, a thorough sensitivity analysis is applied to quantify the uncertainty in the thin-ice thickness results. An absolute mean uncertainty of -±4.7 cm for ice below 20 cm of thickness is calculated. Furthermore, advantages and drawbacks using different atmospheric data sets are investigated. Daily MODIS TIT composites are computed to fill the data gaps arising from clouds and shortwave radiation. The resulting maps cover on average 70 % of the Laptev Sea polynya. An intercomparison of MODIS and AMSR-E polynya data indicates that the spatial resolution issue is essential for accurately deriving polynya characteristics. Monthly fast-ice masks are generated using the daily TIT composites. These fast-ice masks are implemented into the coupled sea-ice/ocean model FESOM. An evaluation of FESOM sea-ice concentrations is performed with the result that a prescribed high-resolution fast-ice mask is necessary regarding the accurate polynya location. However, for a more realistic simulation of other small-scale sea-ice features further model improvements are required. The retrieval of daily high-resolution MODIS TIT composites is an important step towards a more precise monitoring of thin sea ice and sea-ice production. Future work will address a combined remote sensing " model assimilation method to simulate fully-covered thin-ice thickness maps that enable the retrieval of accurate ice production values.
Die Arbeit verteidigt zwei Thesen: 1. Der Realismus ist eine semantische These; 2. Religiöse Sprache muß realistisch interpretiert werden. Der erste Teil von Kapitel 1 bis 4 widmet sich der ersten These, der zweite Teil in Kapitel 5 und 6 der zweiten. Zuerst wird ein Überblick über die Problematik von Realismus und Antirealismus in der Philosophie überhaupt geben und erläutert, was das Kernproblem dieser Debatten ist, das eine adäquate Interpretation der realistischen These lösen muß. Dann wird eine Lösung mit Michael Dummetts Theorie des semantischen Realismus entwickelt, so daß sich die metaphysischen Probleme in sprachphilosophische übersetzen lassen und eine semantische Formulierung des Realismus möglich wird. Danach werden verschiedene Einwände gegen diese Theorie diskutiert, um in der Folge eine eigene, verbesserte Formulierung des semantischen Realismus zu entwickeln, die fähig ist, der Kritik standzuhalten. Schließlich werden zwei von Dummett selbst vorgebrachte Argumente gegen den Realismus behandelt und widerlegt. Mit diesen sprachphilosophischen Werkzeugen wird dann gezeigt, wie sich die religionsphilosophischen Debatten mit den Mitteln des semantischen Realismus beschreiben und klassifizieren lassen und wie sich anhand semantischer Kriterien Klarheit schaffen läßt, was genau einen religiösen Antirealismus charakterisiert und was nicht. Abschließend werden die bisher in der Debatte für und wider den religiösen Antirealismus vorgebrachten Argumente analysiert und dann auf der Basis der semantischen Interpretation des Realismus einige eigene Argumente entwickelt, um die Unmöglichkeit eines religiösen Antirealismus nachzuweisen.