Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (840) (entfernen)
Sprache
- Deutsch (492)
- Englisch (337)
- Mehrsprachig (7)
- Französisch (4)
Schlagworte
- Stress (37)
- Deutschland (33)
- Modellierung (18)
- Optimierung (18)
- Fernerkundung (17)
- Hydrocortison (16)
- stress (15)
- Motivation (12)
- Stressreaktion (12)
- cortisol (12)
Institut
- Psychologie (181)
- Raum- und Umweltwissenschaften (148)
- Mathematik (62)
- Wirtschaftswissenschaften (61)
- Fachbereich 4 (58)
- Fachbereich 1 (30)
- Geschichte, mittlere und neuere (28)
- Germanistik (26)
- Informatik (26)
- Kunstgeschichte (22)
Der Aufbau einer Klassifikation von Einzugsgebieten (EZG) auf Basis des Abflussverhaltens und der Gebietseigenschaften sowie die Regionalisierung von Abflussparametern sind Kernthemen der Hydrologie. Die Ziele dieser Arbeit sind der Aufbau einer Klassifikation für EZGs mit hoher räumlicher Auflösung nach dem Abflussverhalten und der Gebietseigenschaften, die Identifikation abflussrelevanter, physiogeografischer und klimatischer Gebietseigenschaften und die Regionalisierung von Abflussverhalten und Modellparametern auf Basis von Klassifikationen. Dabei wird untersucht, ob sich 53 häufig benachbarte und z.T. ineinander geschachtelte Einzugsgebiete in Rheinland-Pfalz für eine Klassifikation eignen und wie das Abflussverhalten für die Beurteilung von Ähnlichkeiten beschrieben werden kann. Das Abflussverhalten der EZGs wird mit einer großen Anzahl von Ereignis-Abflussbeiwerten je EZG und Abflussdauerlinien (Flow-Duration Curves) der EZGs beschrieben, die das Abflussverhalten umfassend und mit einer ausreichenden Trennschärfe abbilden. Gebietseigenschaften, die das Abflussgeschehen dieser EZG dominieren, sind langjährige, mittlere Niederschlagssummen, die mittlere potentielle Verdunstung, die Topografie und die Speichermöglichkeiten im EZG. Für den Aufbau und die Anwendung der EZG-Klassifikationen wird ein hierfür entwickeltes Verfahren eingesetzt, dass auf Selbstorganisierenden Merkmalskarten (Self-Organizing Maps, SOM) basiert. Vorteile dieses Verfahrens gegenüber vielen konventionellen Verfahren sind Qualitätsmaße, die datenbasierte Bestimmung wichtiger Parameter, aussagestarke Visualisierungen der Ergebnisse und die Klassifikation und Regionalisierung mit einer Methode. Die Auswertung von zwei separaten Klassifikationen, nach dem Abflussverhalten und nach den physiogeografischen und klimatischen Gebietseigenschaften, stellen einen direkten Zusammenhang zwischen Abfluss- und Gebietseigenschaften her. Der Überschneidungsbereich der beiden Klassifikationen ist die Grundlage für die Übertragung von Abflussinformationen auf unbeobachtete Gebiete (Regionalisierung). Die Ergebnisse zeigen, dass die Methode der Clusteranalyse, Klassifikation und Regionalisierung mit SOM und den genannten Abfluss- und Gebietskennwerten geeignet ist, EZGs mit einer hohen räumlichen Auflösung treffend und detailliert zu klassifizieren sowie Abflussparameter zu regionalisieren.
Diese Arbeit stellt die Ergebnisse eines abgeschlossenen Dissertationsprojektes zur sozialen Einbettung eines ländlichen Kreditmarktes im 19. Jahrhundert dar. Das Hauptziel der Untersuchung war es, herauszufinden, ob die soziale Einbettung von Akteuren einen messbaren positiven oder negativen Effekt auf ihren ökonomischen Erfolg im Rahmen eines historischen Kreditmarktes hatte. Das Fallbeispiel der Untersuchung ist der ländliche Kreditmarkt des in der Nähe von Reutlingen im Königreich von Württemberg im Südwesten Deutschlands gelegenen Dorfes Ohmenhausen. Die Datengrundlage der Untersuchung sind die Hypothekenbücher, Vermögensinventare, Steuerlisten und Kirchenbücher des Dorfes. In Übereinstimmung mit der Neuen Institutionenökonomik werden Kreditmärkte als soziale Netzwerke von Schuldnern und Gläubigern betrachtet. Die soziale Einbettung der Dorfbewohner ist über die (Re-)Konstruktion ihrer dorfinternen Verwandtschaftsnetzwerke operationalisiert worden. Die Akteure in diesen Verwandtschaftsnetzwerken sind alle Haushalte, die Grundsteuern bezahlt haben. Diese Haushalte besaßen Land und waren deshalb in der Lage Hypotheken aufzunehmen. Die Untersuchung wird durch den Vergleich der Verteilung der Kredite innerhalb der Verwandtschaftsnetzwerke der Stichjahre von 1825 und 1850 durchgeführt. Im Jahr 1830 trat eine signifikante Reform der Pfandgesetzgebung in Kraft. Deshalb wurde jeweils ein Stichjahr vor dem Inkrafttreten der Reform mit einem Stichjahr nach Inkrafttreten der Reform verglichen. Dies geschah um zu untersuchen, ob die Reform einen Einfluss auf die Marktstruktur hatte und ob sich im Rahmen der Reform auch die Verteilung der Kredite innerhalb der Verwandtschaftsnetzwerke änderte.
Die Dissertation ist der Kuünstlerpersönlichkeit und dem Werk des Kubaners Wifredo Lam gewidmet. Lam wurde 1902 auf Kuba als Sohn eines Chinesen und einer Kubanerin geboren und starb 1982 in Paris. Die vielen unterschiedlichen Lebensstationen des Künstlers bezeugen seine Mobilität und Reiselust, zeichnen aber auch gleichzeitig die historischen Turbulenzen und Umbrüche des 20. Jahrhunderts nach. Lam gilt heute als einer der Hauptvertreter der lateinamerikanischen Kunst des 20. Jahrhunderts und als Künstlerikone Kubas. Zu Lams Freunden und Bekannten gehörten unter anderem Pablo Picasso, André Breton, Michel Leiris, Pierre Mabille, Alejo Carpentier, Lydia Cabrera, Aimé Césaire, Benjamin Perét und Asger Jorn. Sein Werk ist durch den Kubismus und den Surrealismus beeinflusst. Auch interessierte er sich für die lokalen Gegebenheiten, Kulturen und Traditionen seiner jeweiligen Aufenthaltsorte. Er setzte sich unter anderem mit der Rezeption des "Primitiven" der europäischen Avantgarde vor dem Zweiten Weltkrieg, wie auch - zurück in der Heimat Kuba - mit der afrokubanischen Mischreligion Santeria auseinander und fühlte sich politisch wie intellektuell mit der karibischen Négritude verbunden. Diese und andere Eindrücke und Einflüsse hinterließen Spuren in Lams Werk, die er in eine Formensprache umsetzte, die seinem Œuvre einen unverwechselbaren Ausdruck verleiht. Dem poliperspektivistischen und semantisch mehrfach aufgeladenen Werk jedoch stehen eine erstaunlich einseitige und nicht selten stereotype internationale Repräsentation und Rezeption gegenüber. Die Dissertation jedoch stellt eine andere, eine neue Positionierung des Künstlers und seines Werkes vor, die ohne primitivistische Zuschreibungen und biografische Bezeugungen auskommt. Dies gelingt zum einen durch die Auseinandersetzung mit den Rezeptions- und Repräsentationsmechanismen, die den Künstlermythos Lam ausgebildet haben. Daran schließt sich eine detaillierte Analyse repräsentativ ausgewählter Einzelbildbeispiele an. Aber auch die Auseinandersetzung mit dem Gesamtwerk des Künstlers ist relevant. Denn es zeigt sich, dass die über Jahrzehnte hin praktizierte Wiederholung von Bildformeln und die Homogenität in der Darstellungsweise Teil des künstlerischen Programms von Wifredo Lam sind. Diese stilistische Formalität wurde von den Kritikern des Lamschen Werkes bisher nicht beachtet. Auf der Basis dieser neu erarbeiteten Erkenntnisse kann Wifredo Lam als Fallbeispiel für übergeordnete Fragestellungen dienen und zentrale Aspekte der cultural studies illustrieren. Denn Lams künstlerische Formgestaltung verweist auf ein alternatives ästhetisches Identitätsmodell, das Synkretismus und Hybridität nicht als Verlust von Identität, sondern als eine Praxis von Differenz versteht. Diese Ausrichtung der Lesart ermöglicht es, das Gesamtwerk als eine künstlerische Antwort auf Fragen kultureller Identität und Multikulturalität zu deuten.
Global change, i.e. climate and land use changes, severely impact natural ecosystems at different scales. Poikilothermic animals as butterflies, amphibians and reptiles have proven to be useful indicators for global change impacts as their phenology, spatial distribution, individual fitness and survival strongly depend on external environmental factors. In this aspect, phenological changes in terms of advanced flight or breeding periods, immigrations of foreign species, range shifts concomitant with temperature increases and even local population declines have been observed in both species groups. However, to date much attention has been paid to global change impacts on the species or population level and analyses concerning entire ecosystems are scarce. Applying a novel statistical modelling algorithm we assessed future changes in the extent and composition of terrestrial ecoregions as classified by the World Wide Fund for Nature (WWF). They are defined as coarse-scale conservation units containing exceptional assemblages of species and ecological dynamics. Our results demonstrate dramatic geographical changes in the extent and location of these ecoregions across all continents and even imply a repriorisation of conservation efforts to cope with future climate change impacts on biodiversity. On the local scale, climate change impacts become unequivocal. Comparing historical to contemporary butterfly assemblages on vineyard fallows of the Trier Region, a significant decline in butterfly richness, but also a severe depletion in trait diversity was observed. Comparisons of community temperature indices reveal a striking shift in community composition leading to a replacement of sedentary and monophagous habitat specialists by ubiquitous species. Similar changes have been observed in nature reserves in the Saar-Mosel-area. Monitoring data reveal strong losses of species diversity and remarkable shifts of community compositions at the expense of habitat specialists. Besides climatic variability, these findings are largely attributed to changes in habitat structures, mostly due to eutrophication and monotonisation. Management activities are unlikely to counterbalance these effects, thus severely questioning current conservation strategies. Most dramatic global change impacts are suspected on closely associated species and disruptions of biotic interactions are often hold responsible for species declines. A strong host-parasite association has developed in Myrmica ants and Maculinea butterflies, the later crucially depending on specific host ants for their larval survival. Applying environmental niche models we determined considerable niche dynamics in the observed parasite-host relation with a pronounced niche plasticity in the butterfly species adapting to previous evasive niche shifts in their host ants. Moreover, the new emergence of species continuously expanding their northernmost range borders concomitant with global warming like the Short-tailed blue (Cupido argiades) is attributed to climate change. However, species distribution models predict a severe habitat loss and shifts of potentially suitable habitats of this species towards north-eastern Europe and higher altitudes under several IPCC scenarios making the presence of this species in the Trier region a contemporary phenomenon. Species distribution models have emerged as powerful tools to predict species distributions over spatial and temporal scales. However, not only the presence of a species, but also its abundance have significant implications for species conservation. The ability to deduce spatial abundance patterns from environmental suitability might more efficiently guide field surveys or monitoring programs over large geographical areas saving time and money. Although the application of species distribution models to deduce vertebrate abundances is well recognized, our results indicate that this method is not an adequate approach to predict invertebrate abundances. Structural and ecological factors as well as climatic patterns acting at the microscale are key drivers of invertebrate occurrence and abundances limiting conclusions drawn from modeling approaches. Population declines should be interpreted with care as in butterflies and amphibians various reasons are debated. Both species groups are acknowledged to be highly susceptible to land use changes and variations in landscape structure. Moreover, climate and land use are not independently operating factors. The combined impact of both is demonstrated in our study linking climate-driven changes in amphibian phenologies to temporal advanced applications of pesticides and fertilizers. Both environmental factors already represent severe threats to amphibians when standing alone, but linking their combined impacts may result in an potentiated risk for amphibian populations. As all amphibians and numerous butterfly species are legally protected under the Federal Nature Conservation Act, intensifications of agricultural land use in large parts of Germany as well as new agrarian practices (including genetically manipulated plants accompanied by new herbicide technologies) might severely challenge regional conservation activities in the future.
The Hadamard product of two holomorphic functions which is defined via a convolution integral constitutes a generalization of the Hadamard product of two power series which is obtained by pointwise multiplying their coefficients. Based on the integral representation mentioned above, an associative law for this convolution is shown. The main purpose of this thesis is the examination of the linear and continuous Hadamard convolution operators. These operators map between spaces of holomorphic functions and send - with a fixed function phi - a function f to the convolution of phi and f. The transposed operator is computed and turns out to be a Hadamard convolution operator, too, mapping between spaces of germs of holomorphic functions. The kernel of Hadamard convolution operators is investigated and necessary and sufficient conditions for those operators to be injective or to have dense range are given. In case that the domain of holomorphy of the function phi allows a Mellin transform of phi, certain (generalized) monomials are identified as eigenfunctions of the corresponding operator. By means of this result and some extract of the theory of growth of entire functions, further propositions concerning the injectivity, the denseness of the range or the surjectivity of Hadamard convolution operators are shown. The relationship between Hadamard convolution operators, operators which are defined via the convolution with an analytic functional and differential operators of infinite order is investigated and the results which are obtained in the thesis are put into the research context. The thesis ends with an application of the results to the approximation of holomorphic functions by lacunary polynomials. On the one hand, the question under which conditions lacunary polynomials are dense in the space of all holomorphic functions is investigated and on the other hand, the rate of approximation is considered. In this context, a result corresponding to the Bernstein-Walsh theorem is formulated.
Die Arbeit thematisiert die Weiterentwicklung des touristischen Angebots der Deutschen Bahn, das derzeit über den Reiseveranstaltervertrieb am Markt platziert wird. Kunden, die im Reisebüro oder Internet eine Städtereise über ihren Veranstalter buchen, erhalten mit dem RIT (Rail Inclusive Tours)-Angebot ein spezielles Kooperationsticket für ihre Zugfahrt. Im ersten Abschnitt der Arbeit wird zunächst auf die Besonderheiten des Dienstleistungsbereichs inklusive Auswirkungen auf die Angebotsgestaltung von Unternehmen eingegangen. In diesem Zusammenhang werden Hintergründe von Kundenzufriedenheit und Kundenbindung skizziert sowie deren Wechselwirkungen dargestellt. Über die Einordnung der Deutschen Bahn als Dienstleistungsunternehmen im Schienenpersonenfernverkehr wird deren Positionierung im zunehmenden Wettbewerbsmarkt in einer Umfeldanalyse erarbeitet und die Bedeutsamkeit für den Unternehmenserfolg aufgezeigt. Der praktische Teil der Arbeit befasst sich mit den Befragungsergebnissen von Bestandskunden in der fokussierten Zielgruppe der Städtereisenden. Neben der Analyse von Nutzerstruktur, Reisegewohnheiten und alternativer Verkehrsmittelwahl, werden Kundenzufriedenheiten und Wichtigkeiten einzelner Leistungsbestandteile der Bahnreise näher betrachtet. Durch die Identifizierung von Kundensegmenten lassen sich Ansatzpunkte für die Weiterentwicklung des Angebots ableiten, die eine Attraktivitätssteigerung der Bahnfahrt herbeiführen und die Kundenzufriedenheit nachhaltig erhöhen können. Einbindung von Essensgutscheinen, das Angebot von Kuriergepäck oder die Integration des City-Tickets sind denkbare, nutzensteigernde Maßnahmen für die Anreisealternative Bahnfahrt. Weiterer Forschungsbedarf für die betrachtete Zielgruppe besteht in der Erfassung von Hinderungsgründen für eine bevorzugte Bahnwahl in der Verkehrsmittelentscheidung. Darüber hinaus ist das Potenzial für eine Einbindung solcher Services zu erfassen, die sich auf Seiten der Reiseveranstalter in ein Leistungspaket integrieren lassen, um weitere Indikatoren zur Attraktivitätssteigerung der Bahnfahrt ableiten zu können. Zusammenfassend stellt die Arbeit eine Analyse der skizzierten Zielgruppe der Städtereisenden der Deutschen Bahn über den Veranstaltervertrieb dar und liefert einen Beitrag, der die Ableitung einiger relevanter Handlungsempfehlungen erlaubt. Denn nur durch attraktive Angebote und die Erzielung einer hohen Kundenzufriedenheit kann sich die Bahn als bevorzugtes Transportmittel behaupten und neue Kunden für die Zugfahrt begeistern.
Copositive programming is concerned with the problem of optimizing a linear function over the copositive cone, or its dual, the completely positive cone. It is an active field of research and has received a growing amount of attention in recent years. This is because many combinatorial as well as quadratic problems can be formulated as copositive optimization problems. The complexity of these problems is then moved entirely to the cone constraint, showing that general copositive programs are hard to solve. A better understanding of the copositive and the completely positive cone can therefore help in solving (certain classes of) quadratic problems. In this thesis, several aspects of copositive programming are considered. We start by studying the problem of computing the projection of a given matrix onto the copositive and the completely positive cone. These projections can be used to compute factorizations of completely positive matrices. As a second application, we use them to construct cutting planes to separate a matrix from the completely positive cone. Besides the cuts based on copositive projections, we will study another approach to separate a triangle-free doubly nonnegative matrix from the completely positive cone. A special focus is on copositive and completely positive programs that arise as reformulations of quadratic optimization problems. Among those we start by studying the standard quadratic optimization problem. We will show that for several classes of objective functions, the relaxation resulting from replacing the copositive or the completely positive cone in the conic reformulation by a tractable cone is exact. Based on these results, we develop two algorithms for solving standard quadratic optimization problems and discuss numerical results. The methods presented cannot immediately be adapted to general quadratic optimization problems. This is illustrated with examples.
Die Zweckbestimmung der modernen Clustertheorie liegt in der Analyse regional-sektoraler Verbundsysteme von ökonomischen Aktivitäten. Erst seit kurzem wird der Versuch einer Übertragung auf touristische Destinationen in Entwicklungsländern unternommen. Die vorliegende Dissertation untersucht theoretische, methodische und praktische Implikationen dieser Übertragung anhand des Fallbeispiels der touristischen Clusterentwicklung in der Napo-Provinz Ecuadors. Hierbei stehen insbesondere die Rahmenbedingungen für die Genese wissensbasierter (kompetitiver) Wettbewerbsvorteile als Quelle der Clusterdynamik im Zentrum. Anhand einer quantitativen Methodik wird in diesem Rahmen sowohl ein Nachweis zur Gültigkeit eines vorab abgeleiteten Clusterentwicklungsmodells geführt, als auch auf dieser Grundlage ein Beitrag zur Verbesserung bestehender Diagnosesysteme geleistet.
Die Studie untersucht, wie in Deutschland und Frankreich die beiden Politikbereiche Entwicklungszusammenarbeit und Migrationspolitik miteinander verbunden werden. Hintergrund ist eine seit etwa fünfzehn Jahren laufende intensive internationale Debatte über Möglichkeiten einer kohärenten Verknüpfung der beiden Politikfelder. Dabei wurden Vorschläge gemacht, wie Migration so gestaltet werden kann, dass allen Beteiligten, d.h. Herkunftsländern, Aufnahmeländern und den Migranten selbst, möglichst große Vorteile daraus erwachsen (Schlagwort Triple-Win). Positive Effekte der Migration auf die Entwicklung der Herkunftsländer sollen verstärkt und negative minimiert werden. Bisher stand staatliches Handeln in diesem Zusammenhang selten im Fokus der Forschung. Dieser Mangel ist umso eklatanter, als die an der Debatte beteiligten Internationalen Organisation vielfach staatliches Handeln zu beeinflussen suchen. Musekamps Studie stellt daher die politische Verknüpfung von Migration und Entwicklung in den Mittelpunkt und zeigt anhand der zwei Länderfallstudien Deutschland und Frankreich, warum bestimmte Vorschläge zur politischen Verknüpfung von Migration und Entwicklung in staatliches Handeln umgesetzt worden sind, andere hingegen nicht. Zur Erklärung dient der politikwissenschaftliche Ansatz des Policy Transfer. Musekamp kommt in seiner Studie zu dem Ergebnis, dass es insbesondere politische Gründe sind, die eine Aufnahme von Vorschlägen in politisches Handeln bedingen. Diese sind etwa das Konfliktpotenzial der Vorschläge und ihre Kompatibilität mit dem Status quo. Sachlich-inhaltliche Gründe, auf die sich die bisherige Debatte und Forschung konzentrieren, sind weniger ausschlaggebend. Die Arbeit zeigt eindrücklich, dass ein Erreichen der erwarteten "Triple-Win-Situationen" wesentlich voraussetzungsreicher ist, als dies manche Beiträge der internationalen Debatte suggerieren. So stehen viele Vorhaben zur Zeit auf sehr niedrigem Umsetzungsniveau. Deutlich wird dies am deutschen Fall, bei dem bislang vor allem Pilotprojekte umgesetzt wurden, die sich weitgehend auf jene Bereiche beschränken, die die Entwicklungszusammenarbeit allein umsetzen kann. Auch in der französischen Fallstudie zeigt sich dies etwa daran, dass die Zahl staatlich unterstützter Kleinprojekte von Migrantenorganisationen stagniert. Zudem ist der dreiseitige Vorteil selbst dort, wo Migration und Entwicklung in politischem Handeln verknüpft werden, keineswegs sicher. So wurde in Frankreich Migrationspolitik zwar verstärkt in Kooperation mit den Herkunftsländern auf Basis umfassender Partnerschaftsverträge geregelt. Gerade hier zeigt sich aber weniger ein ausgewogener partnerschaftlicher Ansatz als vielmehr eine Instrumentalisierung der EZ und des Engagements von Migrantengruppen für Zwecke der Migrationssteuerung. Die Einzelergebnisse der Länderanalyse und deren systematischer Vergleich setzen neue Impulse für eine praktische Umsetzung von Politik im Schnittfeld von Migration und Entwicklung, die der Komplexität des Feldes angemessen ist.
Cortisol exhibits typical ultradian and circadian rhythm and disturbances in its secretory pattern have been described in stress-related pathology. The aim of this thesis was to dissect the underlying structure of cortisol pulsatility and to develop tools to investigate the effects of this pulsatility on immune cell trafficking and the responsiveness of the neuroendocrine system and GR target genes to stress. Deconvolution modeling was set up as a tool for investigation of the pulsatile secretion underlying the ultradian cortisol rhythm. This further allowed us to investigate the role of the single cortisol pulses on the immune cell trafficking and the role of induced cortisol pulses on the kinetics of expression of GR target genes. The development of these three tools, would allow to induce and investigate in future the significance of single cortisol pulses for health and disease.
Design and structural optimization has become a very important field in industrial applications over the last years. Due to economical and ecological reasons, the efficient use of material is of highly industrial interest. Therefore, computational tools based on optimization theory have been developed and studied in the last decades. In this work, different structural optimization methods are considered. Special attention lies on the applicability to three-dimensional, large-scale, multiphysic problems, which arise from different areas of the industry. Based on the theory of PDE-constraint optimization, descent methods in structural optimization require knowledge of the (partial) derivatives with respect to shape or topology variations. Therefore, shape and topology sensitivity analysis is introduced and the connection between both sensitivities is given by the Topological-Shape Sensitivity Method. This method leads to a systematic procedure to compute the topological derivative by terms of the shape sensitivity. Due to the framework of moving boundaries in structural optimization, different interface tracking techniques are presented. If the topology of the domain is preserved during the optimization process, explicit interface tracking techniques, combined with mesh-deformation, are used to capture the interface. This techniques fit very well the requirements in classical shape optimization. Otherwise, an implicit representation of the interface is of advantage if the optimal topology is unknown. In this case, the level set method is combined with the concept of the topological derivative to deal with topological perturbation. The resulting methods are applied to different industrial problems. On the one hand, interface shape optimization for solid bodies subject to a transient heat-up phase governed by both linear elasticity and thermal stresses is considered. Therefore, the shape calculus is applied to coupled heat and elasticity problems and a generalized compliance objective function is studied. The resulting thermo-elastic shape optimization scheme is used for compliance reduction of realistic hotplates. On the other hand, structural optimization based on the topological derivative for three-dimensional elasticity problems is observed. In order to comply typical volume constraints, a one-shot augmented Lagrangian method is proposed. Additionally, a multiphase optimization approach based on mesh-refinement is used to reduce the computational costs and the method is illustrated by classical minimum compliance problems. Finally, the topology optimization algorithm is applied to aero-elastic problems and numerical results are presented.
The startle response in psychophysiological research: modulating effects of contextual parameters
(2013)
Startle reactions are fast, reflexive, and defensive responses which protect the body from injury in the face of imminent danger. The underlying reflex is basic and can be found in many species. Even though it consists of only a few synapses located in the brain stem, the startle reflex offers a valuable research method for human affective, cognitive, and psychological research. This is because of moderating effects of higher mental processes such as attention and emotion on the response magnitude: affective foreground stimulation and directed attention are validated paradigms in startle-related research. This work presents findings from three independent research studies that deal with (1) the application of the established "affective modulation of startle"-paradigm to the novel setting of attractiveness and human mating preferences, (2) the question of how different components of the startle response are affected by a physiological stressor and (3) how startle stimuli affect visual attention towards emotional stimuli. While the first two studies treat the startle response as a dependent variable by measuring its response magnitude, the third study uses startle stimuli as an experimental manipulation and investigates its potential effects on a behavioural measure. The first chapter of this thesis describes the basic mechanisms of the startle response as well as the body of research that sets the foundation of startle research in psychophysiology. It provides the rationale for the presented studies, and offers a short summary of the obtained results. Chapter two to four represent primary research articles that are published or in press. At the beginning of each chapter the contribution of all authors is explained. The references for all chapters are listed at the end of this thesis. The overall scope of this thesis is to show how the human startle response is modulated by a variety of factors, such as the attractiveness of a potential mating partner or the exposure to a stressor. In conclusion, the magnitude of the startle response can serve as a measure for such psychological states and processes. Beyond the involuntary, physiological startle reflex, startle stimuli also affect intentional behavioural responses, which we could demonstrate for eye movements in a visual attention paradigm.
Ziel der Studie war es, die Wirksamkeit zweier psychotherapeutischer Mikrointerventionen zur Emotionsregulation und zur progressiven Relaxation und die damit einhergehenden Veränderungen auf psychometrischer und elektrokortikaler Ebene zu untersuchen. Die Stichprobe bestand aus 65 klinischen Versuchspersonen der Warteliste der Poliklinischen Psychotherapieambulanz der Universität Trier. In einer EEG-Erhebung vor und nach den Mikrointerventionen wurden neben dem Ruhe-EEG ereigniskorrelierte Potentiale (EKPs) aufgezeichnet. Im EKP-Paradigma wurden die Probanden instruiert negativ-valente Bilder aus dem IAPS-System entweder anzuschauen oder die gezeigte Situation kognitiv zu einer weniger negativen Interpretation der Bilder umzudeuten. Nach der EEG-Aufzeichnung wurden die Probanden randomisiert einer standardisierten 90-minütigen psychotherapeutischen Intervention zum kognitiven Reframing bzw. zur progressiven Relaxation zugewiesen. Im Anschluss wurde die EEG-Erhebung mit dem Ruhe-EEG und dem EKP mit einem parallelisierten Pool negativ valenter Bilder erneut durchgeführt. Auf psychometrischer Ebene wurde u.a. der positive und negative Affekt mit dem PANAS im Verlauf der Untersuchung zu insgesamt vier Messzeitpunkten erfasst. Neben dem Alpha-Frequenzband des Ruhe-EEGs wurde bei den EKPs die P3 und das Späte Positive Potential (LPP) untersucht. Die Ergebnisse geben Hinweise darauf, dass die psychotherapeutischen Mikrointerventionen zu differentiellen Effekten auf psychometrischer und elektrokortikaler Ebene führten. Auf der psychometrischen Ebene zeigte sich bei den Teilnehmern der Entspannungsintervention direkt nach der Intervention eine Abnahme des negativen Affekts, während sich dies bei den Teilnehmern der Reframing-Intervention erst im Verlauf der zweiten EEG-Messung mit dem Umdeuten der negativ valenten Bilder zeigte. Auf der elektrokortikalen Ebene waren die Ergebnisse weniger einheitlich. Durch die Entspannungs-Intervention konnte im Verlauf der Untersuchung eine Zunahme der P3-Amplituden festgestellt werden, während die Reframing-Teilnehmer über die Messzeitpunkte eine Abnahme der P3-Amplituden aufwiesen. Dies könnte so interpretiert werden, dass durch das Erlernen des Reframings das emotionale Arousal reduziert werden konnte. Bei dem LPP waren hingegen keine differentiellen Effekte der Mikrointerventionen nachweisbar. Bei beiden Interventionen kam es zu einer Zunahme der LPP-Amplituden. Bei der Analyse der Alpha-Aktivität des Ruhe-EEGs wurde bei den Entspannungs-Teilnehmern im Vergleich zu den Reframing-Teilnehmern nach der Mikrointervention eine größere Alpha-Aktivität gefunden. Diese Unterschiede wurden am deutlichsten in der linken Hemisphäre sowie in den zentralen und parietalen Hirnregionen. Eine höhere Alpha-Aktivität geht mit einer niedrigeren kortikalen Aktivität einher, so dass man davon ausgehen kann, dass die Entspannungs-Teilnehmer diese Hirnregionen während der Intervention weniger ausgeprägt nutzten. Zusammenfassend geben die Befunde erste Hinweise auf eine differentielle Wirkung der beiden Mikrointerventionen.
Thema der Untersuchung ist die Sklaverei im nördlichen Schwarzmeerraum (heute Ukraine und Südrußland), wofür die von der Forschung bislang wenig beachtete Quellengruppe der Grabreliefs ausgewertet wird. An erster Stelle steht dabei die Identifizierung möglicher Dienerdarstellungen anhand verschiedener ikonographischer Kriterien wie 1) dem Prinzip der Bedeutungsgröße bzw. der Bedeutungskleinheit, 2) Komposition und technische Ausführung, 3) Haltung, Gesten und Gebärden, 4) Kleidung und 5) Haartracht. Diese Kriterien werden auf ausgesuchte Grabreliefs aus dem Bosporanischen Reich, Chersonesos und Olbia angewendet. Nach Auswertung der literarischen Überlieferung kann als Ergebnis festgehalten werden, daß es sich bei den auf Grabreliefs regelmäßig erscheinenden Hausdienerinnen, Mundschenken und Waffenburschen in den meisten Fällen tatsächlich um Unfreie gehandelt hat. Die Dissertation widmet sich darüber hinaus der Frage nach dem Status der in Grabinschriften erwähnten threptoi und trophimoi; hierbei bestätigt die Analyse der Reliefs ältere Untersuchungsergebnisse, nach denen die Termini eine Beziehung zwischen Personen unterschiedlichen Ranges ausdrücken. Aufgrund der schmalen Materialbasis von nur vier Stelen können keine allgemeingültigen Aussagen zum Freigelassenenwesen im nördlichen Schwarzmeerraum getroffen werden. Allerdings läßt sich beobachten, daß sich die ehemaligen Sklaven entweder im bürgerlichen Habitus oder realistisch haben darstellen lassen. Abschließend wird nach der Funktion der Dienerfiguren im Bild gefragt. So dienten sie als Attribute zur Charakterisierung der Herrschaften und hatten die Aufgabe, deren hohen sozialen Rang vor Augen zu führen.
Die in einem Einzugsgebiet herrschende räumliche Inhomogenität wird im Wasserhaushaltsmodell LARSIM (Large Area Runoff Simulation Modell) in den einzelnen Modellkomponenten unterschiedlich stark berücksichtigt. Insbesondere die räumliche Verteilung der Abflussprozesse wurde bisher nicht berücksichtigt, weil keine flächenhaft verfügbare Information über eben diese Verteilung vorlag. Für das Einzugsgebiet der Nahe liegt nun seit dem Jahr 2007 eine Bodenhydrologische Karte vor, die flächenhaft den bei ausreichenden Niederschlägen zu erwartenden Abflussprozess ausweist. In der vorliegenden Dissertation wird die Nutzung dieser Prozessinformation bei der Parametrisierung des Bodenmoduls von LARSIM beschrieben: Für drei Prozessgruppen " gesättigter Oberflächenabfluss, Abfluss im Boden, Tiefenversickerung " werden mittels zweier neuer Parameter P_Bilanz und P_Dämpfung inhomogene Parametersätze aus empirisch ermittelten Kennfeldern gewählt, um die Prozessinformation bei der Abflussbildung im Modell zu berücksichtigen. Für die Abbildung der Prozessintensitäten in den Gebietsspeichern werden zwei unterschiedliche Ansätze vorgestellt, die sich in ihrer Komplexität unterscheiden. In der ersten Variante werden fünf Oberflächenabflussspeicher für unterschiedlich schnell reagierende Prozessgruppen eingeführt, in der zweiten Variante wird der erste Ansatz mit dem ursprünglichen Schwellenwert zur Aufteilung in schnelle und langsame Oberflächenabflusskomponenten kombiniert. Es wird gezeigt, dass die Parametrisierung mit den beiden neuen Parametern P_Bilanz und P_Dämpfung einfacher, effektiver und effizienter ist, da beide Parameter minimale Interaktionen aufweisen und in ihrer Wirkungsweise leicht verständlich sind, was auf die ursprünglichen Bodenparameter nicht zutrifft. Es wird ein Arbeitsfluss vorgestellt, in dem die neuen Parameter in Kombination mit Signature Measures und unterschiedlichen Darstellungen der Abflussdauerlinie gemeinsam genutzt werden können, um in wenigen Arbeitsschritten eine Anpassung des Modells in neuen Einzugsgebieten vorzunehmen. Die Methode wurde durch Anwendung in drei Gebieten validiert. In den drei Gebieten konnte in wenigen Kalibrierungsschritten die Simulationsgüte der ursprünglichen Version erreicht und " je nach Zielsetzung " übertroffen werden. Hinsichtlich der Gütemaße zeigte sich bei der Variante, in der die Gebietsspeicher nicht modifiziert wurden, aber kein eindeutiges Bild, ob die ursprüngliche Parametrisierung oder die neue grundsätzlich überlegen ist. Neben der Auswertung der Validierungszeiträume wurden dabei auch die simulierten Ganglinien in geschachtelten Gebieten betrachtet. Die Version, in der die Gebietsspeicher modifiziert wurden, zeigt hingegen vor allem im Validierungszeitraum tendenziell bessere Simulationsergebnisse. Hinsichtlich der Abbildung der Abflussprozesse ist das neue Verfahren dem alten deutlich überlegen: Es resultiert in plausiblen Anteilen von Abflusskomponenten, deren Verteilung und Abhängigkeit von Speicherkapazitäten, Landnutzungen und Eingangsdaten systematisch ausgewertet wurden. Es zeigte sich, dass vor allem die Speicherkapazität des Bodens einen signifikanten Einfluss hat, der aber im hydrologischen Sinn richtig und hinsichtlich der Modellannahmen plausibel ist. Es wird deutlich gemacht, dass die Einschränkungen, die sich ergeben haben, aufgrund der Modellannahmen zustande kommen, und dass ohne die Änderung dieser Annahmen keine bessere Abbildung möglich ist. Für die Zukunft werden Möglichkeiten aufgezeigt, wie die Annahmen modifiziert werden können, um eine bessere Abbildung zu erzielen, indem der bereits bestehende Infiltrationsansatz in die Methode integriert wird.
Ausgangspunkt der vorliegenden Untersuchung sind die deutlichen Unterschiede in den Ukrainepolitiken Polens und Tschechiens. Das Erkenntnisinteresse ist, worauf diese Unterschiede im außenpolitischen Verhalten zweier Staaten, die in der Außenpolitikforschung meistens als Vertreter einer relativ homogenen Gruppe betrachtet werden, zurückzuführen sind. Die Studie geht auf Basis bisheriger konstruktivistischer Forschung zur polnischen Sicherheitspolitik von der Hypothese aus, dass dies mit kulturellen Faktoren zu tun hat, speziell der unterschiedlichen sicherheitspolitischen Bewertung der Ukraine und Osteuropas im Allgemeinen sowie unterschiedlichen ukrainepolitischen Rollenkonzeptionen, die sich hieraus ergeben. Die Fragestellung lautet daher, welche ukrainebezogenen, sicherheitspolitisch motivierten Rollenkonzeptionen sich in Polen und Tschechien nach 1989 herausgebildet haben.Zur Beantwortung dieser Fragestellung wird zunächst auf Grundlage der Forschung zur politischen und zur strategischen Kultur das Konzept der sicherheitspolitischen Kultur entwickelt und die Rollentheorie als bislang in der diesbezüglichen Forschung kaum rezipiertes Analyseinstrument vorgestellt, das aus mehreren Gründen Vorteile gegenüber anderen Ansätzen hat. Methodisch wird eine wissenssoziologische Diskursanalyse durchgeführt, die als Instrument zur Erfassung von sozial konstruierter Wirklichkeit dient, sich aufgrund derselben metatheoretischen Grundlagen hervorragend in das Modell sicherheitspolitischer Kultur einfügt und daher für eine Analyse der Entstehung von Rollenkonzeptionen geeignet ist. Die Untersuchung ergibt, dass in Polen die Bedrohungskonstruktion einer möglichen Wiederkehr des russischen Imperiums zentral ist und eine unabhängige, stabilisierte Ukraine als Schutz hiergegen aufgefasst wird. Die sich ergebenden ukrainepolitischen Rollenkonzeptionen sind Teil eines weitgehend konsensuellen Komplexes sicherheitspolitischer Rollenkonzeptionen, die abgesehen von rollenspezifischen sicherheitspolitischen Zielen auch zentral durch die Bedrohungskonstruktion der politischen Marginalisierung motiviert und daher häufig als Führungsrollen charakterisierbar sind. Tschechien zeichnet sich hingegen durch das weitgehende Fehlen einer Bedrohungskonstruktion des russischen Imperialismus aus, stattdessen wird die Ukraine stärker als Quelle von Gefahren konstruiert. Zudem ist die sicherheitspolitische Kultur Tschechiens von einer konzeptionellen Unterkomplexität, einem Mangel an Konsens, einer Konstruktion Tschechiens als machtloser Akteur sowie einer Unterordnung der Außenpolitik unter innenpolitische Fragen gekennzeichnet. Daher fehlen im tschechischen Falle nicht nur jegliche ukrainepolitische Rollenkonzeptionen, es ist grundsätzlich ein Mangel an klaren Vorstellungen darüber festzustellen, welche Rollen Tschechien in der internationalen Politik spielen soll.
In der modernen Survey-Statistik treten immer häufifiger Optimierungsprobleme auf, die es zu lösen gilt. Diese sind oft von hoher Dimension und Simulationsstudien erfordern das mehrmalige Lösen dieser Optimierungsprobleme. Um dies in angemessener Zeit durchführen zu können, sind spezielle Algorithmen und Lösungsansätze erforderlich, welche in dieser Arbeit entwickelt und untersucht werden. Bei den Optimierungsproblemen handelt es sich zum einen um Allokationsprobleme zur Bestimmung optimaler Teilstichprobenumfänge. Hierbei werden neben auf einem Nullstellenproblem basierende, stetige Lösungsmethoden auch ganzzahlige, auf der Greedy-Idee basierende Lösungsmethoden untersucht und die sich ergebenden Optimallösungen miteinander verglichen.Zum anderen beschäftigt sich diese Arbeit mit verschiedenen Kalibrierungsproblemen. Hierzu wird ein alternativer Lösungsansatz zu den bisher praktizierten Methoden vorgestellt. Dieser macht das Lösen eines nichtglatten Nullstellenproblemes erforderlich, was mittels desrnnichtglatten Newton Verfahrens erfolgt. Im Zusammenhang mit nichtglatten Optimierungsalgorithmen spielt die Schrittweitensteuerung eine große Rolle. Hierzu wird ein allgemeiner Ansatz zur nichtmonotonen Schrittweitensteuerung bei Bouligand-differenzierbaren Funktionen betrachtet. Neben der klassischen Kalibrierung wird ferner ein Kalibrierungsproblem zur kohärenten Small Area Schätzung unter relaxierten Nebenbedingungen und zusätzlicher Beschränkung der Variation der Designgewichte betrachtet. Dieses Problem lässt sich in ein hochdimensionales quadratisches Optimierungsproblem umwandeln, welches die Verwendung von Lösern für dünn besetzte Optimierungsprobleme erfordert.Die in dieser Arbeit betrachteten numerischen Probleme können beispielsweise bei Zensen auftreten. In diesem Zusammenhang werden die vorgestellten Ansätze abschließend in Simulationsstudien auf eine mögliche Anwendung auf den Zensus 2011 untersucht, die im Rahmen des Zensus-Stichprobenforschungsprojektes untersucht wurden.
In this thesis, global surrogate models for responses of expensive simulations are investigated. Computational fluid dynamics (CFD) have become an indispensable tool in the aircraft industry. But simulations of realistic aircraft configurations remain challenging and computationally expensive despite the sustained advances in computing power. With the demand for numerous simulations to describe the behavior of an output quantity over a design space, the need for surrogate models arises. They are easy to evaluate and approximate quantities of interest of a computer code. Only a few number of evaluations of the simulation are stored for determining the behavior of the response over a whole range of the input parameter domain. The Kriging method is capable of interpolating highly nonlinear, deterministic functions based on scattered datasets. Using correlation functions, distinct sensitivities of the response with respect to the input parameters can be considered automatically. Kriging can be extended to incorporate not only evaluations of the simulation, but also gradient information, which is called gradient-enhanced Kriging. Adaptive sampling strategies can generate more efficient surrogate models. Contrary to traditional one-stage approaches, the surrogate model is built step-by-step. In every stage of an adaptive process, the current surrogate is assessed in order to determine new sample locations, where the response is evaluated and the new samples are added to the existing set of samples. In this way, the sampling strategy learns about the behavior of the response and a problem-specific design is generated. Critical regions of the input parameter space are identified automatically and sampled more densely for reproducing the response's behavior correctly. The number of required expensive simulations is decreased considerably. All these approaches treat the response itself more or less as an unknown output of a black-box. A new approach is motivated by the assumption that for a predefined problem class, the behavior of the response is not arbitrary, but rather related to other instances of the mutual problem class. In CFD, for example, responses of aerodynamic coefficients share structural similarities for different airfoil geometries. The goal is to identify the similarities in a database of responses via principal component analysis and to use them for a generic surrogate model. Characteristic structures of the problem class can be used for increasing the approximation quality in new test cases. Traditional approaches still require a large number of response evaluations, in order to achieve a globally high approximation quality. Validating the generic surrogate model for industrial relevant test cases shows that they generate efficient surrogates, which are more accurate than common interpolations. Thus practical, i.e. affordable surrogates are possible already for moderate sample sizes. So far, interpolation problems were regarded as separate problems. The new approach uses the structural similarities of a mutual problem class innovatively for surrogate modeling. Concepts from response surface methods, variable-fidelity modeling, design of experiments, image registration and statistical shape analysis are connected in an interdisciplinary way. Generic surrogate modeling is not restricted to aerodynamic simulation. It can be applied, whenever expensive simulations can be assigned to a larger problem class, in which structural similarities are expected.
Im querschnittlichen Vergleich zwischen 10- bis 18-jährigen Mädchen mit Major Depression und gleichaltrigen gesunden Probandinnen wiesen die depressiven Mädchen mehr Probleme, mehr körperliche und psychische Stresssymptome, erhöhte Cortisolsekretion sowie eine ungünstigere Stressverarbeitung auf. Im Längsschnitt zeigte sich die Bedeutsamkeit von psychischer Stressbelastung und der Einfluss von Bewältigungsstrategien auf den Verlauf der Depression.
Im Leistungssport ist ein gesunder Körper die Hauptvoraussetzung für das Erbringen sportlicher Höchstleistungen. Allerdings müssen Leistungssportler tagtäglich in Training und Wettkampf gesundheitliche Risiken eingehen. Aus diesem Dilemma wird ein Trilemma, sobald es sich um jugendliche Leistungssportler handelt, da das Jugendalter mit all den Veränderungen auf psychischer, physischer und sozialer Ebene, die es mit sich bringt, häufig das Einstiegsalter für gesundheitsrelevante Risikoverhaltensweisen wie den Konsum von Alkohol, Tabak und Marihuana bildet. Diese können zusätzlich Auswirkungen auf die Gesundheit und damit das Erbringen sportlicher Leistung haben. Aus diesem Grund war es das Ziel dieser Dissertation, das gesundheitsrelevante Risikoverhalten und die subjektive Gesundheit in der speziellen Gruppe jugendlicher Leistungssportler zu untersuchen, mit einer jugendlicher Referenzstichprobe bestehend aus Nicht-Leistungssportlern zu vergleichen und assoziierte Determinanten - sowohl individueller als auch kontextueller Natur - zu identifizieren. Dazu wurden im Rahmen der GOAL Study (German Young Olympic Athletes" Lifestyle and Health Management Study) 1.138 jugendliche Leistungssportler aller olympischer Disziplinen schriftlich befragt. Ausgewertet wurden neben der subjektiven Gesundheit der Konsum von Alkohol, Tabak und Marihuana, das Ernährungsverhalten und die Nutzung von Nahrungsergänzungsmitteln. Als Vergleichspopulation wurde der KiGGS (Kinder- und Jugendgesundheitssurvey) des Robert Koch-Instituts herangezogen. Es zeigte sich, dass jugendliche Leistungssportler zwar selten rauchten (3%) oder Marihuana konsumierten (3%), aber dass sie durchaus Alkohol zu sich nahmen (86%) und insbesondere Binge Drinking betrieben (24%). Bezüglich des Rauchverhaltens, des Konsums von Marihuana und des Jemalskonsums von Alkohol zeigten sie jedoch niedrigere Prävalenzen als jugendliche Nicht-Leistungssportler. Bei der Ernährung der Athleten ergaben sich teilweise Defizite. Lediglich 52% der Athleten nahmen täglich eine Auswahl an vitamin- und ballaststoffreichen Nahrungsmitteln zu sich, jedoch waren dies mehr als in der Referenzpopulation. Neun von zehn Athleten nutzten Nahrungsergänzungsmittel, davon konsumierten rund 30% täglich Supplemente. Die Mehrheit der Athleten bezeichnete ihre Gesundheit als gut oder sehr gut (89%), was einem größeren Anteil entspricht als in der Referenzgruppe (86%). Es fanden sich eine Vielzahl an individuellen und kontextuellen Determinanten mit den einzelnen Risikoverhaltensweisen und der subjektiven Gesundheit verknüpft. Insgesamt lässt sich festhalten, dass Beratung und Aufklärung bezüglich der einzelnen Risikoverhaltensweisen immens wichtig erscheinen. Beispiele für bestehenden Aufklärungsbedarf sind der übermäßige Alkoholkonsum, welcher Auswirkungen auf die Leistungsfähigkeit haben kann, die Einnahme von Nahrungsergänzungsmitteln wie Kreatin, welche für Jugendliche nicht unbedenklich ist, und der häufig vorliegende nicht-tägliche Konsum von vitamin- und ballaststoffreichen Lebensmitteln, welcher wichtig für eine adäquate Ernährung ist. Daher sollten bereits Athleten in niedrigeren Kaderstufen Experten (z. B. Ernährungsberater) zur Seite gestellt werden. Aber nicht nur die Athleten sollten besser geschult werden sondern auch deren Trainer, Betreuer und Eltern, die allesamt wichtige Bezugspersonen darstellen.
Bei synthetischen Simulationsgesamtheiten handelt es sich um künstlichernDaten, die zur Nachbildung von realen Phänomenen in Simulationen verwendetrnwerden. In der vorliegenden Arbeit werden Anforderungen und Methoden zur Erzeugung dieser Daten vorgestellt. Anhand von drei Beispielen wird gezeigt, wie erzeugte synthetische Daten in einer Simulation zur Anwendung kommen.
Die Evangelische Kirche in Deutschland (EKD) ist eine der größten Nonprofit-Organisationen in Deutschland. Sie ist ein sehr heterogenes Gebilde aus (zum Zeitpunkt der Untersuchung) 22 Landeskirchen unterschiedlichen Bekenntnisses mit jeweils eigenen Organisationsstatuten und rechtlichen Regelungen. Lokale Anlaufpunkte für ihre 23,9 Millionen Mitglieder (Stand Ende 2010) sind die Gemeinden. Sie verwalten sich weitgehend selbständig und werden von gewählten und berufenen Ehrenamtlichen sowie dem oder den Geistlichen der Gemeinde geleitet. Ein Mitglieder- und Einnahmerückgang bewirkt steigende Anforderungen an die Gemeindeleitung und die Notwendigkeit umfassender organisatorischer Veränderungen, die einen groß angelegten Reformprozess in der EKD angestoßen hat. Dies führt u.a. zu Zusammenlegungen von Landeskirchen und Kirchengemeinden, Pfarrstellenkürzungen und einer Reduzierung kirchlicher Gebäude. Auch hiervon sind die Gemeinden und ihre Leitungsgremien betroffen. Ziel der Arbeit ist, vor diesem Hintergrund die Gemeindeleitung (mit Fokus auf den ehrenamtlichen Gemeindeleitern) und die Entscheidungsprozesse in den Leitungsgremien explorativ zu beleuchten. Die Betrachtung erfolgt aus einer verfügungsrechtlichen Perspektive und rückt damit die Handlungsspielräume, die Einstellungen und das Entscheidungsverhalten der ehrenamtlichen Gemeindeleiter in den Fokus. Zunächst werden die aktuellen Herausforderungen für die Gemeinden sowie die Themen und unterschiedlichen Ansätze in der Reformdebatte betrachtet. Es folgt eine Darlegung der Einflussmöglichkeiten der Gemeindeleiter auf die Situation ihrer Gemeinde. Hierzu werden die für die Dienstleistungsproduktion von Gemeinden relevanten Entscheidungsfelder, wichtige Kenngrößen für die Gemeindearbeit und die von den Gemeindeleitern beeinflussbaren Entscheidungsvariablen ermittelt. Es folgt eine Analyse der verfügungsrechtlichen Arrangements der 22 Landeskirchen der EKD für die Gemeindeleitung. Für den angestrebten Organisationsvergleich sind Regelungsaspekte von Interesse, deren Ausgestaltung in einzelnen Landeskirchen stark voneinander abweicht. Für die empirische Untersuchung werden konkret die drei Aspekte 'Grad der Selbständigkeit des Gemeindeleitungsgremiums', 'Einflussverteilung zwischen Pfarrern und Ehrenamtlichen im Gremium' sowie 'Haftungsregelungen für die ehrenamtlichen Gemeindeleiter' ausgewählt. Zu den Auswirkungen der unterschiedlichen Ausgestaltung dieser drei Regelungsaspekte werden Hypothesen aufgestellt, die anhand von Fallstudien überprüft werden sollen. Hierfür wurden mit der Evangelischen Kirche in Hessen und Nassau, der Evangelischen Kirche von Kurhessen-Waldeck und der Evangelisch-reformierten Kirche drei Landeskirchen selektiert, die in den genannten Bereichen sehr unterschiedliche Regelungen aufweisen. Den Kern der Arbeit bildet eine explorative vergleichende Untersuchung der unterschiedlichen verfügungsrechtlichen Rahmenbedingungen in den ausgewählten Landeskirchen und ihrer Auswirkung auf das Entscheidungsverhalten der ehrenamtlichen Gemeindeleiter. Auf der Basis von Interviews mit rechtlich versierten Vertretern der drei Landeskirchen werden die historischen Hintergründe für die unterschiedliche rechtliche Ausgestaltung sowie die praktische Relevanz und Anwendbarkeit der einzelnen Regelungen analysiert. Zusätzlich werden für die gemeindlichen Fallstudien wichtige Veränderungs- / Entscheidungsprozesse mit aktuell großer Bedeutung für die Gemeinden ermittelt. Dies sind konkret der Gemeindezusammenschluss, die Pfarrstellenbesetzung und die Durchführung einer großen Baumaßnahme. Für die gemeindliche Untersuchung wurden für jede der drei Landeskirchen drei bis vier Gemeinden (insgesamt 11) ausgewählt, die mindestens einen der drei genannten Prozesse gerade durchliefen oder abgeschlossen hatten. Für jeden ausgewählten Prozess wird damit in jeder Landeskirche mindestens ein Fall betrachtet. An die ehrenamtlichen Gemeindeleiter der selektierten Gemeinden adressierte Fragebögen geben Aufschluss zu ihren Motivstrukturen. Mittels eine Clusteranalyse werden dabei sechs unterschiedliche Gemeindeleitertypen mit verschiedenen Motiven und Schwerpunkten ermittelt und vorgestellt. Anhand von mit den ehrenamtlichen Vorsitzenden der Gemeinden geführten Interviews werden schließlich die durchlaufenen Entscheidungsprozesse beleuchtet. Auf Basis der Erkenntnisse aus den Interviews und den Fragebögen wird analysiert, wie sich die unterschiedlichen verfügungsrechtlichen Rahmenbedingungen in den drei Landeskirchen auf das Entscheidungsverhalten verschiedener Gemeindeleitertypen und damit auf die Entscheidungsprozesse und -ergebnisse in den Gemeinden auswirken. Dabei werden die zuvor aufgestellten Hypothesen anhand der vornehmlich qualitativen Auswertungen überprüft. Abschließend werden die gewonnenen Erkenntnisse in die Reformdebatte eingeordnet und konkrete organisatorische Gestaltungsvorschläge abgeleitet.
Michel Foucaults Überlegungen zu Wahrheits- und Erfahrungsbüchern zugrunde legend, untersucht die Promotionsschrift Wechselwirkungen von Fremd- und Selbstrepräsentation, von Repräsentation und Subjektkonstitution und fragt ausgehend von diesen Zusammenhängen nach einer möglichen Poetik entsubjektivierender Erfahrungsbücher. Exemplarisch nachgezeichnet werden die oft paradoxalen Effekte dieser Wechselwirkungen zunächst anhand des kriminalisierenden und pathologisierenden Diskurses über Jenische und der daran anknüpfenden Ausarbeitung jenischer Subjektpositionen im Zuge der politischen Selbstrepräsentation der Schweizer Minderheit seit den 1970er Jahren. Die in diesem Kontext entstandenen literarisch-publizistischen Texte der Schweizer Autorin und ehemaligen jenischen Bürgerrechtlerin Mariella Mehr, in denen sich ebenfalls normalisierende, am Wahrheitsdiskurs orientierte Ausarbeitungen jenischer Subjektpositionen finden, werden als Wahrheitsbücher im Sinne Foucaults gelesen. An Mehrs späten Texten wird daran anschließend gezeigt, wie mittels einer Hyperbolisierung des Wahrheitsdiskurses in Kombination mit sich durchkreuzenden auto- und heteroreferentiellen Erzählverfahren der von Foucault im Interview mit Ducio Trombadori beschriebene entsubjektivierende Effekt eines Erfahrungsbuches erreicht werden kann.
One of the main tasks in mathematics is to answer the question whether an equation possesses a solution or not. In the 1940- Thom and Glaeser studied a new type of equations that are given by the composition of functions. They raised the following question: For which functions Ψ does the equation F(Ψ)=f always have a solution. Of course this question only makes sense if the right hand side f satisfies some a priori conditions like being contained in the closure of the space of all compositions with Ψ and is easy to answer if F and f are continuous functions. Considering further restrictions to these functions, especially to F, extremely complicates the search for an adequate solution. For smooth functions one can already find deep results by Bierstone and Milman which answer the question in the case of a real-analytic function Ψ. This work contains further results for a different class of functions, namely those Ψ that are smooth and injective. In the case of a function Ψ of a single real variable, the question can be fully answered and we give three conditions that are both sufficient and necessary in order for the composition equation to always have a solution. Furthermore one can unify these three conditions to show that they are equivalent to the fact that Ψ has a locally Hölder-continuous inverse. For injective functions Ψ of several real variables we give necessary conditions for the composition equation to be solvable. For instance Ψ should satisfy some form of local distance estimate for the partial derivatives. Under the additional assumption of the Whitney-regularity of the image of Ψ, we can give sufficient conditions for flat functions f on the critical set of Ψ to possess a solution F(Ψ)=f.
Der Titel der Dissertation enthält bereits die inhaltlichen Vorgaben, die zu Grund gelegt werden. Wie nämlich gelingt es Eckhart insbesondere in seinen deutschen Predigten, den Erfahrungsbereich Gott zu verbalisieren? Bei der Untersuchung der Frage, wie Gott - dem eine eigene, den Menschen nur bedingt erfahrbare Wirklichkeit zugrunde liegt - wie er also zur Sprache gebracht werden kann, ist es erforderlich, sich über die Wirklichkeit und ihre Beziehungen zu Gott und den Menschen klar zu werden. Mir geht es darum, die Problematik des Verhältnisses von Mensch und Gott in Beziehung zum Glaubensleben in einer tiefen geistig-geistlichen Durchdringung transparent zu machen. Konkreter: Bei der Textuntersuchung geht es um die Interpretation sprachlicher Äußerungen im Hinblick auf die darin zur Sprache gebrachte Erfahrung der Wirklichkeit Gottes. Bereits in dieser groben Skizzierung wird deutlich, dass sich die Untersuchung nicht alleine auf eine wissenschaftliche Disziplin beschränkt, sondern in ihrem interdisziplinären Charakter Fragen der Germanistik, der Philosophie und Theologie gleichermaßen berührt. Die Aufgabenstellung der Dissertation an sich und der Versuch, sich Meister Eckhart und seiner Gedankenwelt in seinen deutschen Predigten zu nähern, implizierte bereits die dann zugrunde gelegte methodische Vorgehensweise. Im Mittelpunkt der Untersuchung stand zwangsläufig Eckharts deutsches Predigtkorpus. Als textliche Grundlage habe ich mich für die Largier-Ausgabe entschieden, weil sie m. E. die am besten handhabbare Ausgabe war. Wichtig war für mich, Eckhart so oft als möglich selbst zu Wort kommen zu lassen. Das bedeutete eine dezidiert intensive Auseinandersetzung mit seinen Predigten einerseits und andererseits einer kritischen Würdigung der Sekundärliteratur. Den Gedankengang dieser weiter zu verfolgen und neue Deutungsebenen zu erschließen, gehörten ebenso zum methodischen Procedere. Zuerst war aber das geistig-geistliche Umfeld ME-´s in den Blick zu nehmen. Grundsätzlich ist zum Gesamtverständnis seines Werkes wichtig, ihn als Dominikaner zu begreifen. Zum Selbstverständnis dieses Bettelordens gehört seine intellektuelle Ausrichtung, die für Eckharts Erkenntnislehre fundamental ist: Demnach ist das Erkennen die Grundlage von Gottes Sein und steht sogar höher als das Sein. Wort und Intellekt haben Vorrang vor dem Sein. Gott ist das Sein dadurch, weil er denkt. Alles Sein ist abgeleitet vom Intellekt. Die Auseinandersetzung mit den theologisch-philosophischen Strömungen seiner Zeit war maßgebend für das weitere Verständnis von Eckharts Gedankenwelt. So wurden zunächst Fragen geklärt, wie Eckhart in seiner Zeit, nämlich der Schwelle zum 14. Jahrhundert, zu verorten ist. Ebenso wurden die Denker in ihrer Beziehung und Rezeption Eckharts vorgestellt: Plotin, Dionysius Areopagita, auf theologischer Seite insbesondere Augustinus und Albertus Magnus. Gleiches gilt für die weiblichen Vordenkerinnen Margarete Porete, Mechthild von Magdeburg und Schwester Hadewijch von Antwerpen. Wie sich Eckharts Christologie und theologische Anthropologie in seinen Predigten niederschlägt, welche Bedeutung er des Menschen Durchbruch und Sprung in Gottes Sphäre zubilligt, wie sich Gottesgeburt im Menschen ereignet und damit neue Wirklichkeiten konstituiert, wurden weiterhin dargelegt. ME ist nicht leicht zu fassen und festzulegen. Er, der selbst kein eigenes Lehrsystem und keine Dogmen entwickelt hat, lässt sich in keine Schablone pressen. Am ehesten greifbar ist Eckhart, wenn man erkennt, dass für ihn Sprache mehr ist als ein Vehikel, um göttliche Botschaften in Alltägliche zu transformieren. Bei Eckhart transzendiert Sprache selbst: Sprache beschreibt eine Wirklichkeit, die selbst wiederum Teil der Wirklichkeit ist. Gott kommuniziert nicht nur informierend, sondern sich selbst, Kommunikation ist Beziehungstheologie im trinitarischen Sinne, die gleichzeitig neue Wirklichkeiten schafft.
Optimal control problems are optimization problems governed by ordinary or partial differential equations (PDEs). A general formulation is given byrn \min_{(y,u)} J(y,u) with subject to e(y,u)=0, assuming that e_y^{-1} exists and consists of the three main elements: 1. The cost functional J that models the purpose of the control on the system. 2. The definition of a control function u that represents the influence of the environment of the systems. 3. The set of differential equations e(y,u) modeling the controlled system, represented by the state function y:=y(u) which depends on u. These kind of problems are well investigated and arise in many fields of application, for example robot control, control of biological processes, test drive simulation and shape and topology optimization. In this thesis, an academic model problem of the form \min_{(y,u)} J(y,u):=\min_{(y,u)}\frac{1}{2}\|y-y_d\|^2_{L^2(\Omega)}+\frac{\alpha}{2}\|u\|^2_{L^2(\Omega)} subject to -\div(A\grad y)+cy=f+u in \Omega, y=0 on \partial\Omega and u\in U_{ad} is considered. The objective is tracking type with a given target function y_d and a regularization term with parameter \alpha. The control function u takes effect on the whole domain \Omega. The underlying partial differential equation is assumed to be uniformly elliptic. This problem belongs to the class of linear-quadratic elliptic control problems with distributed control. The existence and uniqueness of an optimal solution for problems of this type is well-known and in a first step, following the paradigm 'first optimize, then discretize', the necessary and sufficient optimality conditions are derived by means of the adjoint equation which ends in a characterization of the optimal solution in form of an optimality system. In a second step, the occurring differential operators are approximated by finite differences and the hence resulting discretized optimality system is solved with a collective smoothing multigrid method (CSMG). In general, there are several optimization methods for solving the optimal control problem: an application of the implicit function theorem leads to so-called black-box approaches where the PDE-constrained optimization problem is transformed into an unconstrained optimization problem and the reduced gradient for these reduced functional is computed via the adjoint approach. Another possibilities are Quasi-Newton methods, which approximate the Hessian by a low-rank update based on gradient evaluations, Krylov-Newton methods or (reduced) SQP methods. The use of multigrid methods for optimization purposes is motivated by its optimal computational complexity, i.e. the number of required computer iterations scales linearly with the number of unknowns and the rate of convergence, which is independent of the grid size. Originally multigrid methods are a class of algorithms for solving linear systems arising from the discretization of partial differential equations. The main part of this thesis is devoted to the investigation of the implementability and the efficiency of the CSMG on commodity graphics cards. GPUs (graphic processing units) are designed for highly parallelizable graphics computations and possess many cores of SIMD-architecture, which are able to outperform the CPU regarding to computational power and memory bandwidth. Here they are considered as prototype for prospective multi-core computers with several hundred of cores. When using GPUs as streamprocessors, two major problems arise: data have to be transferred from the CPU main memory to the GPU main memory, which can be quite slow and the limited size of the GPU main memory. Furthermore, only when the streamprocessors are fully used to capacity, a remarkable speed-up comparing to a CPU is achieved. Therefore, new algorithms for the solution of optimal control problems are designed in this thesis. To this end, a nonoverlapping domain decomposition method is introduced which allows the exploitation of the computational power of many GPUs resp. CPUs in parallel. This algorithm is based on preliminary work for elliptic problems and enhanced for the application to optimal control problems. For the domain decomposition into two subdomains the linear system for the unknowns on the interface is solved with a Schur complement method by using a discrete approximation of the Steklov-Poincare operator. For the academic optimal control problem, the arising capacitance matrix can be inverted analytically. On this basis, two different algorithms for the nonoverlapping domain decomposition for the case of many subdomains are proposed in this thesis: on the one hand, a recursive approach and on the other hand a simultaneous approach. Numerical test compare the performance of the CSMG for the one domain case and the two approaches for the multi-domain case on a GPU and CPU for different variants.
Psychotherapeutische Maßnahmen wirken im Mittel, doch ist unklar, ob eine Therapie bei einem konkreten Patienten auch ihre (maximale) Wirkung zeigt. Befunde der Patientenorientierten Versorgungsforschung zur Wirksamkeit von Feedback zeigen, dass eine Verbesserung des Therapieergebnisses durch Qualitätssicherungsmaßnahmen wie z.B. kontinuierliches Monitoring möglich ist. Diese Forschung und ihre praktische Anwendung machen es nötig, Daten am Einzelfall wiederholt zu erheben. Damit wird es unumgänglich, die Messungen effizienter zu gestalten. Diese Arbeit widmet sich der Frage, wie Mischverteilungsmodelle (Item Response/ Rasch-Modell sowie Latent Profile Analysis) dazu genutzt werden können, Fragebögen (weiter-) zu entwickeln, die mit kürzerem Umfang für diese Zwecke besser eingesetzt werden können. Gegen die Verwendung von Mischverteilungsmodellen sprach lange, dass spezielle Software und Training erforderlich waren und dies im Praxiskontext nicht machbar war. Mit R steht eine freie Softwareumgebung zur Verfügung, die die Schätzung einer ganzen Fülle von Modellen möglich macht, auch von Mischverteilungsmodellen. Da Qualitätssicherung bei frei verfügbarer Software nötig ist, widmet sich Studie I der Frage, ob drei zentrale Pakete zur Schätzung von Rasch-Modellen in der R-Umgebung (eRm, ltm, mixRasch; Details siehe unten) zu akzeptablen Schätzergebnissen führen, d.h. zur Nutzung empfohlen werden können. Hierzu wurden in einer Simulationsstudie die Itemzahl, Stichprobengröße und Verteilung der Stichprobe systematisch variiert und der Effekt auf die Schätzgenauigkeit geprüft. Es zeigte sich, dass alle drei Schätzalgorithmen unter den realisierten Bedingungen zu zufriedenstellenden Genauigkeiten kommen und die Verteilungsform unter den gewählten Bedingungen keinen Einfluss auf die Genauigkeit hatte. Studie II nutzte das Rasch-Modell um für ein Maß psychischer Belastung Kurzformen für spezifische Erhebungszwecke zu entwickeln: (1) verkürzte Erhebung beim Screening und (2) verkürzte Erfassung im hohen Belastungsbereich. Die Kurzformen wurden mittels Bootstrap und Kreuzvalidierung dahingehend geprüft, ob sie replizierbar eine bessere Messqualität erbrachten als andere Itemauswahlen aus dem Fragebogen, was sich bestätigte. Durch die Verwendung des Rasch-Modells sind die so erstellten Kurzformen miteinander und auch mit der Vollversion vergleichbar. Dies macht auch ohne die Verwendung spezieller Software (teil-)adaptives Testen möglich. Studie III untersuchte wie drei Methoden genutzt werden können um festzustellen, welche Items eines Tests sich über den Verlauf einer Therapie als veränderungssensitiv erweisen. Hierzu wurden mittels einer Bevölkerungsstichprobe und den Prä- und Post-Erhebungen einer ambulanten Behandlungsstichprobe Items aus einer Beschwerden-Skala verwendet. Die drei Methoden waren (1) herkömmliche Mittelwertsvergleiche, (2) Auswahl über Bootstrap-Konfidenzintervalle und (3) Auswahl mittels einer Latent Profile Analysis, die latente Klassen von Varianzmustern um die Itemmittelwerte schätzte. Das Bootstrap-Verfahren erwies sich am Konservativsten (4 Items) während die Auswahl mittels herkömmlicher Mittelwertsvergleiche am liberalsten war (9 Items). Die Effektstärken und Reliabilitäten der Kurzfassungen waren alle im akzeptablen Bereich. Die Diskussion beginnt mit einer knappen Zusammenfassung der Ergebnisse der drei Studien. Im Anschluss werden die Ergebnisse der Studien auf übergreifende Aspekte bezogen. Dies sind faktorielle Validität, die Angemessenheit von Item Response Modellen zur Repräsentation psychische Belastung und die Anforderungen, die Kurzversionen letztlich erfüllen können. Insgesamt lässt sich festhalten, dass die Methoden nützliche Werkzeuge zur spezifischen Untersuchung von Skalen und zur Erstellung von Kurzformen darstellen. Besonders der in Studie II vorgestellte Bootstrap-Test der Itemauswahl stellt eine relevante Ergänzung der etablierten Vorgehensweise dar, da er empirisch belegt, dass die Auswahl für den jeweiligen Zweck einer Kurzform besser geeignet ist, als andere Items. Klinisch lässt sich festhalten, dass mit statischen Kurzversionen etablierter Messinstrumente auch in Erhebungskontexten ohne computerisierte Erhebungsmethoden hochqualitative Erhebungen durchgeführt werden können.
In dieser Dissertation wird das bürgerliche Trauerspiel von Lessing bis Hebbel aus Sicht der Gender Studies und der Kulturwissenschaft untersucht. Zuerst lässt sich das Folgende über den Zusammenhang von Geschlechterdifferenz und bürgerlichem Trauerspiel erschließen: Die dramatis personae in den bürgerlichen Dramen inkarnieren in extremer Weise die männlich-orientierte Geschlechterdifferenz der bürgerlichen Zeit und demonstrieren deutlich die allumfassende Bedeutung von Vaterschaft und Männlichkeit. Trotzdem ist es von Nöten, die Tochterfiguren, die in Konflikt mit diesen Vaterfiguren geraten, hinsichtlich ihrer Bestrebung die männlich-dominierte Geschlechterdifferenz zu überwinden und ihrer aufklärerischen Ideale wie Selbstständigkeit und Selbstbewusstsein zu betrachten. Die abwesenden, unmündigen und gesellschaftsorientierten Mütter (mater societastis) sowie die grausamen Mütter bzw. bösen Frauen (mater et mulier male) werden in extremer Weise durch die männlich-orientierte Tradition und Kultur dargestellt. Deshalb gilt es bei allem emanzipatorischem Potenzial, das durch die Darstellungen der guten Mutterschaft (mater domestica) durch die Ersatzmutterfiguren und die Adoptionsidee verwirklicht wird, zu betonen, dass diese neuen Verwandtschaftsformen nicht aus neutraler Sicht bzw. nicht aus dem Interesse des Weiblichen, sondern aus männlicher Sicht dargestellt und vorgestellt werden.
Dieser Fragebogenstudie im Längsschnittdesign liegen die Antworten von initial 169 stationären Patienten mit chronischen Schmerzen aus der orthopädischen Rehabilitation zugrunde. Anhand dessen wurden Aspekte religiöser Krankheitsverarbeitung bei der psychischen Anpassung an chronische Schmerzen untersucht. An der Verbesserung des körperlichen Befindens über die Zeit zeigte "negatives religiöses Coping" einen inversen Beitrag, der durch die Mediatorvariable "Hilflosigkeit" vermittelt wird. Für "positives religiöses Coping" war kein Beitrag zur Anpassung nachzuweisen. In der Behandlung von Schmerzpatienten gilt es von daher, religiöses Hadern sowie dahinterliegende psychologischen Mechanismen zu berücksichtigen.
In der Forschung zur aktuellen Prozessdynamik der Bodenerosion sind Niederschlagssimulationen mit kleinen mobilen Beregnungsanlagen (KBA) ein unverzichtbarer Bestandteil. Weltweit werden sehr viele KBA unterschiedlicher Bauart, Plotgrößen, Tropfenerzeugung, Niederschlagsintensitäten, und -spektren eingesetzt. Eine Standardisierung der Anlagen ist aufgrund der Verschiedenheit der Forschungsfelder und -fragen nicht in Sicht. Darüber hinaus sind die erzeugten Niederschläge (Nd) der Anlagen unzureichend genau charakterisiert und es liegt keine einheitliche Datenbasis aller relevanten Parameter vor. Zudem werden mit KBA bisher ausschließlich Starkregen unter windstillen Bedingungen simuliert, obwohl Wind einen deutlichen Einfluss auf fallende Regentropfen ausübt. Die vorliegende Arbeit gliedert sich in drei Teile: (1) Weiterentwicklung und Anwendung von KBA: Wie lässt sich die Performance der Trierer KBA optimieren und eine einheitliche Mess- und Kalibrierungsmethode für den simulierten Niederschlag definieren? Welche Anforderungen, Möglichkeiten, Grenzen und Anwendungsbereiche gibt es? (2) Vergleich verschiedener Typen von KBA im Gelände: Inwieweit sind Nd-Charakteristika, Oberflächen-¬abflussgenerierungen und Bodenabträge europäischer KBA vergleichbar? (3) Implemen-¬tierung von windbeschleunigtem Regen in KBA mit dem neuen mobilen Trierer Windregenkanal (WiReKa): Wie kann Wind in ein KBA-Setting integriert werden? Wie sind Unterschiede von Erosionsraten mit und ohne Windeinfluss in-situ zu quantifizieren und wie hoch fallen sie aus? Im ersten Teil der Arbeit wurde zunächst die Nd-Charakteristik der langjährig von der Physischen Geographie eingesetzten KBA mit unterschiedlichen, weltweit angewandten Messmethoden untersucht. Dabei zeigten sich einige Schwächen der KBA bezüglich ihrer Funktionalität. Der Einsatz verschiedener Mess-¬methoden zur Charakterisierung des künstlich erzeugten Nd führte zu sehr unterschiedlichen Ergebnissen. Mittels Laser-Niederschlags-Monitor (LNM) und Nd-Sammlern wurde daher ein einheitliches Testverfahren entwickelt, das eine detaillierte Aufnahme, Auswertung und Darstellung der relevanten Nd-Parameter nahezu aller KBA-Designs ermöglicht. Mit Hilfe dieses Testverfahrens wurden Nd-Charakteristik, Funktionalität und Mobilität der Trierer KBA durch technische Veränderungen deutlich verbessert. Alle Parameter dieser Anlage sind nun bekannt und lassen sich zuverlässig reproduzieren. Die Anforderungen, Möglichkeiten und Grenzen des Einsatzes von KBA wurden detailliert erarbeitet und beschrieben. Auf dem "International Rainfall Simulator Workshop" in Trier konnte mit 40 Wissenschaftlern aus 11 Nationen Einigkeit über grundlegende Aspekte beim Bau und Einsatz von KBA erzielt werden. Der zweite Teil der Arbeit stellt die Arbeitsmethoden und Ergebnisse eines in internationaler Kooperation durchgeführten Projektes zu Messmethoden und Vergleichbarkeit von Simulatordesigns und Nd-Charakteristika unterschiedlicher europäischer KBA vor. An 13 Instituten in Deutschland, den Niederlanden, der Schweiz und Spanien wurde mit dem Trierer Testverfahren eine einheitliche Datenbasis aller wesentlichen Nd-Parameter erstellt. Im praktischen Teil des Rainfall Simulator Workshop in Trier wurden dann vergleichende Versuche mit sieben KBA auf einer universitätsnahen Versuchsfläche zur Oberflächenabflussgenerierung und zum Bodenabtrag durchgeführt. Vor allem die (maximale) Sedimentkonzentration einer Simulation hat sich dabei als gute Vergleichsgröße herausgestellt. Differenzen in den gemessenen Oberflachenabfluss- und Sedimentmengen sind ganz klar unterschiedlichen Nd zuzuordnen. Der zeitliche Ablauf des Oberflächenabfluss- und Erosionsverhalten differiert dagegen nur bei zunehmender Plotgröße. Im dritten Teil der Arbeit wird analysiert, wie windbeschleunigter Regen in einer KBA simuliert werden kann. Darüber hinaus wurde eine spezielle Testreihenfolge für die Erosionsmessungen entwickelt, deren Praktikabilität sich in der Anwendung bewährt hat. Es konnten stark erhöhte Abtragsraten aufgrund der Zuschaltung von Wind zu der Regensimulation auf kohäsionslosem sandigen Substrat quantifiziert werden. Das Dissertationsprojekt kann auf mehreren Ebenen als erfolgreich angesehen werden: Die Arbeit mit den Trierer KBA konnte qualitativ verbessert werden insofern, als die Anlagenparameter optimiert und die Güte der produzierten Daten gewährleistet werden konnte. Darüber hinaus konnten die gewonnenen Erkenntnisse durch eine gezielte internationale Vernetzung in Wert gesetzt und die Zusammenarbeit auf der operationalen Ebene gestärkt werden.
Als Möglichkeiten zur Steigerung der Nachhaltigkeit einer stationären Rehabilitation stehen aktuell vor allem zwei Varianten der Nachbehandlung im Mittelpunkt des wissenschaftlichen Interesses - einerseits wird eine solche Nachsorge häufig über persönliche (Telefon)Kontakte realisiert, andererseits werden auch immer öfter die Möglichkeiten des Einsatzes neuer Medien untersucht. Um eine vergleichende Betrachtung dieser beiden Nachsorgevarianten zu ermöglichen, wurde im Rahmen der vorliegenden Arbeit ein individuelles, indikationsübergreifendes und ortsunabhängiges Nachsorgeangebot entwickelt und parallel auf eben diese beiden Arten realisiert (persönlich-telefonisch vs. web-basiert), die Untersuchung der Effektivität erfolgte mittels einer randomisierten kontrollierten Mehrzeitpunktbefragung. Alle teilnehmenden Patientinnen und Patienten wurden noch während ihres Rehabilitationsaufenthalts zu einer von drei Gruppen randomisiert: eine Gruppe wurde persönlich-telefonisch nachbetreut, eine Gruppe erhielt Zugang zu einer für diesen Zweck erstellten Internet-Plattform, die dritte Gruppe erhielt keinerlei Nachsorge und diente als Kontrollgruppe. Zu insgesamt vier Messzeitpunkten (Aufnahme, Entlassung, 3-monats- und 12-monats Katamnese) wurde die berichtete Symptombelastung hinsichtlich Depressivität, psychosomatischer Beschwerden und gesundheitsbezogener Lebensqualität erfasst. Aufgrund der vorliegenden Ergebnisse scheint vornehmlich die minimale Intervention der automatisierten web-basierten Nachsorge einen statistisch abgesicherten positiven Effekt auf die Nachhaltigkeit der betrachteten Ergebnismaße nach einer stationären psychosomatischen Rehabilitation zu haben und kann folglich als der vielversprechendere Ansatz zur Verbesserung der Nachhaltigkeit von erzielten Rehabilitationseffekten gesehen werden.
Bei der Preisberechnung von Finanzderivaten bieten sogenannte Jump-diffusion-Modelle mit lokaler Volatilität viele Vorteile. Aus mathematischer Sicht jedoch sind sie sehr aufwendig, da die zugehörigen Modellpreise mittels einer partiellen Integro-Differentialgleichung (PIDG) berechnet werden. Wir beschäftigen uns mit der Kalibrierung der Parameter eines solchen Modells. In einem kleinste-Quadrate-Ansatz werden hierzu Marktpreise von europäischen Standardoptionen mit den Modellpreisen verglichen, was zu einem Problem optimaler Steuerung führt. Ein wesentlicher Teil dieser Arbeit beschäftigt sich mit der Lösung der PIDG aus theoretischer und vor allem aus numerischer Sicht. Die durch ein implizites Zeitdiskretisierungsverfahren entstandenen, dicht besetzten Gleichungssysteme werden mit einem präkonditionierten GMRES-Verfahren gelöst, was zu beinahe linearem Aufwand bezüglich Orts- und Zeitdiskretisierung führt. Trotz dieser effizienten Lösungsmethode sind Funktionsauswertungen der kleinste-Quadrate-Zielfunktion immer noch teuer, so dass im Hauptteil der Arbeit Modelle reduzierter Ordnung basierend auf Proper Orthogonal Decomposition Anwendung finden. Lokale a priori Fehlerabschätzungen für die reduzierte Differentialgleichung sowie für die reduzierte Zielfunktion, kombiniert mit einem Trust-Region-Ansatz zur Globalisierung liefern einen effizienten Algorithmus, der die Rechenzeit deutlich verkürzt. Das Hauptresultat der Arbeit ist ein Konvergenzbeweis für diesen Algorithmus für eine weite Klasse von Optimierungsproblemen, in die auch das betrachtete Kalibrierungsproblem fällt.
Krylov subspace methods are often used to solve large-scale linear equations arising from optimization problems involving partial differential equations (PDEs). Appropriate preconditioning is vital for designing efficient iterative solvers of this type. This research consists of two parts. In the first part, we compare two different kinds of preconditioners for a conjugate gradient (CG) solver attacking one partial integro-differential equation (PIDE) in finance, both theoretically and numerically. An analysis on mesh independence and rate of convergence of the CG solver is included. The knowledge of preconditioning the PIDE is applied to a relevant optimization problem. The second part aims at developing a new preconditioning technique by embedding reduced order models of nonlinear PDEs, which are generated by proper orthogonal decomposition (POD), into deflated Krylov subspace algorithms in solving corresponding optimization problems. Numerical results are reported for a series of test problems.
Die Einführung leistungsorientierter Entgeltsysteme stellt Mitarbeiter und Unternehmen vor besondere Herausforderungen. Dabei verändert sich vor allem die Rolle des Mitarbeiters. War er vormals Ausführender der ihm übertragenen Arbeitsaufgaben, wird er zunehmend zum eigenverantwortlichen Gestalter und Mitunternehmer. Im Rahmen einer multiplen Fallstudie wird zunächst der Frage nachgegangen, wie die Mitarbeiter in drei karitativen Einrichtungen die Einführung einer leistungsorientierten Vergütungskomponente erleben. Dazu werden inhaltliche Gestaltungsmerkmale der Entgeltsysteme, Merkmale des Einführungsprozesses und ihre Auswirkungen untersucht. Die Ergebnisse zeigen, dass die Mitarbeiter in allen Einrichtungen dem Aspekt der Finanzierung des variablen Vergütungsanteils eine wesentliche Bedeutung beimessen. Wird dieser Anteil durch die Variabilisierung bisher garantierter, fixer Vergütungsanteile finanziert, entstehen unsichere Gehalts-anteile und es erhöht sich das Risiko von möglichen Gehaltsverlusten. In der Einrichtung mit dem höchsten Entgeltrisiko führte dieser Umstand dazu, dass Mitarbeiter und Vorgesetzte durch informelle Absprachen versucht haben, mögliche Verluste zu vermeiden. Wird der variable Entgeltanteil durch die Einrichtungen mitfinanziert, erhöhen sich hingegen die Chancen auf Einkommensgewinne, was auch zu einer höheren Akzeptanz der neuen Entgeltsysteme beiträgt. Aufbauend auf den Ergebnissen der Fallstudie werden in einer quantitativen Analyse die Auswirkungen eines erhöhten Entgeltrisikos auf die Zufriedenheit der Mitarbeiter mit ihrem variablen Vergütungsanteil (Bonuszufriedenheit) untersucht. Dabei wird das Entgeltrisiko durch drei konzeptuelle Facetten operationalisiert: die Variabilität der Entlohnung, das Ausmaß möglicher Verluste und das Verhältnis von Risiko und Chance (RCV). Entgegen der bisherigen Annahme in der Forschungsliteratur, dass vor allem die Variabilität der Entlohnung ausschlaggebend für die Auswirkungen von Entgeltrisiko ist, zeigen regressionsanalytische Ergebnisse, dass in der Einführungsphase neuer Entgeltsysteme vor allem das RCV einen signifikanten Effekt auf die Bonuszufriedenheit der Mitarbeiter hat. Die Ergebnisse einer multiplen Mediationsanalyse legen nahe, dass der Effekt von RCV auf die Bonuszufriedenheit zum Teil von Einstellungen der distributiven und prozeduralen Gerechtigkeit vermittelt wird. Wei-terführende Analysen ergeben, dass der Zusammenhang zwischen dem RCV und der Bonuszufriedenheit durch zwei moderierende Variablen beeinflusst wird: zum einen durch die partizipative Beteiligung der Mitarbeiter am Einführungsprozess und zum anderen durch die individuelle Präferenz für leistungsorientierte Entlohnung. Vor allem bei hoher partizipativer Beteiligung wirkt sich ein günstiges RCV positiv auf die Bonuszufriedenheit der Mitarbeiter aus. Außerdem sind jene Mitarbeiter unzufriedener mit einem risiko-reichen Entgeltsystem, die eine stark ausgeprägte Präferenz für leistungsorientierte Entlohnung besitzen.
Rinnen werden als effektive Sedimentquellen und als Transportwege für große Sedimentmengen angesehen, zusätzlich agieren sie als bevorzugte Fließwege für den Oberflächenabfluss. Sie können sich zu irreversiblen Formen (Gullys) weiterentwickeln. Trotz Fortschritten in der Modellierung bleibt insbesondere die Modellierung von Rinnenerosion schwierig. Daher ist es wichtig, experimentelle Daten aus Geländeversuchen zu erheben, um das Prozesswissen zu verbessern und bessere Modelle zu entwickeln. In den Experimenten sollte eine standardisierte Methode verwendet werden, um eine gewisse Vergleichbarkeit der Ergebnisse zwischen unterschiedlichen Testgebieten zu gewährleisten. Die meisten Experimente zur Rinnenerosion, die unter Labor- oder Geländebedingungen durchgeführt wurden, verwendeten Substrate mit unterschiedlichen Korngrößen und natürlichen oder simulierten Niederschlag. Ziel war meist die Entstehung von Rinnennetzwerken zu beobachten, Startbedingungen für Rinnenbildung zu definieren, die Entwicklung der Rinnenmorphologie zu untersuchen, die wichtigsten hydraulischen Parameter wie Fließquerschnitt, benetzten Umfang, hydraulischen Radius, mittlere Fließgeschwindigkeit und shear stress abzuschätzen oder mathematische Modelle zu kreieren, um den Bodenabtrag durch Rinnenerosion abschätzen zu können. Aber es fehlen Untersuchungen zum Verhalten von existierenden Rinnen, natürlichen oder anthropogen entwickelten, unter Geländebedingungen. Um diese Lücke zu schließen wurde eine reproduzierbare Versuchsanordnung entworfen und in verschiedenen Rinnen angewendet um folgende Fragen zu beantworten: Wie hoch ist der Anteil der Rinnenerosion am Bodenabtrag? 2) Wie effektiv sind Rinnen beim Transport von Wasser und Sediment durch ihr Einzugsgebiet? In prozess-basierten Modellen werden verschiedene Prozesse durch mathematische Gleichungen beschrieben. Die Grundlage dieser Formeln ist meist ein hydraulischer Parameter, der in Verbindung zum Abtrag gebracht wird. Der am häufigsten verwendete Parameter ist der shear stress, von dem angenommen wird, dass er ein lineares Verhältnis zu Erosionsparametern wie detachment rate, detachment capacity oder Sedimentkonzentration aufweist. Aus dem shear stress lassen sich weitere Parameter wie unit length shear force oder verschiedene Varianten der stream power berechnen. Die verwendeten Erosions- und hydraulischen Parameter ändern sich je nach Forschergruppe. Eine weitere Modellannahme ist, dass die transport rate die trasnport capacity nicht übersteigen kann. Wenn das transport rate vs. transport capacity - Verhältnis 1 übersteigt, verringern Sedimentationsprozesse die Rate bis die transport capacity wieder erreicht ist. Wir untersuchten in Geländeversuchen die folgenden Annahmen: 1) Ist das Verhältnis zwischen transport rate und transport capacity immer kleiner 1? 2) Besteht die lineare Beziehung zwischen verschiedenen hydraulischen Parametern und Bodenabrtagsparametern? 3)Verursachen die selben hydraulischen Parameter, die in verschiedenen Versuchen aufgenommen wurden, auch immer die selben Erosionsparameter?
In this thesis, in order to shed light on the biological function of the membrane-bound Glucocorticoid Receptor (mGR), proteomic changes induced by 15 min in vivo acute stress and by short in vitro activation of the mGR were analyzed in T-lymphocytes. The numerous overlaps between the two datasets suggest that the mGR mediates physiologically relevant actions and participates in the early stress response, triggering rapid early priming events that pave the way for the slower genomic GC activities. In addition, a new commercially available method with suitable sensitivity to detect the human mGR is reported and the transcriptional origin of this protein investigated. Our results indicates that specific GR-transcripts, containing exon 1C and 1D, are associated with the expression of this membrane isoform.
Die vorliegende Arbeit hat die zunehmende Bedeutung des Social Web und die daraus resultierenden Auswirkungen auf das Informations- und Reiseverhalten von Städtetouristen zum Thema. Hauptfragestellung ist, inwiefern sich die gestiegene Bedeutung des Social Web auf das Informationsverhalten von Reisenden und ihr Verhalten vor Ort, insbesondere hinsichtlich des Interesses an Nischenattraktionen, auswirkt. Große Städte, vor allem Metropolen, verfügen über eine fast unüberschaubare Zahl von touristischen Attraktionen und Angeboten. Dazu zählen auch jene, die abseits der Haupttouristenrouten in weniger touristisch geprägten Stadtteilen liegen. Trotz dieser Angebotsvielfalt ist die Mehrzahl der Städtetouristen meist auf der sogenannten "Straße der Ameisen" anzutreffen. Eine Ausnahme stellen jedoch die sogenannten neuen Städtetouristen dar, die weniger an klassischen Mainstream-Sehenswürdigkeiten, sondern mehr am Entdecken authentischer und einzigartiger Plätze abseits der Touristenpfade und am Erleben des Alltags der Einheimischen interessiert sind. Für die vorliegende Untersuchung der Fragestellung wurden insgesamt drei methodische Bausteine herangezogen: 1) Eine Inhaltsanalyse für den Vergleich von Social-Web-Anwendungen und klassischen Reisemedien hinsichtlich ihrer thematischen Schwerpunktsetzung; 2) eine Touristenbefragung mit dem Ziel, mehr über die Nutzung des Social Web als Reiseinformationsquelle und über das Verhalten der Social-Web-Nutzer im Allgemeinen, und ihr Interesse an Nischen und Orten abseits der Touristenpfade im Besonderen, zu erfahren. Schließlich sollten 3) Interviews mit städtetouristischen Nischenunternehmen weitere Erkenntnisse über die Nutzung sozialer Medien durch Anbieter im Städtetourismus liefern. Die Ergebnisse machen deutlich, dass die Auswirkungen des Social Web " sowohl durch die Nutzung als Reiseinformationsquelle durch die Nachfrager, als auch durch die Verwendung als Marketing- und Vertriebskanal von Seiten der Anbieter " bislang geringer sind als zunächst angenommen. Auch wenn Nischenangebote und Alltagskultur zum Teil in sozialen Medien stärker präsent sind als z. B. in Reiseführern, und einige kleine Nischenanbieter die Möglichkeiten, die ihnen das Social Web bietet, schon optimal nutzen, so hat eine verstärkte Social-Web-Nutzung bislang doch keine grundlegenden Verhaltensänderungen auf Seiten der Reisenden bewirkt. Die Straße der Ameisen ist trotz der gestiegenen Social-Web-Nutzung nach wie vor existent. Dass das Social Web als ein Filter fungiert, der Interessierte in Richtung der Long-Tail-Angebote "schickt", konnte im Rahmen der vorliegenden Dissertation nur zum Teil bestätigt werden. Neben der Informationsquelle Social Web üben doch auch viele andere Faktoren einen Einfluss auf das Interesse von Reisenden an Lokalkolorit, authentischen Erlebnissen und besonderen Nischenangeboten aus. Trotzdem dürfte gerade für den sogenannten neuen Touristen das Social Web neue Möglichkeiten der Informationsgewinnung über einzigartige Örtlichkeiten an den Reisezielen bereitstellen. So ist es heutzutage einfacher als je zuvor, an Hinweise und Tipps zu ganz spezifischen Reisezielen und -aktivitäten zu kommen, die zudem meist noch sehr persönlich und authentisch wirken, da sie größtenteils von anderen Nutzern stammen.
The contribution of three genes (C15orf53, OXTR and MLC1) to the etiology of chromosome 15-bound schizophrenia (SCZD10), bipolar disorder (BD) and autism spectrum disorder (ASD) were studied. At first, the uncharacterized gene C15orf53 was comprehensively analyzed. Previous genome-wide association studies (GWAS) in bipolar disorder samples have identified an association signal in close vicinity to C15orf53 on chromosome 15q14. This gene is located in exactly the genomic region, which is segregating in our SCZD10 families. An association study with bipolar disorder (BD) and SCZD10 individual samples did not reveal any association of single nucleotide polymorphisms (SNPs) in C15orf53. Mutational analysis of C15orf53 in SCZD10-affected individuals from seven multiplex families did not show any mutations in the 5'-untranslated region, the coding region and the intron-exon boundaries. Gene expression analysis revealed that C15orf53 was expressed in a subpopulation of leukocytes, but not in human post-mortem limbic brain tissue. Summarizing these studies, C15orf53 is unlikely to be a strong candidate gene for the etiology of BD or SCZD10. The second investigated gene was the human oxytocin receptor gene (OXTR). Five well described SNPs located in the OXTR gene were taken for a transmission-disequilibrium test (TDT) in parents-child trios with ASD-affected children. Neither in the complete sample nor in a subgroup with children that had an intelligence quotient (IQ) above 70, association was found, independent from the application of Haploview or UNPHASED for analysis. The third gene, MLC1, was investigated with regards to its implication in the etiology of SCZD10. Mutations in the MLC1 gene lead to megalencephalic leukoencephalopathy with subcortical cysts (MLC) and one variant coding for the amino acid methionine (Met) instead of leucine (Leu) at position 309 was identified to segregate in a family affected with SCZD10. For further investigation of MLC1 and its possible implication in the etiology of SCZD10, a constitutive Mlc1 knockout mouse model should be created. Mouse embryonic stem cells (mES) were electroporated with a knockout vector construct and analyzed with respect to homologous recombination of the knockout construct with the genomic DNA (gDNA) of the mES. Polymerase chain reaction (PCR) on the available stem cell clones did not reveal any homologous recombined ES. Additionally, we conducted experiments to knockdown MLC1 and using microRNAs. The 3'-untranslated region of the MLC1 gene was analyzed with the bioinformatics tool TargetScan to screen for potential microRNA target sites. In the 3'-untranslated region of the MLC1 gene, a potential binding site for miR-137 was identified. The gene expression level of genes that had been linked to psychiatric disorders and carried a predicated miR-137 binding site has been proven to be immediately responsive to miR-137. Thus, there is new evidence that MLC1 is a candidate gene for the etiology of SCZD10.
Gegenstand dieser bauarchäologischen Analyse ist die Baugeschichte von Saint-Jacques zu Dieppe von ihrem Beginn bis zur 1543 abgeschlossenen Chorwölbung. Die Untersuchung stützt sich auf eine detaillierte Bauanalyse sowie auf die Auswertung des spärlichen Quellenmaterials, das neue Aufschlüsse zur ursprünglichen Bestimmung des Baus und zum Zeitpunkt der Gründung lieferten. Zu Beginn lieferten Bauten der Niedernormandie mit Caen als Zentrum die Vorbilder und die Anregungen. Nach einem kurzen Aufscheinen der kronländischen Architektur, insonderheit Mello, kommen hauptsächlich Roueneser Kirchenbauten als Inspirationsquellen für die Architektur vor. Die Pfarrkirche Saint-Jacques konnte aufgrund ihrer langjährigen Entstehungsgeschichte nicht als Gesamtkonzept rezipiert werden. Dort wurden aber Teillösungen entwickelt, die in normannischen Nachfolgebauten wiederzufinden sind. Die Rose des Südquerhauses von Saint-Ouen in Rouen stellt das bedeutendste Beispiel dafür dar. Ob der im Bauverlauf zu Beginn des 13. Jahrhundert konstatierte Formen- und Vorbilderwechsel auf die politischen Ereignisse zurückzuführen ist, konnte ebenso wenig für Dieppe wie auch für die Kathedrale Notre-Dame in Rouen beantwortet werden. Außer Zweifel steht, dass Saint-Jacques eine wichtige Rolle für das Verständnis der Entwicklungsgeschichte der normannischen Gotik spielt, indem dort etwa 350 Jahre Baukunst dokumentiert sind.
Sklaverei und Demokratie? Für viele Plantagenbesitzer auf Kuba wurden die Vereinigten Staaten vor dem amerikanischen Bürgerkrieg zu einer attraktiven Alternative zur despotischen Kolonialmacht Spanien. Kubanische Emigranten in den USA versuchten um 1850 mit Hilfe von amerikanischen Expansionisten und Sklavereibefürwortern Kuba durch Militärexpeditionen Spanien zu entreißen und die Insel an seinen großen Nachbarn im Norden zu annektieren. Um für ihr Unternehmen zu werben, brachten Exilkubaner zahlreiche Zeitungen in US-Metropolen wie New York oder New Orleans heraus, in welchen sie ihren Lesern die Vorteile einer Annexion erläuterten. Im Fokus der Dissertation stehen die Argumente der kubanischen Exilpresse und ihrer Gegner.
The stress hormone cortisol as the end-product of the hypothalamic-pituitary-adrenal (HPA) axis has been found to play a crucial role in the release of aggressive behavior (Kruk et al., 2004; Böhnke et al., 2010). In order to further explore potential mechanisms underlying the relationship between stress and aggression, such as changes in (social) information processing, we conducted two experimental studies that are presented in this thesis. In both studies, acute stress was induced by means of the Socially Evaluated Cold Pressor Test (SECP) designed by Schwabe et al. (2008). Stressed participants were classified as either cortisol responders or nonresponders depending on their rise in cortisol following the stressor. Moreover, basal HPA axis activity was measured prior to the experimental sessions and EEG was recorded throughout the experiments. The first study dealt with the influence of acute stress on cognitive control processes. 41 healthy male participants were assigned to either the stress condition or the non-stressful control procedure of the SECP. Before as well as after the stress induction, all participants performed a cued task-switching paradigm in order to measure cognitive control processes. Results revealed a significant influence of acute and basal cortisol levels, respectively, on the motor preparation of the upcoming behavioral response, that was reflected in changes in the magnitude of the terminal Contingent Negative Variation (CNV). In the second study, the effect of acute stress and subsequent social provocation on approach-avoidance motivation was examined. 72 healthy students (36 males, 36 females) took part in the study. They performed an approach-avoidance task, using emotional facial expressions as stimuli, before as well as after the experimental manipulation of acute stress (again via the SECP) and social provocation realized by means of the Taylor Aggression Paradigm (Taylor, 1967). Additionally to salivary cortisol, testosterone samples were collected at several points in time during the experimental session. Results indicated a positive relationship between acute testosterone levels and the motivation to approach social threat stimuli in highly provoked cortisol responders. Similar results were found when the testosterone-to-cortisol ratio at baseline was taken into account instead of acute testosterone levels. Moreover, brain activity during the approach-avoidance task was significantly influenced by acute stress and social provocation, as reflected in reductions of early (P2) as well as of later (P3) ERP components in highly provoked cortisol responders. This may indicate a less accurate, rapid processing of socially relevant stimuli due to an acute increase in cortisol and subsequent social provocation. In conclusion, the two studies presented in this thesis provide evidence for significant changes in information processing due to acute stress, basal cortisol levels and social provocation, suggesting an enhanced preparation for a rapid behavioral response in the sense of a fight-or-flight reaction. These results confirm the model of Kruk et al. (2004) proposing a mediating role of changed information processes in the stress-aggression-link.
Time series archives of remotely sensed data offer many possibilities to observe and analyse dynamic environmental processes at the Earth- surface. Based on these hypertemporal archives, which offer continuous observations of vegetation indices, typically at repetition rates from one to two weeks, sets of phenological parameters or metrics can be derived. Examples of such parameters are the beginning and end of the annual growing period, as well as its length. Even though these parameters do not correspond exactly to conventional observations of phenological events, they nevertheless provide indications of the dynamic processes occurring in the biosphere. The development of robust algorithms for the derivation of phenological metrics can be challenging. Currently, such algorithms are most commonly based on digital filters or the Fourier analysis of time series. Polynomial spline models offer a useful alternative to existing methods. The possibilities of using spline models in the analytical description of time series are numerous, and their specific mathematical properties may help to avoid known problems occurring with the more common methods for deriving phenological metrics. Based on a selection of different polynomial spline models suitable for the analysis of remotely sensed time series of vegetation indices, a method to derive various phenological parameters from such time series was developed and implemented in this work. Using an example data set from an intensively used agricultural area showing highly dynamic variations in vegetation phenology, the newly developed method was verified by a comparison of the results of the spline based approach to the results of two alternative, well established methods.
Arctic and Antarctic polynya systems are of high research interest since extensive new ice formation takes place in these regions. The monitoring of polynyas and the ice production is crucial with respect to the changing sea-ice regime. The thin-ice thickness (TIT) distribution within polynyas controls the amount of heat that is released to the atmosphere and has therefore an impact on the ice-production rates. This thesis presents an improved method to retrieve thermal-infrared thin-ice thickness distributions within polynyas. TIT with a spatial resolution of 1 km × 1 km is calculated using the MODIS ice-surface temperature and atmospheric model variables within the Laptev Sea polynya for the winter periods 2007/08 and 2008/09. The improvement of the algorithm is focused on the surface-energy flux parameterizations. Furthermore, a thorough sensitivity analysis is applied to quantify the uncertainty in the thin-ice thickness results. An absolute mean uncertainty of -±4.7 cm for ice below 20 cm of thickness is calculated. Furthermore, advantages and drawbacks using different atmospheric data sets are investigated. Daily MODIS TIT composites are computed to fill the data gaps arising from clouds and shortwave radiation. The resulting maps cover on average 70 % of the Laptev Sea polynya. An intercomparison of MODIS and AMSR-E polynya data indicates that the spatial resolution issue is essential for accurately deriving polynya characteristics. Monthly fast-ice masks are generated using the daily TIT composites. These fast-ice masks are implemented into the coupled sea-ice/ocean model FESOM. An evaluation of FESOM sea-ice concentrations is performed with the result that a prescribed high-resolution fast-ice mask is necessary regarding the accurate polynya location. However, for a more realistic simulation of other small-scale sea-ice features further model improvements are required. The retrieval of daily high-resolution MODIS TIT composites is an important step towards a more precise monitoring of thin sea ice and sea-ice production. Future work will address a combined remote sensing " model assimilation method to simulate fully-covered thin-ice thickness maps that enable the retrieval of accurate ice production values.
Die Arbeit verteidigt zwei Thesen: 1. Der Realismus ist eine semantische These; 2. Religiöse Sprache muß realistisch interpretiert werden. Der erste Teil von Kapitel 1 bis 4 widmet sich der ersten These, der zweite Teil in Kapitel 5 und 6 der zweiten. Zuerst wird ein Überblick über die Problematik von Realismus und Antirealismus in der Philosophie überhaupt geben und erläutert, was das Kernproblem dieser Debatten ist, das eine adäquate Interpretation der realistischen These lösen muß. Dann wird eine Lösung mit Michael Dummetts Theorie des semantischen Realismus entwickelt, so daß sich die metaphysischen Probleme in sprachphilosophische übersetzen lassen und eine semantische Formulierung des Realismus möglich wird. Danach werden verschiedene Einwände gegen diese Theorie diskutiert, um in der Folge eine eigene, verbesserte Formulierung des semantischen Realismus zu entwickeln, die fähig ist, der Kritik standzuhalten. Schließlich werden zwei von Dummett selbst vorgebrachte Argumente gegen den Realismus behandelt und widerlegt. Mit diesen sprachphilosophischen Werkzeugen wird dann gezeigt, wie sich die religionsphilosophischen Debatten mit den Mitteln des semantischen Realismus beschreiben und klassifizieren lassen und wie sich anhand semantischer Kriterien Klarheit schaffen läßt, was genau einen religiösen Antirealismus charakterisiert und was nicht. Abschließend werden die bisher in der Debatte für und wider den religiösen Antirealismus vorgebrachten Argumente analysiert und dann auf der Basis der semantischen Interpretation des Realismus einige eigene Argumente entwickelt, um die Unmöglichkeit eines religiösen Antirealismus nachzuweisen.
Die Dissertation untersucht am Beispiel mikrohistorischer Fallstudien die Forschung des remigrierten Instituts für Sozialforschung in Frankfurt am Main unter der Leitung Max Horkheimers und Theodor W. Adornos. Deren empirische Sozialforschung war in Institutionen der frühen Bundesrepublik gefragt, weil die Forscher durch die Studien zur Autoritären Persönlichkeit den Ruf als Experten der Demokratie erworben hatten. Die Forschungsdisziplinen, in denen das Frankfurter Institut seine Expertise entfaltete, reichten von den Feldern der Militärsoziologie über die Sozialpsychologie, über dass Feld der Politischen Bildung bis hin zur Industrie- und Betriebssoziologie. Für das Amt Blank, das Bundesverteidigungsministerium, das Bundesministerium für Arbeit, die Bundeszentrale für Heimatdienst und den Mannesmannkonzern untersuchte das Frankfurter Institut die Akzeptanz demokratischer Institutionen und das demokratische Bewusstsein der Deutschen. Dabei konnte es an Studien der alliierten Besatzungsorgane anschließen, entwickelte aber deren Untersuchungsmethoden durch die Etablierung qualitativer Erhebungsverfahren wie das Gruppendiskussionsverfahren entscheidend weiter. Die Dissertation kommt zum Ergebnis, dass kritische Sozialforschung in der frühen Bundesrepublik nachgefragt wurde, dass aber durch vielfältige Konflikte und Widerstände von etablierten Wissenschaftlern, deren Karrieren zu einem guten Teil im Nationalsozialismus begonnen hatte, aber auch mit den untersuchten Eliten, Verbänden und im industriellen Großkonzern eine breiteren Rezeption verhindert wurde.
Die Vertrauens-Trias erlaubt salutogentische Aussagen über personale Ressourcen. Die kulturvergleichende Anwendung der Vertrauens-Trias wurde bei Jugendlichen in drei Ländern (Deutschland, Luxemburg, Spanien) überprüft. Dabei wurde die Konstruktvalidität der Vertrauens-Trias als auch Zusammenhänge zu symptomatischen Belastungen insgesamt bestätigt. Vergleiche zwischen den Kulturen zeigen keine Unterschiede zwischen deutschen und luxemburgischen Schülern, jedoch zwischen deutschen und spanischen Schülern.
Die Kritische Theorie entstand in den 1930er Jahren und wurde seit den fünfziger Jahren mit der "Frankfurter Schule" identifiziert. In der Dissertation wird dieser Schulzusammenhang durch Porträts der dreizehn Angehörigen der zweiten Generation kritischer Theoretiker(innen) dargestellt. Auf diese Weise wird demonstriert, dass sich die Weiterentwicklung der Kritischen Theorie seit den sechziger Jahren nicht nur auf Jürgen Habermas beschränkt. Die zweite Generation stellt sich als eine zerstrittene Interpretationsgemeinschaft dar, deren unterschiedliche Vertreter verschiedenartige aktuelle Versionen von "Kritischer Theorie" entwickelt haben.
We are living in a connected world, surrounded by interwoven technical systems. Since they pervade more and more aspects of our everyday lives, a thorough understanding of the structure and dynamics of these systems is becoming increasingly important. However - rather than being blueprinted and constructed at the drawing board - many technical infrastructures like for example the Internet's global router network, the World Wide Web, large scale Peer-to-Peer systems or the power grid - evolve in a distributed fashion, beyond the control of a central instance and influenced by various surrounding conditions and interdependencies. Hence, due to this increase in complexity, making statements about the structure and behavior of tomorrow's networked systems is becoming increasingly complicated. A number of failures has shown that complex structures can emerge unintentionally that resemble those which can be observed in biological, physical and social systems. In this dissertation, we investigate how such complex phenomena can be controlled and actively used. For this, we review methodologies stemming from the field of random and complex networks, which are being used for the study of natural, social and technical systems, thus delivering insights into their structure and dynamics. A particularly interesting finding is the fact that the efficiency, dependability and adaptivity of natural systems can be related to rather simple local interactions between a large number of elements. We review a number of interesting findings about the formation of complex structures and collective dynamics and investigate how these are applicable in the design and operation of large scale networked computing systems. A particular focus of this dissertation are applications of principles and methods stemming from the study of complex networks in distributed computing systems that are based on overlay networks. Here we argue how the fact that the (virtual) connectivity in such systems is alterable and widely independent from physical limitations facilitates a design that is based on analogies between complex network structures and phenomena studied in statistical physics. Based on results about the properties of scale-free networks, we present a simple membership protocol by which scale-free overlay networks with adjustable degree distribution exponent can be created in a distributed fashion. With this protocol we further exemplify how phase transition phenomena - as occurring frequently in the domain of statistical physics - can actively be used to quickly adapt macroscopic statistical network parameters which are known to massively influence the stability and performance of networked systems. In the case considered in this dissertation, the adaptation of the degree distribution exponent of a random, scale-free overlay allows - within critical regions - a change of relevant structural and dynamical properties. As such, the proposed scheme allows to make sound statements about the relation between the local behavior of individual nodes and large scale properties of the resulting complex network structures. For systems in which the degree distribution exponent cannot easily be derived for example from local protocol parameters, we further present a distributed, probabilistic mechanism which can be used to monitor a network's degree distribution exponent and thus to reason about important structural qualities. Finally, the dissertation shifts its focus towards the study of complex, non-linear dynamics in networked systems. We consider a message-based protocol which - based on the Kuramoto model for coupled oscillators - achieves a stable, global synchronization of periodic heartbeat events. The protocol's performance and stability is evaluated in different network topologies. We further argue that - based on existing findings about the interrelation between spectral network properties and the dynamics of coupled oscillators - the proposed protocol allows to monitor structural properties of networked computing systems. An important aspect of this dissertation is its interdisciplinary approach towards a sensible and constructive handling of complex structures and collective dynamics in networked systems. The associated investigation of distributed systems from the perspective of non-linear dynamics and statistical physics highlights interesting parallels both to biological and physical systems. This foreshadows systems whose structures and dynamics can be analyzed and understood in the conceptual frameworks of statistical physics and complex systems.
Gegenstand der Dissertation ist die Rolle ideologischer Deutungsmuster in der politischen Auseinandersetzung um Arbeitsbeziehungen in Deutschland. Zunächst wird untersucht, inwiefern tendenziöses Entscheidungsverhalten von Richtern an deutschen Landesarbeitsgerichten und politische Einflussnahme auf die Rechtsprechung empirisch zu belegen sind. Mittels rechtsempirischer Analyse kann gezeigt werden, dass systematische Zusammenhänge zwischen persönlichen Merkmalen von LAG-Richtern und ihrem Entscheidungsverhalten bestehen. Während Einflussnahme von Seiten der Politik im Rahmen der verfügbaren Daten nicht nachweisbar ist, spricht die empirische Evidenz mithin dafür, dass neben rechtsimmanenten Kriterien auch individuelle Überzeugungen die Arbeitsrechtsprechung beeinflussen. Der zweite Teil der Dissertation befasst sich mit der Arena der Massenmedien. Anhand einer Inhaltsanalyse, die den Diskurs über Mitbestimmung in drei überregionalen deutschen Tageszeitungen für den Zeitraum von 1998 bis 2007 rekonstruiert, soll die Frage beantwortet werden, inwieweit die deutschen Massenmedien selbst als autonome politische Akteure in der Auseinandersetzung um Mitbestimmung zu betrachten sind. Die Ergebnisse deuten darauf hin, dass für das Agenda-Setting im Untersuchungszeitraum zwar eher generelle Nachrichtenfaktoren maßgeblich waren. Doch sowohl das Standing der verschiedenen Akteursgruppen als auch die Deutungsrahmen und Handlungsempfehlungen weisen zum Teil Differenzen zwischen den untersuchten Zeitungen auf, die nur als Ausdruck unterschiedlicher ideologischer Positionen erklärbar sind. Ob die Betriebswirtschaftslehre ihren eigenen wissenschaftstheoretischen Ansprüchen gerecht wird, ist Gegenstand des dritten Papiers. Mittels multivariater Analyse wird untersucht, inwieweit die Inhalte der marktführenden betriebswirtschaftlichen Zeitschriften in Deutschland von außerwissenschaftlichen Faktoren beeinflusst werden. Wie die Analyse ihrer Auseinandersetzung mit dem Shareholder-Value-Prinzip zeigt, ist die Betriebswirtschaftslehre offenbar nur bedingt in der Lage, dem Wertfreiheitspostulat zu genügen. Wirtschaftswissenschaftliches Denken muss zumindest in Teilen als Ausdruck subjektiver Maßstäbe und soziokultureller Rahmenbedingungen betrachtet werden, wird also von außerwissenschaftlichen Wertungen beeinflusst, die auch durch innerwissenschaftliche Diskussionsprozesse nicht eliminierbar sind.
Während die ersten Naturwissenschaftler, wie Humboldt und Darwin, auf dem Feld der klassischen Biogeographie noch vor allem die Aufschlüsselung der Verbreitung von Arten untersuchten, entwickelte sich mit Wallace die Erkenntnis, dass es kausale Gründe für die Verbreitung von Arten gibt. Ihre Erkenntnisse erlangten Wallace oder auch de Lattin noch dadurch, dass Sie Verbreitungsmuster von Arten übereinander projizierten und Ausbreitungszentren ableiteten. In den letzten Jahrzehnten bieten die mannigfaltigen Möglichkeiten computerbasierter Analysen besondere Vorteile bei der Analyse von Verbreitungsmustern, welche in der vorliegenden Dissertation genutzt werden, um eine interdisziplinäre Arbeit im Schnittpunkt von Natur- und Rechtswissenschaften zu schreiben. In fünf Kapiteln werden verschiedene Aspekte aus dem Bereich der klassischen Biogeographie analysiert und diskutiert. Im ersten Beitrag dieser Arbeit wird die biogeographische Struktur der Libellen in der westlichen Paläarktis mittels Verbreitungsanalysen untersucht. Der zweite Beitrag vertieft die Betrachtung mit einer regionalen Analyse der Biogeographie der Odonaten und Tagfalter in Rumänien. Ein dritter Beitrag schließt diesen westpaläarktischen Block mit einer Analyse der Inselbiogeographie des westlichen Mittelmeergebietes ab. In einem zweiten eurasischen Block werden in der vierten Arbeit die biogeographischen Muster Eurasiens herausgearbeitet. Abschließend wird im fünften Beitrag die Phylogeographie der Zwerglibelle (Nehalennia speciosa) als ein Beispiel für trans-paläarktisch verbreitete Arten untersucht. Neben ihrer Bedeutung in der Grundlagenforschung stellen diese fünf Arbeiten eine wesentliche Grundlage für die Ausarbeitung der juristischen Abhandlung dar. In der juristischen Abhandlung werden verschiedene Aspekte unter zu Hilfenahme, der zuvor erarbeiteten Erkenntnisse erläutert, die dazu geführt haben dürften, dass Libellen in der FFH-Gesetzgebung eher unterrepräsentiert sind. Es sind dies eine fehlende europaeinheitliche Gefährdungsbewertung, das Fehlen eines Schutzkriteriums Ausbreitungsfähigkeit und eine fragwürdige Herangehensweise bei den Überlegungen, welche Arten überhaupt auf ihre Schutzwürdigkeit hin untersucht werden sollen.
Seit dem Godesberger Programm 1959 entwickelte sich aus dem Umgang der SPD mit Geschichte und Geschichtswissenschaft eine sozialdemokratische Geschichtskultur. Sie manifestierte sich in zweierlei Hinsicht. Zum einen wurde auf geschichtspolitischer Ebene das national-konservative Geschichtsbild und insbesondere die staats- und kontinuitätszentrierten Vorstellungen von Nation und Nationalstaat kritisiert und die Stellung des Nationalsozialismus in der deutschen Geschichte neu bewertet. Zum anderen wurde auf geschichtswissenschaftlicher Ebene das Forschungsfeld der Geschichte der Arbeiterbewegung und der Sozialdemokratie erfolgreich etabliert. Parallel dazu entstand eine große Gruppe akademischer Historiker, die der SPD angehörten oder ihr nahestanden. Sie beschäftigten sich mit Themen der Partei-, der Arbeiter- und der Sozialgeschichte, unterstützten die Geschichtspolitik der SPD, kümmerten sich um Geschichtsbewusstsein dieser Partei und nahmen - zuweilen auch kritisch - an den Diskussionen ihrer Tagespolitik teil. Aus diesen beiderseitigen Aktivitäten bildeten sich vielfältige Kommunikationswege und personelle Netzwerke zwischen SPD und Historikern. Von 1959 bis 1969 vermied die SPD im Zuge ihrer Strategie der Regierungsbeteiligung eine deutliche Profilierung ihrer eigenen Geschichtspolitik, gleichzeitig lenkte nur eine kleine und fachlich eher marginale Gruppe von Historikern die Aufmerksamkeit auf die sozialdemokratische Geschichtsschreibung und ihre Themen. Aber inzwischen wurden seitens der SPD die organisatorischen Rahmenbedingungen für die Intensivierung der Kommunikation gelegt und wurden Kontakte zu einer wachsenden Zahl jüngerer Historiker geknüpft. Trotzdem waren die damaligen Kommunikationsnetzwerke räumlich und personell beschränkt. Seit 1969 erweiterten sich die Verbindungen zwischen beiden Seiten dank des politischen Aufschwungs der Sozialdemokratie und des Generationswechsels der Historikerschaft. Bis 1982 kommunizierten SPD und Historiker miteinander über viele aktuelle Themen: das Spektrum reichte von den historischen Gedenktagen über den Geschichtsunterricht in den Schulen bis hin zur Neuen Ostpolitik der sozialliberalen Koalition. Parallel dazu erlebte die sozialdemokratische Historiographie eine Konjunktur der Arbeiterbewegungsgeschichte, eine sozialgeschichtliche Neuorientierung und einen Erfolg der Sonderwegsthese. Die Kommunikationsnetzwerke umfassten immer mehr jüngere Fachhistoriker. In den Jahren 1983 bis 1989 wurden die Verbindungen der Sozialdemokratie mit den ihr nahestehenden Historikern auf politischer Ebene wegen ihrer geschichtspolitischen Auseinandersetzung mit der Christdemokratie immer enger, während die sozialdemokratische Geschichtsschreibung vor allem von der Strömung der Alltagsgeschichte und -»Geschichte von unten-« gefördert wurde. Haupttendenzen der dreißigjährigen Entwicklung der Kommunikation zwischen SPD und Geschichtswissenschaft waren wechselseitiger Austausch und Zusammenarbeit. Dabei darf jedoch nicht vernachlässigt werden, dass nicht nur die Historiker, die der Sozialdemokratie nahestanden, sondern auch die, die sich von ihr entfremdeten bzw. kritisch gegenüberstanden, Einfluss auf die Kommunikationslandschaft ausübten.
Volition als psychische Funktion, Schwierigkeiten in der Handlungsausführung zu überwinden, spielt eine bedeutende Rolle in der psychosomatischen Rehabilitation. In einer Gruppentherapie über maximal 4 Sitzungen zeigte sich, dass sich volitionale Kompetenzen signifikant verbesserten. Zusätzlich ergaben sich Verbesserungen in anderen Therapie-Outcome-Maßen.
In this thesis, we mainly investigate geometric properties of optimal codebooks for random elements $X$ in a seperable Banach space $E$. Here, for a natural number $ N $ and a random element $X$ , an $N$-optimal codebook is an $ N $-subset in the underlying Banach space $E$ which gives a best approximation to $ X $ in an average sense. We focus on two types of geometric properties: The global growth behaviour (growing in $N$) for a sequence of $N$-optimal codebooks is described by the maximal (quantization) radius and a so-called quantization ball. For many distributions, such as central-symmetric distributions on $R^d$ as well as Gaussian distributions on general Banach spaces, we are able to estimate the asymptotics of the quantization radius as well as the quantization ball. Furthermore, we investigate local properties of optimal codebooks, in particular the local quantization error and the weights of the Voronoi cells induced by an optimal codebook. In the finite-dimensional setting, we are able to proof for many interesting distributions classical conjectures on the asymptotic behaviour of those properties. Finally, we propose a method to construct sequences of asymptotically optimal codebooks for random elements in infinite dimensional Banach spaces and apply this method to construct codebooks for stochastic processes, such as fractional Brownian Motions.
Der Anstieg der Weltbevölkerung, der Mobilität und des Warenhandels fördert die zunehmende Einschleppung von Biota. Ein Teil dieser gebietsfremden Arten kann sich etablieren, ausbreiten und die heimische Biodiversität gefährden ("invasive Arten"). In Mitteleuropa haben sich mehr als 150 gebietsfremde Populationen der ursprünglich submediterran verbreiteten Mauereidechse (Podarcis muralis) etabliert. Diese verkörpern ein ideales Modellsystem zur Untersuchung der Rolle des geografischen Ursprungs für den Etablierungserfolg, zur Überprüfung genetischer Konsequenzen von biologischen Invasionen sowie zur Untersuchung der Auswirkungen intraspezifischer Hybridisierung auf heimische Linien. Über eine mtDNA-Sequenzierung wurden in dieser Dissertation 77 eingeschleppte Populationen in Mitteleuropa acht geografisch abgrenzbaren evolutionären Linien zugeordnet (Kapitel I). Dieser Datensatz wurde in Kombination mit Artverbreitungsmodellen zur Überprüfung intraspezifischer Nischendivergenz genutzt. Trotz deutlicher Nischendifferenzierung zwischen den Linien, wurde nur eine schwache Korrelation zwischen geographischem Ursprung und invasivem Vorkommen gefunden. Linien mit enger realisierter Nische sind vermutlich aufgrund ihrer breiten fundamentalen Nische dennoch fähig erfolgreich Gebiete weit außerhalb ihres Areals zu kolonisieren. Für die populationsgenetischen Analysen dieser Arbeit bewährten sich, alternativ zu Gewebeproben, nicht-invasiv gewonnene Mundschleimhautproben zur DNA-Analyse (Kapitel II). Über eine DNA-Sequenzierung konnte der Ursprung (Poebene und nördliche Adriaregion) der nördlichsten eingeschleppten Ruineneidechsen-Population (Podarcis siculus) bestimmt werden (Kapitel III). Zudem wurde eine syntop in eine P. muralis Population eingeschleppte Podarcis liolepis Population erstmals in Deutschland nachgewiesen (Kapitel IV). Beide stammen vermutlich aus den Ost-Pyrenäen. Die Mikrosatelliten-Analyse zeigte keinen Genfluss zwischen beiden Arten. Verglichen mit natürlichen Populationen aus Süd-Frankreich konnten die eingeschleppten Populationen beider Arten aufgrund von hohem Aussetzungsdruck eine hohe genetische Diversität erhalten. Entlang des Oberrheingrabens treffen heimische Mauereidechsen auf eingeschleppte italienische Linien. In diesen Populationen wurde eine schnelle genetische Assimilation durch Hybridisierung mit gebietsfremden Mauereidechsen nachgewiesen (Kapitel V). Die genetische Diversität dieser Hybridpopulationen war wesentlich höher als die reiner eingeschleppter oder reiner natürlicher Populationen. Der Zusammenhang zwischen genetischer Diversität und Durchmischungsgrad war nicht-linear und erreichte frühzeitig ein Plateau hoher genetischer Diversität bei einer Vermischung von zwei Linien. Das Ausmaß an Introgression und die schnelle Bildung von Hybridschwärmen zeigt, dass Einschleppungen die genetische Integrität natürlicher Populationen stark gefährden. Die kleinräumige, genetische Analyse einer expandierenden Population in Passau (Kapitel VI) zeigt, dass eine signifikante Strukturierung schnell und kleinräumig entstehen kann. Die genetische Differenzierung wurde unter Abnahme der genetischen Diversität vom Einschleppungszentrum zum Expansionsrand stärker. Das abschließende Kapitel VII fasst die wichtigsten Resultate für die Naturschutzpraxis zusammen. Die Schwierigkeiten der phänotypischen Zuordnung von Populationen zu evolutionären Linien sowie der naturschutzrechtliche Umgangs mit Einschleppungen werden diskutiert.
This dissertation focuses on the link between labour market institutions and precautionary savings. It is evaluated whether private households react to changes in social insurance provision such as the income replacement in case of unemployment by increased savings for precautionary reasons. The dissertation consists of three self-contained chapters, each focusing on slightly different aspects of the topic. The first chapter titled "Precautionary saving and the (in)stability of subjective earnings uncertainty" empirically looks at the influence of future income uncertainty on household saving behavior. Numerous cross-section studies on precautionary saving use subjective expectations regarding the income variance one year ahead as a proxy for income uncertainty. Using such proxies observed only at one point in time, however, may give rise to biased estimates for precautionary wealth if expectations are not stable over time. Survey data from the Dutch DNB Household Survey suggest that subjective future income distributions are not stable over the mid-term. Moreover, in this study I contrast estimates of precautionary wealth using the variation coefficient observed at one point in time with those using a simple mid-term average. Estimates of precautionary wealth based on the average are about 40% to 80% higher than the estimates using the variation coefficient observed only once. In addition to that, wealth accumulation for precautionary reasons is estimated for different parts of the income distribution. The share of precautionary wealth is highest for households at the center of the income distribution. By linking saving behaviour with unemployment insurance, the following chapters then shed some light on an issue that has largely been neglected in the literature on labour market institutions so far. Whereas the third chapter models the relevance of unemployment insurance for income uncertainty and intertemporal decision making during institutional reform processes, chapter 4 seeks to establish empirically a relationship between saving behavior and unemployment insurance. Social insurance, especially unemployment insurance, provides agents with income insurance against not marketable income risks. Since the early 1990s, reform measures like more activating policies as suggested by the OECD Jobs Study in 1994 have been observed in Europe. In the third chapter it is argued that such changes in unemployment insurance reduce public insurance and increase income uncertainty. Moreover, a simple three period model is discussed which shows a link between a welfare state reform and agents' saving decisions as one possible reaction of agents to self-insure against income risk. Two sources of uncertainty seem to be important in this context: (1) uncertain results of the reform process concerning the replacement rate, and (2) uncertainty regarding the timing of information about the content of the reform. It can be shown that the precautionary motive for saving explains an increased accumulation of capital in times of reform activities. In addition to that, early information about the expected replacement rate increases agents' utility and reduces under and oversaving. Following the argument of the previous chapters, that an important feature of labour market institutions in modern welfare states is to provide cash transfers as income replacement in case of unemployment, it is hypothesised that unemployment benefits reduce the motive to save for precautionary reasons. Based on consumer sentiment data from the European Commission's Consumer Survey, chapter four finally provides some evidence that aggregate saving intentions are significantly influenced by unemployment benefits. It can be shown that higher benefits lower the intention to save.
The main objective of the present thesis was to investigate whether antibody effects observed in earlier in vitro studies can translate into the protection against chemical carcinogenesis in vivo as the basis of an immunoprophylactic approach against carcinogens. As model for chemical carcinogenesis, we selected B[a]P the prototype polycyclic aromatic hydrocarbon (PAH), an environmental pollutant emanating from both natural and anthropogenic sources. Many in vivo models conveniently use high doses of carcinogens mostly given as single bolus, which provides simple surrogate readouts, but poorly reflects chronic exposure to the low concentrations found in the environment. In addition, these concentrations cannot be matched with equimolar antibody concentrations obtained by immunisation. However, low B[a]P concentrations do not permit to directly measure chemical carcinogenesis. Therefore, in the present thesis, the pharmacokinetic, metabolism and B[a]P mediated immunotoxicity were chosen as experimental read-outs. B[a]P conjugate vaccines based on ovalbumin, tetanus toxoid and diphtheria toxoid (DT) as carrier proteins were developed to actively immunise mice against B[a]P. B[a]P-DT conjugate induced the most robust immune response. The antibodies reacted not only with B[a]P but also with the proximate carcinogen 7,8-diol-B[a]P. Antibodies modulated the bioavailability of B[a]P and its metabolic activation in a dose-dependent manner by sequestration in the blood. In order to further improve the vaccination, we replaced the protein carrier by promiscuous T-helper cell epitopes to induce higher antibody titer with increased specificity for the B[a]P hapten. We hypothesised that a reduction of B cell binding sites on the carrier, compared to whole protein carrier, should favour the activation of B cells recognising the hapten instead of the carrier protein. An internal processing of the carrier and cleavage of the B[a]P-BA and subsequent presentation of the carrier peptide by MHC II molecules to T cell receptor should induce a B cell dependent immune response by activating B cells capable to recognise B[a]P. We demonstrated that a vaccination against B[a]P using promiscuous T-helper cell epitopes as a carrier is feasible and some tested peptide conjugates were more immunogenic as whole protein conjugates with increased specificity. We showed that vaccination against B[a]P reduces immunotoxicity. B[a]P suppressed the proliferative response of both T and B cells after a sub-acute administration, an effect that was completely reversed by vaccination. In immunized mice the immunotoxic effect of B[a]P on IFN-γ, Il-12, TNF-ï¡ production and B cell activation was restored. In addition, specific antibodies inhibited the induction of Cyp1a1 by B[a]P in lymphocytes and Cyp1b1 in the liver, enzymes that are known to convert the procarcinogen B[a]P to the ultimate DNA-adduct forming metabolite, a major risk factor of chemical carcinogenesis. In order to replace Freund adjuvant and to improve the immunisation strategy in terms of antibody quantity and quality, several adjuvants that are potentially compatible with their use in humans were tested. In combination with Freund adjuvant, the conjugate-vaccine induced high levels of B[a]P-specific antibodies. We showed that all adjuvants tested induced specific antibodies against B[a]P and 7,8-diol-B[a]P, its carcinogenic metabolite. The highest antibody levels were obtained with Quil A, MF-59 and Alum. Biological activity in terms of enhanced retention of B[a]P was confirmed in mice immunised with Quil A, Montanide, Alum and MF-59. Our findings demonstrate that a vaccination against B[a]P is feasible in combination with adjuvants licensed in humans. Based on these results and with the current understanding of the mechanisms of chemical carcinogenesis of the ubiquitous carcinogen B[a]P and of the effects of specific antibodies, an immunoprophylactic approach against chemical carcinogenesis is absolutely warranted. Nevertheless, the direct effects of B[a]P-specific antibodies on the different stages of carcinogenesis (e.g. adduct formation) and whether these effects may translate into long-term protective effect against tumourigenesis needs to be proven in further experiments.
Die vorliegende Arbeit verbindet die Konzepte Komorbidität und naturalistische Forschung, indem hier Mehrfachdiagnosen in einer großen längsschnittlich angelegten Studie zur Qualitätssicherung in der ambulanten Psychotherapie betrachtet wurden. Untersucht wurde die Frage, ob und inwieweit Mehrfachdiagnosen im Vergleich zu einfachen Diagnosen Einfluss auf den Status zu Beginn einer Therapie, den Therapieverlauf, ihre Dauer und das Ergebnis ausüben und ob daraus Ableitungen für eine differenzielle Anpassung therapeutischer Interventionen getroffen werden können. Die in dieser Arbeit analysierten Daten stammen aus dem Modellprojekt "Qualitätsmonitoring in der ambulanten Psychotherapie" der Techniker Krankenkasse und umfassen Eingangsinformationen von N=1154 verhaltenstherapeutisch behandelten ambulanten Psychotherapiepatienten. Zur Überprüfung der Fragestellungen kamen regressions- und korrelationsanalytische Verfahren, Latente Wachstumsmodelle sowie Verfahren zur Klassifikation von Personen in latente Subgruppen zur Anwendung. Es resultierten höhere Komorbiditätsraten unter strukturierter Diagnostik. Bei komorbider Persönlichkeitsstörung oder einer Kombination aus Angst- und Affektiven Störungen wurde in vergleichbarem Ausmaß wie bei Vorliegen nur einer Diagnose profitiert, allerdings wiesen diese Patienten aufgrund einer höheren Ausgangsbelastung ein schlechteres absolutes Therapieergebnis auf. Die Variable Komorbidität erwies sich als bedeutsam für die Prädiktion der Sitzungsanzahl, indem komorbide Patienten und insbesondere solche mit Persönlichkeitsstörungen längere Therapiedauern aufwiesen. Die sich auf mehreren Ebenen manifestierenden Besonderheiten komorbider im Vergleich zu monomorbiden Patienten weisen darauf hin, dass das Konzept Komorbidität nicht ausschließlich als Artefakt bestehender Diagnosesysteme gesehen werden kann. Der längere Verbleib komorbider Patienten in der Psychotherapie lässt auf ein differenzielles Vorgehen der Therapeuten schließen. Dieses könnte durch individualisierte Rückmeldungen noch unterstützt werden, im Rahmen derer von vornherein Abschätzungen für spezifische Subgruppen von Patienten vorgenommen werden und in welchen Komorbidität als ein Indikator zu besseren Ressourcensteuerung in der Psychotherapie genutzt werden könnte.
Die globale Vernetzung, der Flächennutungs- und Klimawandel sind zentrale Aspekte bei der Ursachenanalyse der zunehmenden Homogenisierung von Biozönosen und dem weltweiten Verlust von Biodiversität. Von großer Bedeutung sind dabei Arten, die in sich ein weiträumiges Verbreitungspotential mit einem hohen ökologischen, zum Teil in Verbindung mit einem hohen ökonomischen, Schadpotential vereinen " so genannte invasive Arten. Aufgrund ihrer Eigenschaften bilden sie einen wichtigen Schnittpunkt von Ökologie, Ökonomie und Soziologie in Theorie und Praxis. Im Zuge der steigenden Anzahl von biologischen Invasionen weltweit und dem interessanten, interdisziplinären Charakter des Forschungsfeldes, ist dessen Analyse ein bedeutendes Top-Thema internationaler Forschung geworden. Die durch invasive Arten verursachten Schäden sind enorm: So werden die jährlichen Schäden für die USA, Südafrika, das Vereinigte Königreich, Brasilien und Indien auf insgesamt 336 Milliarden US Dollar geschätzt. Nach einem Bericht der EU Kommissionrnbeläuft sich für die Europäische Union die Summe aller Schäden die durch invasive Arten verursacht werden auf jährlich 12 Mrd. Euro. Folglich stellen invasive Arten zugleich einen zunehmend wichtigeren, rechtlichen Regelungsgegenstand auf den unterschiedlichsten Ebenen (international, europäisch, national) dar. In dieser Dissertation wird die Bedeutung von Verbreitungsmodellen als Analyseund Präventions-Instrument in der naturschutzfachlichen Risikoabschätzung verdeutlicht. Ferner wird die Einsatzmöglichkeit von Modellen für die rechtliche Einstufung von Arten und als Ermessensgrundlage bei der Bewilligung von Kostenersatzansprüchen nach entstandenen Schäden aufgezeigt. Zwei ökonomisch bedeutsame Käferarten wurden zur Veranschaulichung als Modellorganismen ausgewählt: Der für die biologische Schädlingsbekämpfung absichtlich eingeführte Asiatische Marienkäfer Harmonia axyridis und der vorwiegend mit Holzverpackungsmaterialien global verschleppte AsiatischernLaubholzbockkäfer Anoplophora glabripennis. Beide Organismen sind in der EU alsrngebietsfremde Arten mit einem hohen Schadpotential einzustufen, haben jedoch einen sehr unterschiedlichen rechtlichen Status inne. Harmonia axyridis wird in Europa kommerziell vermarktet und darf in Deutschland mit Genehmigungsvorbehalt im Freiland ausgebracht werden, wohingegen Anoplophora glabripennis in der EU als zu bekämpfender Quarantäneschadorganismus geführt wird. Für beide Insekten gibt es derzeit keinen praktikablen Rechtsanspruch auf Schadenshaftung bzw. Entschädigungen. Neben der Erstellung von Verbreitungsmodellen nach naturwissenschaftlichen Kriterien, wird dieser Tatbestand erörtert und entsprechende Verbesserungsansätze für die Normsetzung und -anwendung präsentiert.
This dissertation focuses on e-marketing strategy's effective elements in tourism industry. As case study, research focus is on Airlines, tour operator, chain hotels in Iran and Germany. It aims to show various possibilities to enhance the company- e-marketing strategy and successfully performance e-marketing strategies with recognition effective elements and their important during the strategy designing and implementation process. For the purpose of this research due to the nature of the research, Explanatory -exploratory-applicable; after studying and consulting, Delphi technique has been chosen. In results, we have some effective elements and their important according the Delphi and AHP method. For example between elements "Tourists' Needs, Experience and Expects" with the importance coefficient of %204 is the most remarkable elements and "Customer satisfactions' elements group" with average value 5.54 according the research results have more important than other groups.
Die vorliegende Arbeit entstand im Rahmen des EU INTERREG NWE IVB Projektes "ForeStClim - Transnational Forestry Management Strategies in Response to Regional Climate Change Impacts". Zum Zweck der Verbesserung des Prozessverständnisses von Abflussprozessen in Wäldern sowie zur Validierung und Weiterentwicklung eines GIS-basierten Tools (GIS-DRP) zur Erstellung von Abflussprozesskarten wurden auf 25 Test-Plots in vier Einzugsgebieten in Rheinland-Pfalz und dem Großherzogtum Luxemburg boden-hydrologische Untersuchungen durchgeführt. Auf Grundlage dieser Untersuchungen konnten große intraspezifische Unterschiede im Abflussverhalten von Waldstandorten erhoben werden. Die Differenzen werden dabei hauptsächlich durch das Substrat, die bodenphysikalischen Eigenschaften, die Nutzung bzw. deren Intensität und die Vorfeuchte bedingt. Es wurde nachgewiesen, dass Wälder generell hohe Infiltrationsraten aufweisen und verzögerte Zwischenabflussprozesse begünstigen. Durch einen prinzipiell naturnahen Waldbau und etwaige Meliorationsmaßnahmen auf Niederertragsstandorten bestehen zudem Möglichkeiten positiv auf die Wasserretention und das Wasserspeichervermögen eines Forstbestandes einzuwirken. Die mittels GIS-DRP erstellten Abflussprozesskarten der vier Testgebiete wurden durch die Ergebnisse der Geländeuntersuchungen sowie der Abflussprozesskartierung nach SCHERRER (2006) validiert. Hierdurch wurden für die Abflussgenerierung wichtige Parameter ermittelt und Optimierungsansätze erarbeitet, welche anschließend in GIS-DRP implementiert werden konnten. Verschlämmungsprozesse auf Ackerflächen können nun durch das modifizierte GIS-DRP-Werkzeug identifiziert werden. Zudem war es möglich, Extrem-Ereignis basierte Abflussprozesskarten zu etablieren, die Hot Spots der Abflussgenerierung identifizieren können. Die Einführung des Abflussprozesses "dSSF" (tiefer Zwischenabfluss) wurde durch eine neue Klassifizierung des geologischen Ausgangssubstrates erreicht. Forstwirten und Entscheidungsträgern im Waldmanagement wird somit die Möglichkeit geboten, Expertenwissen in ihre Planungen einfließen zu lassen. Hierdurch kann zum einen positiv auf den Landschaftswasserhaushalt eingewirkt werden, da gezielt auf Flächen nachteiliger Abflussbildung geeignete Maßnahmen des dezentralen Hochwasserschutzes angewandt werden können. Zum anderen werden Potentiale für bestmögliche Waldwachstumsvoraussetzungen in einem Landschaftsraum aufgezeigt. Der nachhaltigen Nutzung von Wäldern wird somit auch im Kontext des Klimawandels Rechnung getragen.
Seit Mitte der 1970er Jahre engagiert sich das Land Nordrhein-Westfalen, in Folge des sozial/ökologischen Wertewandels der 1960er und 1970er Jahre, in der Radverkehrsförderung. Damals wie heute ist die systematische Realisierung von Radverkehrsnetzen, die durchgängig mit einem Leitsystem gekennzeichnet werden, ein zentrales Landesziel. Hierzu entwickelte das Land NRW unterschiedliche Strategien: Ende der 1970er Jahre wurde landesweit ein touristisches Netz erarbeitet, das jedoch seitens der Kommunen nur wenig Akzeptanz fand. Anschließend führte das Land NRW mit zwei Modellvorhaben den Nachweis, dass zur Förderung des Radverkehrs eine systematische Zielnetzplanung verbunden mit einer Kennzeichnung des Netzes mittels Leitsystem zielführend ist. Doch auch dies fand seitens der Kommunen nur wenig Nachahmer. Daher leitete das Land NRW einen weiteren Strategiewechsel von der Bottom-up-Strategie zur Top-down-Strategie ein: 1995 wurde im Koalitionsvertrag der Landesregierung die Realsierung des Radverkehrsnetz Nordrhein-Westfalen (RVN NRW) politisch beschlossen. Landesweit sollte ein Radverkehrsnetz geplant und anschließend mit einem Leitsystem vor Ort gekennzeichnet werden. Das RVN NRW wurde zwischen 1996 und 2007 unter vollständiger Finanzierung des Landes NRW in enger Abstimmung mit den 427 Kommunen und ca. 2.000 Projektpartnern erfolgreich umgesetzt. Es hat eine Länge von 14.155 km. Heute wird das RVN NRW durch viele Kommunen weiter lokal verdichtet. Bereits im Rahmen der Projektkonzeption waren auf Grundlage des RVN NRW umfangreiche Synergien vorgesehen, indem u. a. der Radroutenplaner NRW entwickelt wurde. Dieser wird mittels Internet/Smartphone kommuniziert und enthält sowohl alle Informationen zur Planung der Strecke vor der Fahrt, als auch zur Wegefindung während der Fahrt. Mit diesem innovativen Projekt wurden zahlreiche Mehrwerte und Synergien erzielt, indem z. B. radtouristischen Netze neu geordnet, ein landeseinheitliches Qualitätsmanagement zur Pflege entwickelt, ein Repertoire zur Sicherung des Radverkehrs außerorts geschaffen und insbesondere die Verkehrsmittel des Umweltverbunds sowohl in den Netzen (Hardware) als auch in der Informationsvermittlung (Software) miteinander verknüpft wurden. Unter Berücksichtigung der ökologischen, energetischen, demographischen und volkswirtschaftlichen Anforderungen an die Mobilität der Zukunft, muss ein nachhaltiges selbsterklärendes multimodales Mobilitätssystem mit dem Rückgrat Öffentlicher Verkehr entwickelt werden. Mit der Realisierung des RVN NRW hat das Land NRW bereits eine wesentliche Komponente fertiggestellt. Um die Systemvorteile der jeweiligen Verkehrsarten optimal nutzen zu können, sind umfangreiche weitere Maßnahmen erforderlich, die wiederum einer Landesinitiative bedürfen. Das mit der Konzeption des RVN NRW erfolgreich praktizierte Umsetzungsverfahren lässt sich auf eine Vielzahl von weiteren Zukunftsaufgaben übertragen. Allgemeingültige Handlungsempfehlungen zeigen den Weg auf, wie auch diese Visionen in die Realität übergeleitet werden können.
On the Influence of Ignored Stimuli: Generalization and Application of Distractor-Response Binding.
(2011)
In selection tasks where target stimuli are accompanied by distractors, responses to target stimuli, target stimuli and the distractor stimuli can be encoded together as one episode in memory. Subsequent repetition of any aspect of such an episode can lead to the retrieval of the whole episode including the response. Thus, repeating a distractor can retrieve responses given to previous targets; this mechanism was labeled distractor-response binding and has been evidenced in several visual setups. Three experiments of the present thesis implemented a priming paradigm with an identification task to generalize this mechanism to auditory and tactile stimuli as well as to stimulus concepts. In four more experiments the possible effect of distractor-response binding on drivers' reactions was investigated. The same paradigm was implemented using more complex stimuli, foot responses, go/no-go responses, and a dual task setup with head-up and head-down displays. The results indicate that distractor-response binding effects occur with auditory and tactile stimuli and that the process is mediated by a conceptual representation of the distractor stimuli. Distractor-response binding effects also revealed for stimuli, responses, and framework conditions likely to occur in a driving situation. It can be concluded that the effect of distractor-response binding needs to be taken into account for the design of local danger warnings in driver assistance systems.
Zum Problem eines Bewusstseins bei Tieren am Paradigma der kantischen Theorie des Bewusstseins
(2012)
In einem ersten längeren Teil wird die These begründet und verteidigt, dass vor dem Hintergrund der Bewusstseins- bzw. Erkenntnislehre Kants, die vornehmlich den Menschen in den Blick nimmt, auch die Tiere als Züge transzendentaler Subjektivität aufweisend verstanden werden müssen. Im Anschluss daran wird diese Einsicht kritisch auf Kants Theorie menschlichen Bewusstseins und Erkennens bezogen. Es sind vornehmlich zwei Gesichtspunkte der Bewusstseins- bzw. Erkenntnistheorie Kants, die zur Begründung genannter These herangezogen werden: Zum einen die Lehre Kants von der Apriorität von Zeit und Raum als Formen der Anschauung eines transzendentalen Subjekts - insofern Tiere in Zeit und Raum anschauen, müssen auch sie über die apriorischen Anschauungsformen der Zeit und des Raumes verfügen; zum anderen die mit Kant aufzuweisende Abhängigkeit des Wahrnehmungsbewusstseins von nicht dem Vermögen der Sinnlichkeit zuzurechnenden Synthesisleistungen. Letztere sind vielmehr als von der Einheit eines transzendentalen Subjekts abhängig anzusehen, welche bzw. welches mithin auch bei Tieren zu veranschlagen ist. Vor dem skizzierten Hintergrund - und nachdem noch Kants Begriff des Organismus, des Lebens und seine Position zum Vorstellungsleben von Tieren nähere Betrachtung gefunden haben - werden in einem abschließenden Teil der Arbeit zwei Gesichtspunkte der kantischen Theorie menschlichen Bewusstseins kritisch diskutiert. Zunächst wird problematisiert, inwiefern Kants mindestens implizite These zu verteidigen ist, Vernunft weise gleichsam eine organologische Einheit auf, in der die einzelnen "Glieder" wechselseitig aufeinander bezogen sind und somit eine unauflösbare Einheit bilden. Die Notwendigkeit, auch Tieren transzendentale Subjektivität in bestimmtem Ausmaß zuzusprechen, scheint eine Aufspaltung besagter organologischer Einheit zur Folge zu haben. Des Weiteren wird erwogen, ob bei Tieren " nämlich insofern bei ihnen offenbar die Bewusstseinsebene vorliegt, die Kant beim Menschen die empirische Apperzeption oder den inneren Sinn nennt - nicht auch schon von Selbstbewusstsein zu sprechen ist. Es ist doch in ihrem wie in unserem Fall ein transzendentales Subjekt, das, insofern Zeit und Raum lediglich apriorische Anschauungsformen sind, sich selbst anschaut bzw. sich auch seiner selbst insofern bewusst ist. Es ist, so wird argumentiert, allererst Selbsterkenntnis, die den Menschen wesentlich vom Tier unterscheidet, nicht aber schon Selbstbewusstsein.
Der Schwarzmeerraum stellte am Ende des Mittelalters einen Schnittpunkt unterschiedlichster Kulturbereiche dar. Hier trafen das zerfallende Byzantinische Reich, die Reste der Kreuzfahrerstaaten, verschiedene mongolische Reiche und das aufsteigende Osmanische Reich aufeinander. Wie sich aus diesem Aufeinandertreffen ein über Jahrzehnte trotz immer wieder entstehender Konflikte fruchtbares und bei aller Dynamik relativ stabiles Miteinander entwickelte, wird anhand der aufschlussreichen Register der genuesischen Massaria von Caffa untersucht. Dabei liegt der Fokus sowohl auf der Organisation des italienischen Netzwerks in der Region als auch auf dem Umgang mit den tatarischen und türkischen Nachbarn, auf deren Gebiet die Genuesen operierten, insbesondere auf den diplomatischen Aktivitäten. Wie sich unter diesen Umständen der Handel als Hauptaktivität entfaltete, wird am Beispiel des Sklavenhandels verdeutlicht.
Untersucht wurde der Zusammenhang zwischen körperlichen sowie psychischen Beschwerden und kulturellen Wertvorstellungen, Akkulturationsorientierungen, Kompetenz- und Kontrollüberzeugungen, Vertrauen in direkte Bezugspersonen und Hoffnungslosigkeit bei 172 türkischstämmigen Menschen in Deutschland im Alter von 16 bis 73 Jahren. Die deutschen Erhebungsinstrumente wurden mit Ausnahme eines Fragebogens, der bereits in türkischer Sprache vorlag, von der Autorin und einer staatlich anerkannten Dolmetscherin in die türkische Sprache übersetzt. Für die deutschen und türkischen Messinstrumente wurden anschließend Item- und Skalenanalysen durchgeführt, um sie hinsichtlich ihrer psychometrischen Tauglichkeit zu überprüfen. Weiterhin wurde die türkischstämmige Gesamtstichprobe in eine türkisch orientierte und eine deutsch orientierte Subgruppe unterteilt, zwischen denen einige Mittelwertsvergleiche berechnet wurden, um einerseits inhaltlich relevante Unterschiede explorativ zu erforschen und um andererseits zu überprüfen, ob die Variablen Nationalität, Sprache oder Geburtsort für die stärkere Symptomausprägung bei in Deutschland lebenden Türken entscheidend sind.
Öffentlichkeitsarbeit ist in der politischen Arbeit unabdingbar geworden, die Wirkungen von Kommunikationsmaßnahmen in die Bevölkerung sind Gegenstand zahlreicher Untersuchungen. Die Wirkungen auf die Durchführenden selber, also auf die Politik und die Verwaltung, sind hingegen noch nicht untersucht worden. Hier setzt diese Arbeit an. Im Zentrum der Untersuchung steht dementsprechend die "interne" Wirkung (auf Verwaltung, Politik) einer Kommunikationsmaßnahme, weniger die "externe" (in die Bevölkerung). Zentrale These ist, dass eine an die Öffentlichkeit gerichtete Maßnahme eine interne Wirkung entfaltet, die die politischen, gesellschaftlichen und verwaltungstechnischen Rahmenbedingungen wesentlich zugunsten des beworbenen Themas verändert. Am Beispiel des Radverkehrs wird diese These überprüft. Als Untersuchungsrahmen dient die "Kopf-an" Kampagne des Bundesumweltministeriums, welche, durchgeführt in neun Kommunen Deutschlands, die Förderung des Alltagsradverkehrs zum Ziel hatte. Mittels einer vergleichenden Untersuchung von Hemmnissen und Erfolgsfaktoren kommunaler Radverkehrspolitik werden Erfolgsfaktoren für den kommunalen Radverkehr extrahiert, die die Kernthesen der Untersuchung bilden. Inwieweit diese Erfolgsfaktoren durch die "Kopf an" Kampagne positiv beeinflusst werden konnten, wird mittels Experteninterviews untersucht. Es wird gezeigt, dass eine Reihe von Faktoren positiv beeinflusst wurde und sich so aufgrund der Kampagne ein positiveres Klima für den Radverkehr in Politik und Verwaltung entwickelt hat.
Die Auswirkungen von Rahmenfehlern in Zensen werden bereits seit vielen Jahren untersucht. Eine Methode, um aktuelle Bevölkerungszahlen zu gewinnen, basiert auf Fortschreibung. Wegen Ungenauigkeiten in der Fortschreibung wurden aber auch andere Modelle entwickelt - die capture-recapture-Modelle. Am 29. August 2006 hat die Bundesregierung beschlossen, dass in Deutschland 2011 ein registergestützter Zensus durchgeführt wird. Der Schwerpunkt dieser Dissertation liegt in der Anwendung des capture-recapture-Modelles im deutschen Zensus 2011. Die Dissertation vergleicht den dual system estimator (DSE) und alternative Schätzer (Verallgemeinerter-Regressionsschätzer, Verhältnis-synthetischer Schätzer, Schätzer basierend auf dem Unit-level Modell) für die Schätzung der Anzahl der tatsächlich vorhandenen Personen. Die empirische Untersuchung der Güte der Schätzer basiert auf Monte Carlo Simulationen synthetischer Populationen des Bundeslandes Saarland.
This thesis centers on formal tree languages and on their learnability by algorithmic methods in abstractions of several learning settings. After a general introduction, we present a survey of relevant definitions for the formal tree concept as well as special cases (strings) and refinements (multi-dimensional trees) thereof. In Chapter 3 we discuss the theoretical foundations of algorithmic learning in a specific type of setting of particular interest in the area of Grammatical Inference where the task consists in deriving a correct formal description for an unknown target language from various information sources (queries and/or finite samples) in a polynomial number of steps. We develop a parameterized meta-algorithm that incorporates several prominent learning algorithms from the literature in order to highlight the basic routines which regardless of the nature of the information sources have to be run through by all those algorithms alike. In this framework, the intended target descriptions are deterministic finite-state tree automata. We discuss the limited transferability of this approach to another class of descriptions, residual finite-state tree automata, for which we propose several learning algorithms as well. The learnable class by these techniques corresponds to the class of regular tree languages. In Chapter 4we outline a recent range of attempts in Grammatical Inference to extend the learnable language classes beyond regularity and even beyond context-freeness by techniques based on syntactic observations which can be subsumed under the term 'distributional learning', and we describe learning algorithms in several settings for the tree case taking this approach. We conclude with some general reflections on the notion of learning from structural information.
Die ältesten bekannten jüdischen Grabsteine in den Rheinlanden befinden sich in Mainz und Worms. Ihre Inschriften werden dem 11. Jahrhundert n. Chr. zugeordnet und sind meistens datiert. Möglicherweise noch früher ist die undatierte Inschrift von Heilbronn anzusetzen, die aber vielleicht gar kein Epitaph ist. In dieser Untersuchung wird nach der Einleitung (Vorstellung eines namenkundlich-geschichtswissenschaftlichen Projekts) zunächst der Wert jüdischer Epitaphe für die onomastische Forschung aufgezeigt, die regionale Verteilung der rheinischen jüdischen Grabsteine des Mittelalters beschrieben und die Abgrenzung historischer Phasen erörtert. Bei der Prüfung der Heilbronner Inschrift und ihres Umfelds ergaben sich bisher unbeachtete Aspekte, deren Bedeutung für die Einordnung dieses Epigraphs aufgezeigt wird. Die anschließenden Analysen und Erörterungen richten sich nach einer Abfolge, die auch bei der Untersuchung der datierten Grabinschriften beachtet wird: Nach der Behandlung von Datierungsfragen wird der Blick auf die onomastischen Felder Name(n), Attribut(e), Bindeglied(er), Schrift(en), Sprache(n) und Kette(n) gerichtet. Der jeweils angefügte Vergleich mit antiken jüdischen Inschriften ist nach ebendiesem Muster aufgebaut. So wird beispielsweise nicht nur die Verbreitung des mit der Heilbronner Inschrift überlieferten Namens Nathan im Mittelalter skizziert, sondern auch konstatiert, daß dieser biblische Name in dem betreffenden Vergleichsmaterial der Antike nicht zu finden ist. Aus arbeits- und darstellungsökonomischen Gründen wird bei der Behandlung der erwähnten Grabsteine in Mainz und Worms unterschieden zwischen denjenigen Teilaufgaben, die alle diesbezüglichen Inschriften der Zeit vor dem Ersten Kreuzzug betreffen, und denjenigen, die sich auf die speziellen Angaben des einzigen bekannten Epitaphs der Phase Ia (bis ca. a. 1050) beziehen. Die erstgenannten Teilaufgaben werden in dieser Grundlegung erörtert, dagegen die speziellen Angaben der Epitaphe der Phase Ib (ca. a. 1050-1100) erst in einer künftigen Publikation ausführlicher besprochen. Zu den generellen Beobachtungen bei den Vergleichen nicht nur mit antiken, sondern auch mit späteren jüdischen (Grab-)Inschriften u. a. in Italien (bes. Venosa), Spanien und Frankreich gehört, dass man sich in der Antike bei der Zählung der Jahre auf die nichtjüdische Herrschaftsausübung (wie römische Konsuln) bezog, während man im Mittelalter spezifisch jüdisch ("nach der Zerstörung des Tempels", "nach der Erschaffung der Welt") zählte. Weiterhin ist z. B. bemerkenswert, dass die jüdischen Epitaphe nach ca. 750 ausschließlich mit hebräischen Buchstaben geschrieben wurden ("Schriftgrenze") und dass von den untersuchten nur rheinische den Zusatz Lifrat "nach der Zählung" aufweisen. Eine rheinische Spezialität ist zudem die auffällige Häufigkeit des biblischen Namens Jehuda und die Verbreitung von Senior/Schneior, wobei, von dem lateinischen Wort ausgehend, in der Untersuchung verschiedene Positionen zur sprach- und regionalhistorischen Einordnung dieses Namens erwogen und linguistische Fakten und Faktoren besonders aus der Perspektive der germ.-deutschen Majoritätskomponente des Jiddischen und aus romanistischer Sicht erörtert werden. Spezifika der jüdischen Namenwelt werden bei der Darstellung onomastischer Ketten erstmals in angemessener Detailbeachtung berücksichtigt, was entsprechende Vergleiche entscheidend befördert. Ergänzt wird die Abhandlung nicht nur u. a. durch Kontextwiedergaben und 28 Tabellen, sondern auch durch sechs umfangreiche Exkurse, in denen neben philologischen (z. B. Diminutivbildungen) und literarischen Fragen auch solche anderer Disziplinen wie archäologisch-historischer in den Blick genommen werden.
Eine Vielzahl hydrophiler Xenobiotika wird in kommunalen Kläranlagen nur unvollständig abgebaut und stellt ein potentielles Risiko für aquatische Ökosysteme dar. Die Eliminationsleistung von Kläranlagen hat sich deshalb während des letzten Jahrzehnts zu einem Schwerpunkt in der aquatischen Umweltchemie entwickelt. Die vorliegende Arbeit untersucht in diesem Zusammenhang die Variation biologischer Abbauleistungen kommunaler Kläranlagen für polare Xenobiotika. Es soll überprüft werden, ob die Abbauleistung von Xenobiotika mit derer klassischer Nährstoffe in Beziehung gesetzt werden kann. Als zusätzlicher Faktor zur Erklärung von unterschiedlichen Eliminationsleistungen wurden Probenahmestrategien hinsichtlich der Erstellung von Massenbilanzen analysiert. Fünf Pharmaka sowie drei Aminopolycarbonsäuren wurden als Testsubstanzen ausgewählt. Diese umfassen ein Spektrum an mikrobiologischer Abbaubarkeit bedingt durch die Reaktivität ihrer unterschiedlichen molekularen Strukturen. Ein kombinierter Versuchsaufbau aus Respirometrie und Abbautests ermöglichte, neben der Bestimmung von Abbaukinetiken, auch die Charakterisierung von Belebtschlamm. Der Einfluss von Mischungsprozessen auf die Abbauleistungen von Kläranlagen wurde mittels hydraulischer Aufenthaltszeitverteilungen modelliert. Darauf basierend wurde eine Methode zur Beurteilung und Erstellung von Eliminationsleistungen aus Zulauf-Ablauf Massenbilanzen entwickelt. Die Resultate zeigen deutliche Unterschiede in den Belebtschlammcharakteristika und dem Abbaupotential von Xenobiotika zwischen verschiedenen Kläranlagen. Die aktive heterotrophe Biomasse wurde als steuernder Faktor für die Biodegradation der untersuchten leicht und moderat abbaubaren Xenobiotika identifiziert. Dies kann als Hinweis auf kometabolische Abbauprozesse durch unspezifische Enzymaktivitäten gewertet werden. Die beobachtete Abnahme der Eliminationsleistung mit steigendem Schlammalter konnte anhand modifizierter Kinetiken pseudo-erster Ordnung beschrieben werden. Die Modellierung von Mischungsprozessen mittels hydraulischer Aufenthaltszeitverteilungen macht deutlich, mit welcher Unsicherheit Massenbilanzen in Kläranlagen behaftet sind. Die Ergebnisse demonstrieren, dass dies vor allem auf inadäquate Probenahmestrategien zurückzuführen ist. Insbesondere Massenbilanzen auf der Basis von kurzen Probenahmezeiträumen und 24-h Mischproben resultieren in fehlerhafte Eliminationsraten. Der vorgestellte Ansatz benutzt die Verteilungen von Aufenthaltszeiten als Leitprinzip, um Zulauf- und Ablauffrachten zueinander in Beziehung zu setzen. Die Methode kann als Grundlage zur akkuraten Schätzung von Eliminationsleistungen herangezogen werden und bietet eine Erklärung für das Vorkommen negativer Eliminationsleistungen.
Psychiatric/Behavioral disorders/traits are usually polygenic in nature, where a particular phenotype is the manifestation of multiple genes. However, the existence of large families with numerous members who are affected by these disorders/traits steers us towards a Mendelian (or monogenic) possibility, where the phenotype is caused by a single gene. In order to better understand the genetic architecture of general psychiatric/behavioral disorders/traits, this thesis investigates large pedigrees that display a Mendelian pattern for attention-deficit/hyperactivity disorder, schizophrenia and bipolar disorder. Numerous challenges in the field of psychiatric and behavioral sciences have impeded the genetic investigation of such disorders/traits. Examples include frequent cross-disorders, genetic heterogeneity across subjects as well as the use of diagnostic tools that can be subjective at times. To overcome these challenges, this thesis investigates large multi-generational pedigrees, which comprise a significant number of members who exhibit specific psychiatric/behavioral phenotypes. These pedigrees provide high-resolution experimental setups that can dissect the genetic complexities of psychiatric/behavioral disorders/traits. This thesis adopts a classical two-stage genetic approach to investigate the various psychiatric/behavioral disorders/traits in large pedigrees. The classical two-stage genetic approach is commonly used by many human geneticists to study a wide spectrum of human physiological disorders but is only being applied to the field of psychiatric and behavioral genetics recently. Through the study of large pedigrees, this thesis discovers the genomic regions that may play a causative role in the expression of certain psychiatric/behavioral disorders/traits within the vast genome.
In addition to the well-recognised effects of both, genes and adult environment, it is now broadly accepted that adverse conditions during pregnancy contribute to the development of mental and somatic disorders in the offspring, such as cardiovascular disorders, endocrinological disorders, metabolic disorders, schizophrenia, anxious and depressive behaviour and attention deficit hyperactivity disorder (ADHD). Early life events may have long lasting impact on tissue structure and function and these effects appear to underlie the developmental origins of vulnerability to chronic diseases. The assumption that prenatal adversity, such as maternal emotional states during pregnancy, may have adverse effects on the developing infant is not new. Accordant references can be found in an ancient Indian text (ca. 1050 before Christ), in biblical texts and in documents originating during the Middle Ages. Even Hippocrates stated possible effects of maternal emotional states on the developing fetus. Since the mid-1950s, research examining the effects of maternal psychosocial stress during pregnancy appeared in the literature. Extensive research in this field has been conducted since the early 1990s. Thus, the relationship between early life events and long-term health outcomes was already postulated over 20 years ago. David Barker and colleagues demonstrated that children of lower birth weight - which represents a crude marker of an adverse intrauterine environment - were at increased risk of high blood pressure, cardiovascular disorders, and type-2 diabetes later in life. These provocative findings led to a large amount of subsequent research, initially focussing on the role of undernutrition in determining fetal outcomes. The phenomenon of prenatal influences that determine in part the risk of suffering from chronic disease later in life has been named the "fetal origins of health and disease" paradigm. The concept of "prenatal programming" has now been extended to many other domains, such as the effects of prenatal maternal stress, prenatal tobacco exposure, alcohol intake, medication, toxins, as well as maternal infection and diseases. During the process of prenatal programming, environmental agents are transmitted across the placenta and act on specific fetal tissues during sensitive periods of development. Thus, developmental trajectories are changed and the organisation and function of tissue structure and organ system is altered. The biological purpose of those "early life programming" may consist in evolutionary advantages. The offspring adapts its development to the expected extrauterine environment which is forecast by the clues available during fetal life. If the fetus receives signals of a challenging environment, e.g. due to maternal stress hormones or maternal undernutrition, its survival may be promoted due to developmental adaptation processes. However, if the expected environment does not match with the real environment, maladapation and later disease risk may result. For example, a possible indicator of a "response ready" trait, such as hyperactivity/inattention may have been advantageous in an adverse ancient environment. However, it is of disadvantage when the postnatal environment demands oppositional skills, such as attention and concentration " e.g. in the classroom, at school, to achieve academic success. Borderline personality disorder (BPD) is a prevalent psychiatric disorder, characterized by impulsivity, affective instability, dysfunctional interpersonal relationships and identity disturbance. Although many studies report different risk factors, the exact etiologic mechanisms are not yet understood. In addition to the well-recognised effects of genetic components and adverse childhood experiences, BPD may potentially be co-determined by further environmental influences, acting very early in life: during pre- and perinatal period. There are several hints that may suggest possible prenatal programming processes in BPD. For example, patients with BPD are characterized by elevated stress sensitivity and reactivity and dysfunctions of the neuroendocrine stress system, such as the hypothalamic pituitary adrenal (HPA) axis. Furthermore, patients with BPD show a broad range of somatic comorbidities " especially those disorders for which prenatal programming processes have been described. During infancy and childhood, BPD patients already show behavioural and emotional abnormalities as well as pronounced temperamental traits, such as impulsivity, emotional dysregulation and inattention that may potentially be co-determined by prenatal programming processes. Such temperamental traits - similar to those, seen in patients with ADHD - have been described to be associated with low birthweight which indicates a suboptimal intrauterine environment. Moreover, the functional and structural alterations in the central nervous system (CNS) in patients with BPD might also be mediated in part by prenatal agents, such as prenatal tobacco exposure. Prenatal adversity may thus constitute a further, additional component in the multifactorial genesis of BPD. The association between BPD and prenatal risk factors has not yet been studied in such detail. We are not aware of any further study that assessed pre- and perinatal risk factors, such as maternal psychoscocial stress, smoking, alcohol intake, obstetric complications and lack of breastfeeding in patients with BPD.
Diese Dissertation befasst sich mit anreiztheoretischen Konsequenzen der Reform der Professorenbesoldung. Dabei stehen vor allem die besonderen Leistungsbezüge im Mittelpunkt, die ökonomisch als relative Leistungsturniere zu betrachten sind. Das erste Papier mit dem Titel "Stufenmodell oder Leistungspunkte? Die Vergabe besonderer Leistungsbezüge an deutschen Universitäten" beschäftigt sich mit den Vergabeverfahren für besondere Leistungsbezüge auf Universitätsebene und zeigt, dass die existierenden Systeme unterschiedliche Turniertypen darstellen: Bei dem Stufenmodell handelt es sich um ein U-Typ Turnier, während das Leistungspunkte-Modell als J-Typ Turnier aufzufassen ist. Ein Vergleich dieser beiden Typen liefert modelltheoretische Empfehlungen für die Umsetzung. Diese werden empirisch für 60 deutsche Universitäten überprüft. Das zweite Papier "Searching for the best? Clubs and their admission decision" beschäftigt sich mit strategischen Entscheidungen in Berufungskommissionen. Mit der Einführung der W-Besoldung an deutschen Universitäten werden Professoren stärker leistungsabhängig entlohnt. Die so genannten besonderen Leistungsbezüge werden durch relative Leistungsturniere auf Fachbereichsebene vergeben. Im Zusammenspiel mit der Auswahl neuer Hochschullehrer in Berufungskommissionen können adverse Anreize entstehen, nicht den besten Bewerber auszuwählen. Die Fachbereiche sehen sich bei der Einstellungsentscheidung einem Trade-off gegenüber: Die Berufung eines sehr guten Kandidaten erzeugt Spill-over-Effekte. Zum einen können durch Kooperationen mit anderen (guten) Forschern des Fachbereichs neue Projekte entstehen, die Forschungsgelder und Drittmittel einbringen und somit auch die Reputation des Fachbereichs insgesamt (oder dieser Forschergruppe) steigern. Zum anderen führt diese Berufungsentscheidung dazu, dass bei der Vergabe der besonderen Leistungsbezüge die zusätzliche Konkurrenz durch einen besonders erfolgreichen Professor bedeutet, dass weniger erfolgreiche Fakultätsmitglieder geringere besondere Leistungsbezüge erhalten. Dieser Effekt kann als relative Deprivation verstanden werden. Welcher Effekt überwiegt, wird mit Hilfe eines zweistufigen Spiels untersucht. Das dritte Papier "Kooptation und Wettbewerb - Experimentelle Analyse" analysiert das Zusammenwirken von relativen Leistungsturnieren und Team-Arbeit experimentell. Dazu wird das Design von Irlenbusch/Ruchala (2008) um das Element der Kooptation eines neuen Mitspielers und Turniergegners erweitert. Es zeigt sich, dass die Anreizwirkung von Wettbewerben mit nur einem Preis (Stufenmodell) größer ist als bei mehreren, relativ vergebenene Preisen (Leistungspunkte-Verfahren). Bei der Zuwahl-Entscheidung gibt es zwei Spiel-Strategien: Neben der typischen Auszahlungsmaximierung gibt es Spieler, die bereit sind auf Einkommen zu Gunsten von Status zu verzichten. Diese Spieler wählen einen Bewerber, der ihre eigene Position im internen Ranking nicht gefährdet. Besonders anfällig für dieses Verhalten ist das Stufenmodell mit nur einem Siegerpreis. Das Leistungspunkte-Verfahren schneidet hier besser ab, da es dort nur wenige Fälle von Status sichernden Zuwahl-Entscheidungen gibt.
Wilhelm Windelband (1848-1915) gilt als ein wegbereitender Denker, der die wertphilosophische Ausrichtung der sogenannten Südwestdeutschen Schule vorzeichnet. Aufgrund dieser Vorreiterrolle sowie seiner fragmentarischen Denkweise gerät die Eigenständigkeit seines Philosophierens oft in Vergessenheit oder wird meistens im Schatten der Rezeptionsgeschichte gesehen. Die vorliegende Arbeit macht sich zur Aufgabe, Windelbands Philosophie zunächst in ihrer Eigentümlichkeit wiederherzustellen, um anschließend nach ihrer systematischen Bedeutung fragen zu können. Neben den entwicklungsgeschichtlichen Aspekten, anhand derer Windelbands gedanklicher Werdegang in drei Phasen (Psychologismus, Wertphilosophie und Kulturphilosophie) eingeteilt wird, geht die vorliegende Arbeit vor allem der Frage nach, in wie fern die von ihm konzipierte Wertphilosophie als Kulturphilosophie zu verstehen ist. Die Forderung des späten Windelbands, den Kantischen Kritizismus zu einer umfassenden Kulturphilosophie zu erweitern, dient dabei als roter Faden dieses Interpretationsversuchs. Die Herausarbeitung möglicher systematischer Ansatzpunkte innerhalb seiner Werttheorie, die dieser Forderung genügen, soll Windelbands Status als Kulturphilosoph untermauern.
Variational inequality problems constitute a common basis to investigate the theory and algorithms for many problems in mathematical physics, in economy as well as in natural and technical sciences. They appear in a variety of mathematical applications like convex programming, game theory and economic equilibrium problems, but also in fluid mechanics, physics of solid bodies and others. Many variational inequalities arising from applications are ill-posed. This means, for example, that the solution is not unique, or that small deviations in the data can cause large deviations in the solution. In such a situation, standard solution methods converge very slowly or even fail. In this case, so-called regularization methods are the methods of choice. They have the advantage that an ill-posed original problem is replaced by a sequence of well-posed auxiliary problems, which have better properties (like, e.g., a unique solution and a better conditionality). Moreover, a suitable choice of the regularization term can lead to unconstrained auxiliary problems that are even equivalent to optimization problems. The development and improvement of such methods are a focus of current research, in which we take part with this thesis. We suggest and investigate a logarithmic-quadratic proximal auxiliary problem (LQPAP) method that combines the advantages of the well-known proximal-point algorithm and the so-called auxiliary problem principle. Its exploration and convergence analysis is one of the main results in this work. The LQPAP method continues the recent developments of regularization methods. It includes different techniques presented in literature to improve the numerical stability: The logarithmic-quadratic distance function constitutes an interior point effect which allows to treat the auxiliary problems as unconstrained ones. Furthermore, outer operator approximations are considered. This simplifies the numerical solution of variational inequalities with multi-valued operators since, for example, bundle-techniques can be applied. With respect to the numerical practicability, inexact solutions of the auxiliary problems are allowed using a summable-error criterion that is easy to implement. As a further advantage of the logarithmic-quadratic distance we verify that it is self-concordant (in the sense of Nesterov/Nemirovskii). This motivates to apply the Newton method for the solution of the auxiliary problems. In the numerical part of the thesis the LQPAP method is applied to linearly constrained, differentiable and nondifferentiable convex optimization problems, as well as to nonsymmetric variational inequalities with co-coercive operators. It can often be observed that the sequence of iterates reaches the boundary of the feasible set before being close to an optimal solution. Against this background, we present the strategy of under-relaxation, which robustifies the LQPAP method. Furthermore, we compare the results with an appropriate method based on Bregman distances (BrPAP method). For differentiable, convex optimization problems we describe the implementation of the Newton method to solve the auxiliary problems and carry out different numerical experiments. For example, an adaptive choice of the initial regularization parameter and a combination of an Armijo and a self-concordance step size are evaluated. Test examples for nonsymmetric variational inequalities are hardly available in literature. Therefore, we present a geometric and an analytic approach to generate test examples with known solution(s). To solve the auxiliary problems in the case of nondifferentiable, convex optimization problems we apply the well-known bundle technique. The implementation is described in detail and the involved functions and sequences of parameters are discussed. As far as possible, our analysis is substantiated by new theoretical results. Furthermore, it is explained in detail how the bundle auxiliary problems are solved with a primal-dual interior point method. Such investigations have by now only been published for Bregman distances. The LQPAP bundle method is again applied to several test examples from literature. Thus, this thesis builds a bridge between theoretical and numerical investigations of solution methods for variational inequalities.
The role of cortisol and cortisol dynamics in patients after aneurysmal subarachnoid hemorrhage
(2011)
Spontaneous aneurysmal subarachnoid hemorrhage (SAH) is a form of stroke which constitutes a severe trauma to the brain and often leads to serious long-term medical and psychosocial sequels which persist for years after the acute event. Recently, adrenocorticotrophic hormone deficiency has been identified as one possible consequence of the bleeding and is assumed to occur in around 20% of all survivors. Additionally, a number of studies report a high prevalence of post-SAH symptoms such as lack of initiative, fatigue, loss of concentration, impaired quality of life and psychiatric symptoms such as depression. The overlap of these symptoms and those of patients with untreated partial or complete hypopituitarism lead to the suggestion that neuroendocrine dysregulations may contribute to the psychosocial sequels of SAH. Therefore, one of the aims of this work is to gain insights into the role of neuroendocrine dysfunction on quality of life and the prevalence of psychiatric sequels in SAH-patients. Additionally, as data on cortisol dynamics after SAH are scarce, diurnal cortisol profiles are investigated in patients in the acute and chronic phase, as well as the cortisol awakening response and feedback sensitivity in the chronic phase after SAH. As a result, it can be shown that some SAH patients exhibit lower serum cortisol levels but at the same time a higher cortisol awakening response in saliva than healthy controls. Also, patients in the chronic phase after SAH do have a stable diurnal cortisol rhythm while there are disturbances in around 50% of all patients in the acute phase, leading to the conclusion that a single baseline measurement of cortisol is of no substantial use for diagnosing cortisol dysregulations in the acute phase after SAH. It is assumed that in SAH patients endocrine changes occur over time and that a combination of adrenal exhaustion and a subsequent downregulation of corticosteroid binding globulin may be the most probable causes for the dissociation of serum cortisol concentrations and salivary cortisol profiles in the investigated SAH patients. These changes may be an emergency response after SAH and, as elevated free cortisol levels are connected to a better psychosocial outcome in patients in the chronic phase after SAH, this reaction may even be adaptive.
The demand for reliable statistics has been growing over the past decades, because more and more political and economic decisions are based on statistics, e.g. regional planning, allocation of funds or business decisions. Therefore, it has become increasingly important to develop and to obtain precise regional indicators as well as disaggregated values in order to compare regions or specific groups. In general, surveys provide the information for these indicators only for larger areas like countries or administrative divisions. However, in practice, it is more interesting to obtain indicators for specific subdivisions like on NUTS 2 or NUTS 3 levels. The Nomenclature of Units for Territorial Statistics (NUTS) is a hierarchical system of the European Union used in statistics to refer to subdivisions of countries. In many cases, the sample information on such detailed levels is not available. Thus, there are projects such as the European Census, which have the goal to provide precise numbers on NUTS 3 or even community level. The European Census is conducted amongst others in Germany and Switzerland in 2011. Most of the participating countries use sample and register information in a combined form for the estimation process. The classical estimation methods of small areas or subgroups, such as the Horvitz-Thompson (HT) estimator or the generalized regression (GREG) estimator, suffer from small area-specific sample sizes which cause high variances of the estimates. The application of small area methods, for instance the empirical best linear unbiased predictor (EBLUP), reduces the variance of the estimates by including auxiliary information to increase the effective sample size. These estimation methods lead to higher accuracy of the variables of interest. Small area estimation is also used in the context of business data. For example during the estimation of the revenues of specific subgroups like on NACE 3 or NACE 4 levels, small sample sizes can occur. The Nomenclature statistique des activités économiques dans la Communauté européenne (NACE) is a system of the European Union which defines an industry standard classification. Besides small sample sizes, business data have further special characteristics. The main challenge is that business data have skewed distributions with a few large companies and many small businesses. For instance, in the automotive industry in Germany, there are many small suppliers but only few large original equipment manufacturers (OEM). Altogether, highly influential units and outliers can be observed in business statistics. These extreme values in connection with small sample sizes cause severe problems when standard small area models are applied. These models are generally based on the normality assumption, which does not hold in the case of outliers. One way to solve these peculiarities is to apply outlier robust small area methods. The availability of adequate covariates is important for the accuracy of the above described small area methods. However, in business data, the auxiliary variables are hardly available on population level. One of several reasons for that is the fact that in Germany a lot of enterprises are not reflected in business registers due to truncation limits. Furthermore, only listed enterprises or companies which trespass specific thresholds are obligated to publish their results. This limits the number of potential auxiliary variables for the estimation. Even though there are issues with available covariates, business data often include spatial dependencies which can be used to enhance small area methods. Next to spatial information based on geographic characteristics, group-specific similarities like related industries based on NACE codes can be used. For instance, enterprises from the same NACE 2 level, e.g. sector 47 retail trade, behave more similar than two companies from different NACE 2 levels, e.g. sector 05 mining of coal and sector 64 financial services. This spatial correlation can be incorporated by extending the general linear mixed model trough the integration of spatially correlated random effects. In business data, outliers as well as geographic or content-wise spatial dependencies between areas or domains are closely linked. The coincidence of these two factors and the resulting consequences have not been fully covered in the relevant literature. The only approach that combines robust small area methods with spatial dependencies is the M-quantile geographically weighted regression model. In the context of EBLUP-based small area models, the combination of robust and spatial methods has not been considered yet. Therefore, this thesis provides a theoretical approach to this scientific and practical problem and shows its relevance in an empirical study.
Edition und Kommentar von 27 Texten auf Papyrus aus den französisch-italienischen Grabungen in Tebtynis (Umm el-Breigât), Ägypten. Alle Texte stammen aus römischer Zeit und sind in Tebtynis gefunden worden. Sie werden hier erstmals mit Abschrift, Übersetzung und Kommentar herausgegeben und beleuchten diverse Aspekte des täglichen Lebens, so auf Verwaltung, Wirtschaft, Rechtsangelegenheiten, Bevölkerung, Religion, Steuerwesen, Arbeitsalltag, Vertragswesen, geschäftliche und erbrechtliche Angelegenheiten. Es handelt sich somit um Quellenmaterial für alle altertumswissenschaftlichen Nachbarsdisziplinen. Folgende Texte sind enthalten: 1. Rundschreiben des Praefectus Aegypti; 2. Monatsbericht der Sitologen von Kerkesis; 3. κατ'ἄνδρα-Bericht der Sitologen von Kerkesis (Verso von Nr. 2); 4. Fragment eines Amtlichen Schreibens; 5. Verhandlungsprotokoll; 6. Liste von Dörfern und Geldsummen; 7. Liturgie-Vorschlagsliste (?); 8. Personenliste; 9. Aufstellung über Naturalien; 10. Tempelabrechnung; 11. Zensusdeklaration; 12. Schluß einer Eingabe mit Namenliste; 13. Eingabe der Thenherakleia?; 14. Quittungsbogen für verschiedene Steuern; 15. Quittungen für Dammsteuer; 16. Fragment einer Lohnquittung für Arbeiten auf einem Kleros (?); 17. Fragment einer Lohnquittung; 18. Liste von Zahlungen in Weizen; 19. Abrechnung von Außenständen in Naturalien und Geld; 20. Agoranomischer Vertrag über ein Geld- und Getreidedarlehen; 21. Donatio mortis causa; 22. Geschäftsbrief: Heron an Heron; 23. Geschäftsbrief: Heron an Heron; 24. Geschäftsbrief: Heron an Sabinos; 25. Brief; 26. Brief; 27. Fragment mit Erwähnung von Dörfern und Immobilien (descr.)
The complicated human alternative GR promoter region plays a pivotal role in the regulation of GR levels. In this thesis, both genomic and environmental factors linked with GR expression are covered. This research showed that GR promoters were susceptible to silencing by methylation and the activity of the individual promoters was also modulated by SNPs. E2F1 is a major element to drive the expression of GR 1F transcripts and single CpG dinucleotide methylation cannot mediate the inhibition of transcription in vitro. Also, the distribution of GR first exons and 3" splice variants (GRα and GR-P) is expressed throughout the human brain with no region-specific alternative first exon usage. These data mirrored the consistently low levels of methylation in the brain, and the observed homogeneity throughout the studied regions. Taken together, the research presented in this thesis explored several layers of complexity in GR transcriptional regulation.
There is a lot of evidence for the impact of acute glucocorticoid treatment on hippocampus-dependent explicit learning and memory (memory for facts and events). But there have been few studies, investigating the effect of glucocorticoids on implicit learning and memory. We conducted three studies with different methodology to investigate the effect of glucocorticoids on different forms of implicit learning. In Study 1, we investigated the effect of cortisol depletion on short-term habituation in 49 healthy subjects. 25 participants received oral metyrapone (1500 mg) to suppress endogenous cortisol production, while 24 controls received oral placebo. Eye blink electromyogram (EMG) responses to 105 dB acoustic startle stimuli were assessed. Effective endogenous cortisol suppression had no effect on short-term habituation of the startle reflex, but startle eye blink responses were significantly increased in the metyrapone group. The latter findings are in line with previous human studies, which have shown that excess cortisol, sufficient to fully occupy central nervous system (CNS) corticosteroid receptors, may reduce startle eye blink. This effect may be mediated by CNS mechanisms controlling cortisol feedback. In Study 2, we investigated delay or trace eyeblink conditioning in a patient group with a relative hypocortisolism (30 patients with fibromyaligia syndrome/FMS) compared to 20 healthy control subjects. Conditioned eyeblink response probability was assessed by EMG. Morning cortisol levels, ratings of depression, anxiety and psychosomatic complaints as well as general symptomatology and psychological distress were assessed. As compared to healthy controls FMS patients showed lower morning cortisol levels, and trace eyeblink conditioning was facilitated whereas delay eyeblink conditioning was reduced. Cortisol measures correlate significantly only with trace eyeblink conditioning. Our results are in line with studies of pharmacologically induced hyper- and hypocortisolism, which affected trace eyeblink conditioning. We suggest that endocrine mechanisms affecting hippocampus-mediated forms of associative learning may play a role in the generation of symptoms in these patients.rnIn Study 3, we investigated the effect of excess cortisol on implicit sequence learning in healthy subjects. Oral cortisol (30 mg) was given to 29 participants, whereas 31 control subjects received placebo. All volunteers performed a 5-choice serial reaction time task (SRTT). The reaction speed of every button-press was determined and difference-scores were calculated as a proof of learning. Compared to the control group, we found a delayed learning in the cortisol group at the very beginning of the task. This study is the first human investigation, indicating impaired implicit memory function after exogenous administration of the stress hormone cortisol. Our findings support a previous neuroimaging study, which suggested that the medial temporal lobe (including the hippocampus) is also active in implicit sequence learning, but our results may also depend on the engagement of other brain structures.
This work is concerned with two kinds of objects: regular expressions and finite automata. These formalisms describe regular languages, i.e., sets of strings that share a comparatively simple structure. Such languages - and, in turn, expressions and automata - are used in the description of textual patterns, workflow and dependence modeling, or formal verification. Testing words for membership in any given such language can be implemented using a fixed - i.e., finite - amount of memory, which is conveyed by the phrasing finite-automaton. In this aspect they differ from more general classes, which require potentially unbound memory, but have the potential to model less regular, i.e., more involved, objects. Other than expressions and automata, there are several further formalisms to describe regular languages. These formalisms are all equivalent and conversions among them are well-known.However, expressions and automata are arguably the notions which are used most frequently: regular expressions come natural to humans in order to express patterns, while finite automata translate immediately to efficient data structures. This raises the interest in methods to translate among the two notions efficiently. In particular,the direction from expressions to automata, or from human input to machine representation, is of great practical relevance. Probably the most frequent application that involves regular expressions and finite automata is pattern matching in static text and streaming data. Common tools to locate instances of a pattern in a text are the grep application or its (many) derivatives, as well as awk, sed and lex. Notice that these programs accept slightly more general patterns, namely ''POSIX expressions''. Concerning streaming data, regular expressions are nowadays used to specify filter rules in routing hardware.These applications have in common that an input pattern is specified in form a regular expression while the execution applies a regular automaton. As it turns out, the effort that is necessary to describe a regular language, i.e., the size of the descriptor,varies with the chosen representation. For example, in the case of regular expressions and finite automata, it is rather easy to see that any regular expression can be converted to a finite automaton whose size is linear in that of the expression. For the converse direction, however, it is known that there are regular languages for which the size of the smallest describing expression is exponential in the size of the smallest describing automaton.This brings us to the subject at the core of the present work: we investigate conversions between expressions and automata and take a closer look at the properties that exert an influence on the relative sizes of these objects.We refer to the aspects involved with these consideration under the titular term of Relative Descriptional Complexity.
Durch Bodendegradation werden jedes Jahr weltweit große Schäden verursacht. Die beiden Hauptverursacher für die globale Bodendegradation sind die Wind- und die Wassererosion. Für die Planung von effizienten Schutzmaßnahmen oder regionalen Managementplänen ist es deshalb wichtig zu verstehen, dass die beiden Prozesse nicht nur als abgekoppelte Phänomene auftreten. Auch wenn seit einiger Zeit das Bewusstsein hierfür zugenommen hat und eine steigende Anzahl von Bodenerosionsstudien auf diesen Sachverhalt eingehen, so bestehen vor allem bei der Abschätzung der relativen Bedeutung und dem Verständnis der vorhandenen Interaktionen zwischen der Wind- und Wassererosion noch substantielle Wissenslücken. Da indirekte Messverfahren, wie beispielsweise die Luftbildauswertung oder die Fernerkundung, für mikro-skalige Prozessstudien ungeeignet sind, beschränken sich die Studien zur Erfassung der Interaktion beider Prozesse zumeist auf die direkten und/oder experimentellen Messungen. Ein Vergleich der Abtragsraten und eine Untersuchung der Interaktionen zwischen der Wind- und der Wassererosion ist jedoch sehr schwierig, da es bislang kein Messinstrument gibt, dass einfach und schnell, die durch Wind, Wasser oder deren Zusammenwirken verursachten Erosionsraten auf natürlichen Oberflächen bestimmen kann. Aus diesem Grund wurde im Rahmen dieses Dissertationsprojekts erstmals, ein mobiler Windkanal mit integrierter Beregnungsanlage konzipiert und umgesetzt. Seine simulierten Wind- und Niederschlagseigenschaften wurden in Labormessungen mit einem Laserdistrometer, Niederschlagssammlern, Anemometern und Nebelversuchen bestimmt. Die beim Einsatz der Anlage in unterschiedlichen Messkampagnen gewonnenen Erkenntnisse zu seinem Aufbau flossen stetig in die Weiterentwicklung des Kanals ein. Die Qualität der simulierten Bedingungen im Kanal können nach den Modifikationen und unter Einbeziehung der Anforderungen an einen geländefähigen Kanal mit guter Mobilität, als sehr gut bezeichnet werden. Insbesondere die Reproduzierbarkeit der simulierten Bedingungen treten hier positiv hervor. Die angestrebten Ziele dieser Arbeit konnten weitestgehend erfüllt werden. Mit dem mobilen Windkanal mit integrierter Beregnungsanlage steht in Zukunft eine Anlage zur Verfügung, mit der die Abtragsraten der Wind- und Wassererosion im Gelände, getrennt und in ihrer gemeinsamen Wirkung, gemessen werden können. Durch den Einsatz der Anlage ist es möglich, einige der noch offenen wissenschaftlichen Fragen zur relativen Bedeutung und Interaktion der beiden Prozesse zukünftig zu untersuchen, um weitere Erkenntnisse über Ihren Einfluss auf die Bodendegradation, in Abhängigkeit von Landnutzungsänderungen und dem Klimawandel, zu erhalten.
By rodent studies it has been shown that the mineralocorticoid receptor (MR) is a candidate gene for the investigation of cognitive functions comparable to human executive function. The present work addresses the question if polymorphisms in the MR gene can act as a "probe" to explain a part of the interindividual variance of human executive functions. For this purpose, 72 healthy young participants were assigned to four equally sized groups, concerning their particular MR genotype for two common MR polymorphisms. They were investigated in an electroencephalogram (EEG) test session, accomplishing two cognitive tests while delivering saliva samples for subsequent cortisol measures. The two tests chosen for the assessment of executive functions were the Attention Network Task (ANT) and a modified version of the Wisconsin Card Sorting Test (WCST).Chapter 1 of the present work reports of the rational bases for the empirical approach, which were built up on a broad theoretical background presented in Chapter 2. In the third chapter, the investigation and results of the statistical analysis for behavioral data (i.e. reaction times, accuracy/error rates) are presented. No association with MR polymorphisms was found for the reaction times of both tests. For the accuracy rate, differences between genotype groups were found for ANT and WCST, indicating an association of MR polymorphisms and accuracy in the Alertness and Executive Control network of the ANT and during the detection of an intradimensional shift in the WCST. Data acquisition and the results for EEG data analyses are presented in Chapter 4. The results show that groups differing for MR genotype show different activity over prefrontal motor areas during the process of answering to the ANT. Those group differences again were prominent for the Alertness and Executive Control network. A tendency for further significant group differences was found for activity on frontopolar positions in extradimensional rule switching. Chapter 5 summarizes the findings for the analysis of salivary free cortisol, showing a tendency for an association between MR polymorphisms and a mildly stimulated Hypothalamus-pituitary-adrenal (HPA) axis during the test situation. The results of the different measures are integrated and discussed in Chapter 6 within the scope of novel findings in investigating the functionality of the chosen MR polymorphisms. Finally, Chapter 7 gives an outlook on the methodology and constraints of future research strategies to further describe the role of the MR in human cognitive function.
Die Dissertation zur "Pfälzischen Phraseologie" greift in den letzten Jahren für den deutschsprachigen Raum mehrfach thematisierte Forschungsdesiderate der (dialektalen) Phraseologie und Lexikographie auf: die genauere Analyse des phraseologischen Systems eines Dialekts sowie die Darstellung von Phraseologismen in Dialektwörterbüchern. In der vorliegenden Arbeit wird hierfür das Pfälzische ausgewählt, da es bisher in phraseologischer Hinsicht kaum untersucht wurde. Die Studie erweitert insofern die wenigen bereits vorhandenen Analysen dialektaler Phraseologie um eine zusätzliche Regionalsprache. Ziel der Arbeit ist es, die Besonderheiten der pfälzischen Phraseologie auf lexikographischer, kultureller und stilistisch-pragmatischer Ebene herauszuarbeiten. Die Phraseologie des Pfälzischen wird somit in dieser Studie unter verschiedenen Gesichtspunkten betrachtet und analysiert. In einem ersten Schritt wird das zugrunde gelegte Korpus, eines der großlandschaftlichen Dialektwörterbücher, das Pfälzische Wörterbuch, aus Sicht der enthaltenen Phraseologiekomponenten unter makro- und mikrostrukturellen Gesichtspunkten ausgewertet und beurteilt. Dadurch können detaillierte Aussagen zur Repräsentation der Phraseologie innerhalb eines Wörterbuchtypus gewonnen werden, wie sie bisher nur in Ansätzen und für andere Dialektwörterbücher vorhanden sind. Außerdem wird die Verwendbarkeit von Dialektwörterbüchern als Datengrundlage für die dialektale Phraseologie diskutiert. Die aus dem Wörterbuch erhobene Materialsammlung von Phrasemen bildet die Grundlage für den zweiten Hauptteil der Arbeit, die genauere Analyse der pfälzischen Phraseologie unter verschiedenen Aspekten (v. a. der sprachlich-kulturellen Wissensstrukturen, die die bildliche Motivation der Phraseologismen bestimmen, und die damit eng verbundenen stilistisch-pragmatischen Kennzeichen). Hierbei können innerhalb des pfälzischen phraseologischen Inventars unterschiedliche Merkmale herausgestellt werden: Unter anderem Übereinstimmungen mit der Phraseologie des Standarddeutschen und z. T. gesamteuropäische Bezüge, aber auch Eigenständiges in einzelnen Subkategorien.
Monatelange Wartezeiten auf einen ambulanten Psychotherapieplatz sind der Regelfall im deutschen Gesundheitssystem. Die Veränderung der Symptombelastung der Patienten in der Wartezeit ist bislang allerdings kaum empirisch untersucht worden. In der vorliegenden Arbeit wurden an einer Stichprobe ambulanter Psychotherapiepatienten die Ausprägungen und Veränderungen der allgemeinen psychischen Symptombelastung während der durchschnittlich sechsmonatigen Wartezeit auf den Psychotherapieplatz untersucht. Zudem wurde überprüft, mit welchen Merkmalen die Symptombelastungen zum Zeitpunkt der Anmeldung zur Therapie und zum Zeitpunkt des Erstgesprächs sowie ihre Veränderungen in der Wartezeit zusammenhängen. Die dabei untersuchten Persönlichkeitsmerkmale wurden aus theoretischen Rahmenmodellen abgeleitet. Hierzu gehören die aktionale Entwicklungspsychologie, das handlungstheoretische Partialmodell der Persönlichkeit mit der darin eingeordneten Vertrauens-Trias und das Androgynie-Modell der psychischen Gesundheit. Nach einem direkten Veränderungskriterium zeigten 48 % der Patienten in der Wartezeit keine bedeutsame Veränderung, 29 % eine Verbesserung und 23 % eine Verschlechterung. Durch die bei der Anmeldung erfassten Persönlichkeitsmerkmale konnten Verbesserungen, Verschlechterungen und gleichbleibende Symptombelastungen in der Wartezeit anhand einer multinomialen logistischen Regressionsanalyse für 60 % der Patienten korrekt vorausgesagt werden. Eine traditionelle normative Geschlechtsrollen-Orientierung stellt einen negativen Prädiktor für eine Verbesserung dar. Soziales Vertrauen konnte Verschlechterungen negativ vorhersagen. Bei Hoffnungslosigkeit handelt es sich um einen marginal negativen Prädiktor für eine Verbesserung. Ein hoch ausgeprägtes Selbstkonzept eigener Fähigkeiten ist ein positiver Prädiktor für eine Verschlechterung. Hinsichtlich der soziodemografischen und störungsbezogenen Merkmale konnten das Alter, das Geschlecht und die Anzahl der Diagnosen die Veränderungen der Symptombelastung in der Wartezeit zu 54 % korrekt vorhersagen. Das Alter ist ein positiver Prädiktor für eine Verschlechterung. Weibliches Geschlecht und die Anzahl an Diagnosen sind negative Prädiktoren für eine Verbesserung. Darüber hinaus wurden differenzierte Zusammenhänge zwischen den Persönlichkeitsmerkmalen und der Symptombelastung exploratorisch untersucht.
Stress represents a significant problem for Western societies inducing costs as high as 3-4 % of the European gross national products, a burden that is continually increasing (WHO Briefing, EUR/04/5047810/B6). The classical stress response system is the hypothalamic-pituitary-adrenal (HPA) axis which acts to restore homeostasis after disturbances. Two major components within the HPA axis system are the glucocorticoid receptor (GR) and the mineralocorticoid receptor (MR). Cortisol, released from the adrenal glands at the end of the HPA axis, binds to MRs and with a 10 fold lower affinity to GRs. Both, impairment of the HPA axis and an imbalance in the MR/GR ratio enhances the risk for infection, inflammation and stress related psychiatric disorders. Major depressive disorder (MDD) is characterised by a variety of symptoms, however, one of the most consistent findings is the hyperactivity of the HPA axis. This may be the result of lower numbers or reduced activity of GRs and MRs. The GR gene consists of multiple alternative first exons resulting in different GR mRNA transcripts whereas for the MR only two first exons are known to date. Both, the human GR promoter 1F and the homologue rat Gr promoter 1.7 seem to be susceptible to methylation during stressful early life events resulting in lower 1F/1.7 transcript levels. It was proposed that this is due to methylation of a NGFI-A binding site in both, the rat promoter 1.7 and the human promoter 1F. The research presented in this thesis was undertaken to determine the differential expression and methylation patterns of GR and MR variants in multiple areas of the limbic brain system in the healthy and depressed human brain. Furthermore, the transcriptional control of the GR transcript 1F was investigated as expression changes of this transcript were associated with MDD, childhood abuse and early life stress. The role of NGFI-A and several other transcription factors on 1F regulation was studied in vitro and the effect of Ngfi-a overexpression on the rat Gr promoter 1.7 in vivo. The susceptibility to epigenetic programming of several GR promoters was investigated in MDD. In addition, changes in methylation levels have been determined in response to a single acute stressor in rodents. Our results showed that GR and MR first exon transcripts are differentially expressed in the human brain, but this is not due to epigenetic programming. We showed that NGFI-A has no effect on endogenous 1F/1.7 expression in vitro and in vivo. We provide evidence that the transcription factor E2F1 is a major element in the transcriptional complex necessary to drive the expression of GR 1F transcripts. In rats, highly individual methylation patterns in the paraventricular nucleus of the hypothalamus (PVN) suggest that this is not related to the stressor but can rather be interpreted as pre-existing differences. In contrast, the hippocampus showed a much more uniform epigenetic status, but still is susceptible to epigenetic modification even after a single acute stress suggesting a differential "state‟ versus "trait‟ regulation of the GR gene in different brain regions. The results of this thesis have given further insight in the complex transcriptional regulation of GR and MR first exons in health and disease. Epigenetic programming of GR promoters seems to be involved in early life stress and acute stress in adult rats; however, the susceptibility to methylation in response to stress seems to vary between brain regions.
Entre stéréotypes et affirmation identitaire : quatre artistes contemporains d'Afrique occidentale.
(2007)
Die Arbeit beabsichtigt eher, die Frage der Konstruktion der Identität in der zeitgenössischen afrikanischen Kunst zur Sprache zu bringen. Wo befindet sich die Genauigkeit der Identitätsbehauptung, wenn es Identitätsbehauptung gibt? Ist es möglich, die Umrisse einer "Afrikanität", einer spezifischen Identität in der derzeitigen Kunst Afrikas einzukreisen? Das Werk von Frédéric Bruly Bouabré wird auf zwei Elementen gegründet, das es dem Sinn zugänglich machen: die Zeichnung und der Text. Die Schrift besonderes nimmt eine grundlegende Stelle in der Gesamtheit der Arbeiten von Bruly Bouabré ein. Sein ganzes Werk in der Tat konvergiert in Richtung der Forschung und der Konzeption eines zuerst afrikanischen Schriftsystems, danach universell. Bruly Bouabré stellt auf dem Konto des Fehlens einer Schrift die Niederlage der Afrikaner angesichts der Europäer. Ousmane Sow versteht den Körper als ein Gedächtnisort, ein durch das Gedächtnis geprägter Raum. Er setzt seine Werke auf den Körpern der Völker in oder schon verschwundener Löschgefahr zusammen. Das Werk von Sow ist eine Art der Rehabilitation der Völker, die die Geschichte verurteilt hat, nicht nur besiegt zu werden. Man müßte das künstlerische Konzept von Ousmane Sow in der Bewegung der Négritude eintragen, mit der es viele gemeinsame Punkte hat. Bei Romuald Hazoumé ist es also nicht erstaunlich, in seinem Werk die Spuren der vodun Religion wiederzufinden. Seine mit dem Vodou-Geist gefüllten "Kanister Masken", sind eine Metapher für die Konsumgesellschaft, aus der Hazoumé sie entnimmt und sie ihres Status als Ausschuss entledigt, um sie in den Rang von Kunstwerken zu erheben. So lädt er zum Nachdenken ein über die der Materialität beigemessenen Bedeutung und die ihr innewohnende Spiritualität. Die Malerei von Suzanne ist gewalttätig, aggressiv und gewagt, sie malt mit harten Farben (schwarz, grau, dunkelbraun und blutrot) und hat nichts mit ästhetischen oder dekorativen Erwägungen im Sinn. Wenn sie Tiere malt, dann vor allem, um die menschlichen Fehler darzustellen (Egoismus, Hochmut, Futterneid): sie sind blutig mit besorgten, gefolterten, aggressiven. Ihrem Kampf widmet sie zahlreiche Werke: dem Kampf um die (Lebens-) Bedingungen der afrikanischen Frau. Jedoch ist die Problematik einer spezifischen Identität im Bereich der Kunst, alles andere als wirklich einschlägig zu sein. Sicherlich erlaubt sie dem Künstler, der davon benutzt, sich eine Originalität zu bauen. diese Originalität ist fiktiv, und stellt sich auf Grundlagen auf, die manchmal veraltet sind, und die zu einer phantasierten Vergangenheit gehören. die Echtheit eines Kunstwerkes kann sich nicht ab der geographischen Zugehörigkeit oder von der kulturellen Zugehörigkeit des Künstlers definieren. Das Paradigma der Echtheit fälscht von Anfang die Behauptung des Künstlers (Künstlerin) und des Werkes, die Universalität herzustellen. Es scheint, daß einige Künstler von der Beharrlichkeit der exotischen Klischees, von der Folklore sich nicht täuschen lassen, daß die Kuratoren und die westliche Öffentlichkeit von ihnen erwarten. Und wenn einige sich für das Spiel eignen, ist es, um den internationalen Markt besser zu infiltrieren.
Recent non-comparative studies diverge in their assessments of the extent to which German and Japanese post-Cold War foreign policies are characterized by continuity or change. While the majority of analyses on Germany find overall continuity in policies and guiding principles, prominent works on Japan see the country undergoing drastic and fundamental change. Using an explicitly comparative framework for analysis based on a role theoretical approach, this study reevaluates the question of change and continuity in the two countries" regional foreign policies, focusing on the time period from 1990 to 2010. Through a qualitative content analysis of key foreign policy speeches, this dissertation traces and compares German and Japanese national role conceptions (NRCs) by identifying policymakers" perceived duties and responsibilities of their country in international politics. Furthermore, it investigates actual foreign policy behavior in two case studies about German and Japanese policies on missile defense and on textbook disputes. The dissertation examines whether the NRCs identified in the content analysis are useful to understand and explain each country- particular conduct. Both qualitative content analysis and case studies demonstrate the influence of normative and ideational variables in foreign policymaking. Incremental adaptations in foreign policy preferences can be found in Germany as well as Japan, but they are anchored in established normative guidelines and represent attempts to harmonize existing preferences with the conditions of the post-Cold War era. The dissertation argues that scholars have overstated and misconstrued the changes underway by asserting that Japan is undergoing a sweeping transformation in its foreign policy.
Die vorliegende Arbeit beschreibt ausgewählte Bereiche des Stadtklimas von Trier. Anhand von langjährigen meteorologischen Messreihen ist eine Bewertung der klimatologischen Gegebenheiten für das Stadtgebiet von Trier möglich. Trenduntersuchungen der Datenreihen des Niederschlags zeigen positive Niederschlagstrends für die meteorologischen Wintermonate. Die Intensität der urbanen Wärmeinsel der Stadt Trier wurde mittels mehrerer Temperaturmessfahrten untersucht und bewertet. Es treten in den Wintermonaten maximale Differenzen von bis zu 5,5 -°C zwischen dem unbebauten Umland und den Innenstadtbereichen auf. Von der erhöhten thermischen Belastung während ausgewählter Wetterlagen sind vor allem die Anwohner der Innenstadtbereiche in den Sommermonaten betroffen. Zusätzlich fand eine Bewertung der thermischen Belastung mittels verschiedener thermischer Indizes statt. Die Auswertungen von Klimaprojektionen für den Untersuchungsraum zeigen eine starke Zunahme der thermischen Belastung ab Mitte des 21. Jahrhunderts. Die Auswirkungen des Sommers 2003 auf die Bevölkerung von Trier wurde anhand von Mortalitätsdaten von JUNK ET AL. (2007) analysiert. Die Kosten des Klimawandels (Temperaturzunahme bis 2100 um 4,5 -°C) in den kommenden 50 Jahren beziffert eine Studie des Deutschen Institutes für Wirtschaftsforschung auf rund 80 Milliarden Euro für Rheinland-Pfalz. Auch wenn diese Abschätzungen mit starken Unsicherheiten behaftet sind, so wird dringender Handlungsbedarf deutlich. Vor dem Hintergrund des Klimawandels und der zunehmenden Urbanisierung muss sich auch im Bereich der Stadtplanung und der Verwaltung von urbanen Agglomerationsräumen das Prinzip der Nachhaltigkeit in allen Skalenbereichen durchsetzen. Übertragen auf den Bereich der Stadtklimatologie heißt das, dass dies auf die Ressourcen saubere Luft, angemessener Flächen- und Energieverbrauch verbunden mit Luft-schadstoffemissionen, Recht auf Mobilität usw. übertragen werden muss. Im Vordergrund steht dabei eine Entkopplung des Ressourcenverbrauchs von dem wirtschaftlichen Wachstum durch technische Innovation, effizientere Technologien und verändertes individuelles Verhalten. Bezüglich der lufthygienischen Situation im Stadtbereich von Trier konnten Partikel und Stickoxide als wichtige Schadstoffe identifiziert werden. Da die Auswertungen der Luftschadstoffe auf die Datensätze des ZIMEN-Messnetzes beschränkt sind, können keine Aussagen über Inhaltsstoffe von Partikeln getroffen werden. Für die untersuchten Luftschadstoffe CO, SO2, NOx, O3 und PM10 treten in den letzten Jahren keine Grenzwertüberschreitungen auf, jedoch liegen die gemessenen Werte nur geringfügig unter diesen und überschreiten teilweise die unteren- und oberen Beurteilungsschwellen. Die Auswertungen des wirkungsbezogenen Luftqualitätsindex DAQx zeigen, dass in der Mehrheit der Fälle Feinstaub der bestimmende Luftschadstoff ist. Die Analyse der mittleren Mortali-tätszahlen zeigt, das bei DAQx-Werten > 4,0 (ausreichende Luftqualität) die Anzahl der täglichen Mortalitätsfälle über den Durchschnitt von 5,74 Fällen pro Tag steigt. Der Klimawandel wird auch direkte Auswirkungen auf die Luftschadstoffbelastung haben. Dies geschieht über die Veränderung der Windverhältnisse, Änderungen in der Höhe der Mischungsschicht sowie Änderungen in der Frequenz und Zugbahn von Tiefdruckgebieten. Veränderte Niederschlagsmuster beeinflussen die nassen und trockenen Depositionsraten, und die prognostizierte Temperaturerhöhung beeinflusst die chemischen Bildungs- und Abbauprozesse in der Atmosphäre, sowie die natürlichen Emissionsquellen. Der Einfluss des zu erwartenden Temperaturanstieges auf die Ozonkonzentrationen in urbanen Gebieten lässt sich gut einschätzen, da während Episoden mit hohen Ozonkonzentrationen eine signifikante Korrelation zwischen der Lufttemperatur und der Ozonkonzentration besteht. Studien zeigen einen Anstieg der Ozonkonzentration zwischen 2 -µg/m-³ und 20 -µg/m-³ pro Grad Kelvin in Abhängigkeit des Emissionsszenarios, der verwendeten Modelle und der untersuchten Region aus. Die urbanen Ballungsräume werden von diesem Ozonanstieg stärker betroffen sein, da dort genügend Ozonvorläufersubstanzen vorhanden sind. Der Einfluss auf die Partikelkonzentrationen ist schwieriger zu beurteilen, da keine klaren Zusammenhänge zwischen der Lufttemperatur und den Partikelkonzentrationen bestehen. Insgesamt ist tendenziell mit einer Stagnation bis hin zu einer kurzzeitigen Verschlechterung der Luftqualität zu rechnen. Deswegen reicht die bereits erwähnte alleinige Berücksichtigung der thermischen Gegebenheiten in einem Warnsystem nicht aus. Es geht vielmehr um die integrative Bewertung der potentiellen Gefahrensituation für die Bevölkerung und die situationsbezogene Auslösung von Interventionsmaßnahmen und Aktionsplänen. Ein solches System wird derzeit für die Modellregion Esch-sur-Alzette in Luxemburg erstellt und wird 2011 in die Pilotphase eintreten.
Cortisol is a stress hormone that acts on the central nervous system in order to support adaptation and time-adjusted coping processes. Whereas previous research has focused on slow emerging, genomic effects of cortisol likely mediated by protein synthesis, there is only limited knowledge about rapid, non-genomic cortisol effects on in vivo neuronal cell activity in humans. Three independent placebo-controlled studies in healthy men were conducted to test effects of 4 mg cortisol on central nervous system activity, occurring within 15 minutes after intravenous administration. Two of the studies (N = 26; N = 9) used continuous arterial spin labeling as a magnetic resonance imaging sequence, and found rapid bilateral thalamic perfusion decrements. The third study (N = 14) revealed rapid cortisol-induced changes in global signal strength and map complexity of the electroencephalogram. The observed changes in neuronal functioning suggest that cortisol may act on the thalamic relay of non-relevant background as well as on task specific sensory information in order to facilitate the adaptation to stress challenges. In conclusion, these results are the first to coherently suggest that a physiologically plausible amount of cortisol profoundly affects functioning and perfusion of the human CNS in vivo by a rapid, non-genomic mechanism.
Die Europäische Union hat seit Ende des Ost-West-Konflikts 1989/90 einen dynamischen Ausbau ihrer vertraglichen und institutionellen Fundamente erfahren. Mit diesem Prozess ging zugleich eine enge Verflechtung von europäischen und nationalen Entscheidungsprozessen und politischen Arenen einher. So entwickelte sich ein zunehmend dynamischer werdendes Interaktionsverhältnis zwischen Europäischer Union, nationaler Europapolitik und Innenpolitik. Ausgehend von der These, dass die deutsche Europapolitik seit der Zäsur 1989/90 zunehmend pragmatischer, kontroverser und somit normaler geworden ist, untersucht die Arbeit diese Veränderung der deutschen Europapolitik am Beispiel zweier qualitativer Fallstudien: 1.Die Verhandlungen zum dritten mehrjährigen Finanzrahmen für die Jahre 2000 bis 2006, die sogenannte Agenda 2000. Für Deutschland als größtem Beitragszahler in der EU waren die Finanzverhandlungen von immenser Bedeutung. Denn mit der finanziellen Ausstattung der beiden größten Ausgabenblöcken, der europäischen Kohäsionspolitik und der Gemeinsamen Agrarpolitik, waren zentrale Grundsatzfragen der deutschen Europapolitik und der Rolle Deutschlands in der EU verbunden, wie zum Beispiel das bilaterale Verhältnis zum französischen Partner. 2.Der Prozess der Osterweiterung der Europäischen Union seit dem Ende des Ost-West-Gegensatzes 1989/90 von der Assoziierung der Reformstaaten in Mittel- und Osteuropa bis zum Beitritt der acht neuen Mitglieder am 1. Mai 2004. Die Ost-Erweiterung der EU war eine der wichtigsten Grundsatzentscheidungen der deutschen Europapolitik. Dieser fast 15 Jahre dauernde Prozess von 1989 bis 2004 wird in einer minuziösen Längsschnitt-Analyse nachgezeichnet und die spezifischen Interessen der zentralen politischen und gesellschaftlichen Akteure der deutschen Politik detailliert analysiert.Beide Entscheidungsprozesse beeinflussten nahezu alle Politikfelder und hatten weitreichende Konsequenzen für die innen-, wirtschafts- und sozialpolitischen Strukturen der Bundesrepublik. Damit erforderten sie sowohl eine grundsätzliche und strategische Positionierungen der deutschen Europapolitik als auch kurzfristige, auf rationalen Kosten-Nutzen-Abwägungen basierende Festlegungen zu konkreten Einzelfragen im Verlauf der Entscheidungsprozesse. Die beiden umfangreichen Fallstudien bestätigen, dass die wechselseitige Interaktion zwischen innenpolitischen Auseinandersetzungen und europäischen Entscheidungsprozessen sich verdichtet hat. Europäische Entscheidungsprozesse werden für innenpolitische Auseinandersetzungen und Debatten genutzt und häufig auch parteipolitisch polarisiert. Die Europapolitik wird zu einem Feld pragmatischer Kosten-Nutzen-Abwägungen aus begrenzten innenpolitischen oder gar parteitaktischen Kalkülen. Die Europapolitik wird unter innenpolitischen Vorzeichen politisiert und polarisiert.
Japanische Touristen in Deutschland : Analyse der Wahrnehmung der Destination Deutschland und der Kundenansprüche im interkulturellen Kontext. Auf der Angebotsseite steht die noch mittelständisch geprägte deutsche Hotellerie, mit der Tendenz einer zunehmenden Konzentration zur Groß- und Kettenhotellerie. Der japanische Kunde auf der Nachfragerseite wird aufgrund seiner kulturellen, sozialen, politischen und geschichtlichen Umgebung analysiert. Er bewegt sich in einer vorwiegend kollektivistisch und stark kontextorientierten, durch dichte Informationsnetze geprägten, maskulinen Gesellschaft. Beeinflusst durch die Lehre von Konfuzius bilden heute noch mora-lisches Handeln, Rechtschaffenheit, Höflichkeit, die Beachtung hierarchischer Beziehungen und Harmonie Handlungsgrundlage des gesellschaftlichen Lebens. Daneben hat Japan, als entwickeltes Industrieland, mit denselben Problemen wie westliche Industrienationen zu kämpfen, wie Überalterung, Wertewandel und konjunkturelle Auf- und Abschwünge. Der japanische Kunde stellt hohe Ansprüche an die Qualität des angebotenen Produktes und an den Service. Während die Hardware, z.B. die Qualität der Hotelzimmer in Deutschland positiv beurteilt wird, wird die Servicequalität hier oft als unzureichend empfunden. Dabei setzt der japanische Kunde, der an dichte Informationsnetze gewöhnt ist, viele Dinge als selbstverständlich voraus. Der Deutsche, der über diese Informationen nicht verfügt und sich stur an das Vereinbarte hält, wird als unhöflich empfunden. Als Einkaufsdestination hat Deutschland aufgrund fehlender Marken kaum Bedeutung. Japaner sind leidenschaftliche und experimentierfreudige Esser, die oft in Deutschland aufgrund der mangelnden Beachtung und Vermarktung lokaler Spezialitäten zu kurz kommen. Mittels der Methode Importance Grid konnten abgefragte Attribute in Basis-, Leistungs- und Begeisterungsfaktoren eingeteilt werden. Grundlegend und Ausschlusskriterium für einen Reiseantritt sind die öffentliche Sicherheit, die der Japaner nicht nur auf die Kriminalität sondern auch auf Lebensmittelsicherheit und Gesundheitswesen bezieht. Sehenswürdigkeiten sind wichtige Leistungsfaktoren. Das Hotelangebot, als Begeisterungsfaktor hat einen enormen Einfluss und damit großes Entwicklungspotential auf die Reisezufriedenheit. Begeisterung lösen weiterhin individuelle Begegnungen, eine originale und stimmige Atmo-sphäre und lokale Besonderheiten, aus. Der hoch kontextorientierte Japaner nimmt die Reise als Gesamterlebnis wahr und gibt seine Erinnerungen gern über Mund zu Mund Propaganda weiter. Folgereisen können sich wie ein Schneeballsystem entwickeln. Als Trends sind die zunehmende Bedeutung von Seniorenreisen, Hube-and-Spoke Reisen, Skeleton-Touren, der Furosato Trend und Honeymoonreisen zu nennen.
Das erste Beispiel einer so genannten universellen holomorphen Funktion stammt von Birkhoff, welcher im Jahre 1929 die Existenz einer ganzen Funktion beweisen konnte, die gewissermaßen jede ganze Funktion durch geeignete Translationen approximieren kann. In der Folgezeit hat sich der Bereich der "universellen Approximation" zu einem eigenständigen Gebiet innerhalb der komplexen Approximationstheorie entwickelt, und es gibt eine Vielzahl an Ergebnissen über universelle Funktionen. Hierbei wurde sich allerdings fast ausschließlich auf das Studium holomorpher und ganzer Funktionen beschränkt, insbesondere die Klasse der meromorphen Funktionen wurde bisher kaum auf das Phänomen der Universalität hin untersucht. Die vorliegende Arbeit beschäftigt sich mit universeller meromorpher Approximation, und geht der Fragestellung nach, ob meromorphe Funktionen mit gewissen Universalitätseigenschaften existieren, und ob die klassischen Ergebnisse aus der universellen holomorphen Approximation auf den meromorphen Fall erweiterbar sind. Hierbei wird zunächst zwischen Translations- und Streckungsuniversalität unterschieden und bewiesen, dass in beiden Fällen jeweils eine im Raum der meromorphen Funktionen residuale Menge an universellen Funktionen existiert. Weiterhin werden die Eigenschaften dieser Funktionen ausführlich studiert. Anschließend werden meromorphe Funktionen auf Ableitungsuniversalität hin untersucht. Hierbei wird einerseits gezeigt, dass im Allgemeinen keine positiven Ergebnisse möglich sind, während andererseits eine spezielle Klasse meromorpher Funktionen betrachtet wird, für welche universelles Verhalten der sukzessiven Ableitungen nachgewiesen werden kann.
The overall objective of this thesis was to gain a deeper understanding of the antecedents, processes, and manifestations of uniqueness-driven consumer behavior. To achieve this goal, five studies have been conducted in Germany and Switzerland with a total of 1048 participants across different demographic and socio-economic backgrounds. Two concepts were employed in all studies: Consumer need for uniqueness (CNFU) and general uniqueness perception (GUP). CNFU (Tian, Bearden, & Hunter, 2001), a mainly US"based consumer research concept, measures the individual need, and thus the motivation to acquire, use, and dispose consumer goods in order to develop a unique image. GUP, adapted from the two-component theory of individuality (Kampmeier, 2001), represents a global and direct measure of self-ascribed uniqueness. Study #1 looked at the interrelation of the uniqueness-driven concepts. Therefore, GUP and CNFU were employed in the study as potential psychological factors that influence and predict uniqueness-driven consumer behavior. Different behavioral measures were used: The newly developed possession of individualized products (POIP), the newly developed products for uniqueness display (PFUD), and the already established uniqueness-enhancing behaviors (UEB). Analyses showed that CNFU mediates the relationship between GUP and the behavioral measures in a German speaking setting. Thus, GUP (representing self-perception) was identified as the driver behind CNFU (representing motivation) and the actual consumer behavior. Study #2 examined further manifestations of uniqueness-driven consumer behavior. For this purpose, an extreme form of uniqueness-increasing behavior was researched: Tattooing. The influence of GUP and CNFU on tattooing behavior was investigated using a sample derived from a tattoo exhibition. To do so, a newly developed measure to determine the percentage of the body covered by tattoos was employed. It was revealed that individuals with higher GUP and CNFU levels indeed have a higher tattooing degree. Study #3 further explored the predictive possibilities and limitations of the GUP and CNFU concepts. On the one hand, study #3 specifically looked at the consumption of customized apparel products as mass customization is said to become the standard of the century (Piller & Müller, 2004). It was shown that individuals with higher CNFU levels not only purchased more customized apparel products in the last six months, but also spend more money on them. On the other hand, uniqueness-enhancing activities (UEA), such as travel to exotic places or extreme sports, were investigated by using a newly developed 30-item scale. It was revealed that CNFU partly mediates the GUP and UEA relationship, proving that CNFU indeed predicts a broad range of consumer behaviors and that GUP is the driver behind the need and the behavior. Study #4, entered a new terrain. In contrast to the previous three studies, it explored the so termed "passive" side of uniqueness-seeking in the consumer context. Individuals might feel unique because business companies treat them in a special way. Such a unique customer treatment (UCT) involves activities like customer service or customer relationship management. Study #4 investigated if individuals differ in their need for such a treatment. Hence, with the need for unique customer treatment (NFUCT) a new uniqueness-driven consumer need was introduced and its impact on customer loyalty examined. Analyses, for example, revealed that individuals with high NFUCT levels receiving a high unique customer treatment (UCT) showed the highest customer loyalty, whereas the lowest customer loyalty was found among those individuals with high NFUCT levels receiving a low unique customer treatment (UCT). Study #5 mainly examined the processes behind uniqueness-driven consumer behavior. Here, not only the psychological influences, but also situational influences were examined. This study investigated the impact of a non-personal "indirect" uniqueness manipulation on the consumption of customized apparel products by simultaneously controlling for the influence of GUP and CNFU. Therefore, two equal experimental groups were created. Afterwards, these groups either received an e-mail with a "pro-individualism" campaign or a "pro-collectivism" campaign especially developed for study #5. The conducted experiment revealed that, individuals receiving a "pro-individualism" poster campaign telling the participants that uniqueness is socially appropriate and desired were willing to spend more money on customization options compared to individuals receiving a "pro-collectivism" poster campaign. Hence, not only psychological antecedents such as GUP and CNFU influence uniqueness-driven consumer behavior, but also situational factors.
Aus dem Wunsch, die zentralen Prozesse im System Boden"Pflanze"Atmosphäre einschließlich der Auswirkungen verschiedener Bewirtschaftungspraktiken zu verstehen und nachzubilden, resultiert die Entwicklung verschiedener Pflanzenwachstumsmodelle. Ziel der vorliegenden Untersuchung ist zum einen, die im Realsystem auftretenden räumlichen Ertragsmuster zu identifizieren und zu charakterisieren. Mithilfe der Semivariogramm-Analyse ist eine räumliche Autokorrelation der Ertragsdaten von maximal 48 Meter abzuleiten. Die räumliche Analyse (GIS) zeigt, dass die Sommergerste ein leicht abweichendes Verhalten im Vergleich zu den Winterkulturen (Winterweizen, Winterraps) aufweist. Schließlich werden mithilfe der selbstorganisierenden Merkmalskarten die primär und sekundär für das Ertragsverhalten verantwortlichen Ursachen identifiziert. Eine abschließende hierarchische Clusteranalyse gliedert die in die Untersuchung eingehenden Standorte in vier spezifische Cluster mit charakteristischen Eigenschaften. Ein zweites Ziel ist die Klärung der Frage, ob die Pflanzenwachstumsmodelle STICS und DAISY bei entsprechender Parametrisierung in der Lage sind, das für ein detektiertes Muster charakteristische Verhalten von Pflanzenwachstum und Ertrag realitätsnah abzubilden. Den Modellanwendungen gehen eine Sensitivitätsanalyse und verschiedene Parametrisierungsansätze zur Erfassung des jeweiligen Modellverhaltens voraus. In beiden Modellen übt der Bodenwasserhaushalt einen starken Einfluss auf die Ertragsbildung aus. Des weiteren kommt in beiden Modellen den Stressfaktoren eine zentrale Bedeutung zu. Die Parametrisierung der Modelle auf der Grundlage der im Feld erhobenen Daten führt bei beiden Modellen nicht zu einem dem Realsystem entsprechenden Bild. Eine über die Sensitivitätsanalyse hinausreichende, vertiefte Modellkenntnis ist erforderlich, um die in die Modelle eingehenden Parameter bzw. deren spezifischen Einfluss auf das Modellverhalten beurteilen und interpretieren zu können. Dies betrifft insbesondere die Modellgrößen der Bodenmodule. Dieser Aspekt erschwert eine einfache räumliche Übertragung der Modelle STICS und DAISY.
Recently, optimization has become an integral part of the aerodynamic design process chain. However, because of uncertainties with respect to the flight conditions and geometrical uncertainties, a design optimized by a traditional design optimization method seeking only optimality may not achieve its expected performance. Robust optimization deals with optimal designs, which are robust with respect to small (or even large) perturbations of the optimization setpoint conditions. The resulting optimization tasks become much more complex than the usual single setpoint case, so that efficient and fast algorithms need to be developed in order to identify, quantize and include the uncertainties in the overall optimization procedure. In this thesis, a novel approach towards stochastic distributed aleatory uncertainties for the specific application of optimal aerodynamic design under uncertainties is presented. In order to include the uncertainties in the optimization, robust formulations of the general aerodynamic design optimization problem based on probabilistic models of the uncertainties are discussed. Three classes of formulations, the worst-case, the chance-constrained and the semi-infinite formulation, of the aerodynamic shape optimization problem are identified. Since the worst-case formulation may lead to overly conservative designs, the focus of this thesis is on the chance-constrained and semi-infinite formulation. A key issue is then to propagate the input uncertainties through the systems to obtain statistics of quantities of interest, which are used as a measure of robustness in both robust counterparts of the deterministic optimization problem. Due to the highly nonlinear underlying design problem, uncertainty quantification methods are used in order to approximate and consequently simplify the problem to a solvable optimization task. Computationally demanding evaluations of high dimensional integrals resulting from the direct approximation of statistics as well as from uncertainty quantification approximations arise. To overcome the curse of dimensionality, sparse grid methods in combination with adaptive refinement strategies are applied. The reduction of the number of discretization points is an important issue in the context of robust design, since the computational effort of the numerical quadrature comes up in every iteration of the optimization algorithm. In order to efficiently solve the resulting optimization problems, algorithmic approaches based on multiple-setpoint ideas in combination with one-shot methods are presented. A parallelization approach is provided to overcome the amount of additional computational effort involved by multiple-setpoint optimization problems. Finally, the developed methods are applied to 2D and 3D Euler and Navier-Stokes test cases verifying their industrial usability and reliability. Numerical results of robust aerodynamic shape optimization under uncertain flight conditions as well as geometrical uncertainties are presented. Further, uncertainty quantification methods are used to investigate the influence of geometrical uncertainties on quantities of interest in a 3D test case. The results demonstrate the significant effect of uncertainties in the context of aerodynamic design and thus the need for robust design to ensure a good performance in real life conditions. The thesis proposes a general framework for robust aerodynamic design attacking the additional computational complexity of the treatment of uncertainties, thus making robust design in this sense possible.
Die Zielsetzung der vorliegenden Arbeit war die raumdifferenzierte und skalenübergreifende Untersuchung der Hochwasserentstehungsprozesse im Frankelbach-Einzugsgebiet, das ein Beispiel eines land- und forstwirtschaftlich genutzten Kleineinzugsgebiets in Mittelgebirgen der gemäßigten Breiten ist. Eine Kernaufgabe war die Quantifizierung der Beiträge einzelner Abflusskomponenten während des Scheiteldurchflusses eines Hochwassers. Zudem sollten Zusammenhänge zwischen der Bodenfeuchtedynamik und der Abflussreaktion herausgearbeitet werden. Zur Bodenfeuchtemessung wurde ein neu entwickeltes Spatial-TDR-Messsystem eingesetzt. Im Rahmen dieses pilothaften Einsatzes war zudem die Tauglichkeit des Messsystems zu überprüfen und zu bewerten. Das im Rotliegenden gelegene 5 km2 große Frankelbachgebiet mit Jahresniederschlägen von 750 mm a-1, steil eingeschnittenen, bewaldeten Kerbtälern und ackerwirtschaftlich genutzten Hochflächen liegt zwischen 200 und 450 m ü. NN. Auf schuttführenden Sand- und Schlufflehmen, deren Genese auf periglaziale Solifluktionsprozesse zurückgeht, sind hangabwärts mächtiger werdende Braunerden zu finden. Bemerkenswert sind die zahlreichen Quellen auf gleicher Höhenlage, die teilweise als Pipequellen ausgebildet sind. Beregnungs- und Infiltrationsversuche dienten der Beurteilung der Oberflächenabflussreaktion unterschiedlich bewirtschafteter Flächen. Durch stündliche Spatial-TDR-Messungen an 13 Standorten (60 cm lange vertikal installierte Dreistabsonden) konnten Hangwasserflüsse identifiziert werden. Zwischen 2005 und 2009 wurden die Abflüsse vier geschachtelter Einzugsgebiete sowie einer Quelle in 10min-Intervallen erfasst und 87 Hochwasserereignisse analysiert. Mittels Messungen der elektrischen Leitfähigkeit und eines Zweikomponenten-Mischungsmodells wurde der Ereigniswasseranteil für die höchsten Hochwasser abgeschätzt. Ergänzend zu den Geländeexperimenten wurde ein einfaches Modell konzipiert, das eine quantitative Abschätzung der ober- und unterirdischen Wasserflüsse in einen Gewässereinschnitt erlaubt. Zum Vergleich mit 31 anderen Untersuchungsgebieten wurde eine Codierung entwickelt, die eine Einordnung sowohl hinsichtlich der Geofaktoren der Gebiete als auch bezüglich der untersuchten Hochwasserereignisse ermöglicht. Das im hanghydrologischen Forschungsbereich als eher trocken einzuordnende Frankelbachgebiet, zeigte ein jahreszeitlich sehr unterschiedliches Abflussverhalten. Während in trockenen Sommern hohe Niederschläge im Gebiet gespeichert werden, liegen die Abflusskoeffizienten für einige schneeschmelzfreie Frühjahrsereignisse über 50 %. Das höchste beobachtete Hochwasser weist einen Abflusskoeffizient von 55 % bei einer relativ niedrigen Abflussspende von 140 l s-1 km-2 auf. Die Großberegnungsversuche, die Quellabflussmessungen, die Ereignisanalysen und die Modellierungsergebnisse weisen darauf hin, dass Dauerregen- und Schneeschmelz-Hochwasser zum Großteil aus Zwischenabfluss bestehen. Hier konnten zwei Abflusskomponenten differenziert werden: (i) eine oberflächen- und gerinnenahe Komponenten, die aufgrund des hohen Ereigniswasseranteils von etwa 60 % durch präferentielles Fließen erklärt werden kann, und (ii) eine ein bis zwei Tage verzögerte tiefere Komponente, die durch unterirdische Abflusskonzentration auf stauenden Schichten generiert wird. Letztere war in den Quellabfluss- und Spatial-TDR-Messungen erkennbar, hatte jedoch an den am Pegel beobachteten Scheiteldurchflüssen nur einen sehr kleinen Anteil. Während sehr intensiver Niederschläge könnte zusätzlich der Horton'sche Oberflächenabfluss von offen liegenden, hydraulisch angeschlossenen Äckern zum Scheiteldurchfluss beitragen. Für sämtliche Spatial-TDR-Messstandorte ist von hohen Infiltrations- und Sickerraten auszugehen. Eine Aufsättigung der Standorte war nicht erkennbar, für die nassen Wintermonate liegen jedoch nur sehr wenige Spatial-TDR-Messwerte vor. Eine in einer Tiefenlinie installierte Sonde (A08) zeigte das Umschalten des Gesamtgebiets in relativ nasse Zustände an. Hier nahm die Bodenfeuchte während zwei größerer Dauerregenereignisse infolge der unterirdischen Abflusskonzentration stark zu. In der vorliegenden Arbeit wurden die einbau- und substratbedingten Unsicherheiten sowie die Schwächen des Algorithmus zur Rekonstruktion der absoluten Bodenfeuchtewerte konkretisiert. Demzufolge wurde lediglich das Spatial-TDR-Rohsignal als Indikator für die aktuelle Bodenfeuchte verwendet. Durch eine Transformation des Spatial-TDR-Signals von der Zeit auf den Sondenort können dennoch Aussagen zur relativen Änderung der Bodenfeuchte in einer bestimmten Tiefe gemacht werden können. Diese Informationen sind hinreichend genau für die Untersuchung hanghydrologischer Prozesse und für die Ableitung von Gebietsfeuchtezuständen.
Caenorhabditis elegans Modelsysteme für Freiland und Labor Caenorhabditis elegans ist eines der am intensivsten untersuchten Tiermodelle, dabei weisen die nur unzureichenden Informationen über sein ursprüngliches Habitat eine Vielzahl offener Fragen auf. Deshalb beschäftigt sich der erste Teil vorliegender Arbeit mit einer Überprüfung der Freilandökologie und Biogeographie des Taxons. Nach den Untersuchungen spricht vieles dafür, dass die Ursprungsart der C. elegans Gruppe ein Begleiter von Gastropoden war, welche auch für ihre Ausbreitung häufig verantwortlich sind. Als Folge der Verschleppung durch Wirtstiere (u.a. die Weinbergschnecke Helix aspersa) erreichte sie ihr heutiges Areal, in allen Kontinenten. Ein nicht weniger wichtiges Ziel der vorliegenden Arbeit war die Etablierung von C. elegans als Biotest-System für die Indikation von Chemikalien-Wirkungen. In dieser Arbeit wurden ein ökotoxikologisches Testsystem entwickelt mit den C. elegans als Modellorganismus, das durch Messung von umweltbedingten intrazellulär gebildeten ROS im Gesamtorganismus eine Einschätzung der biologischen Aktivität von Chemikalien und Umweltmedien ermöglichen sollte. Als grundlegender biochemischer Parameter ist eine, die Kapazität der antioxidativen Schutzmechanismen übersteigende, ROS-Bildung ursächlich für oxidative Schädigungen der Zelle verantwortlich und damit Basis für zahlreiche pathologische Effekte. Aus den Resultaten als Bewertungsgrundlage lässt sich folgern, dass sich das erarbeitete Biotestsystem als adäquates Verfahren zur Messung von oxidativem Stress, als Folge exogener Belastung, einsetzen lässt. Damit leistet es einen Beitrag zur Beurteilung des Toxizitätspotentials von Chemikalien und Umweltproben. Zur Eignung des Einsatzes von C. elegans für Toxizitätstest wurden weitere Untersuchungen mit verschiedenen Chemikalien durchgeführt. Dabei ergibt sich bezogen auf molare Einheiten eine immer gleich bleibende Reihenfolge der Sensitivitäten gegenüber BaP > Cu2+ > AcL, ein Ergebnis welches mit Testergebnissen von anderen Versuchsorganismen zu vergleichen war. Die Wirkung von Atrazin auf die Entwicklung von C. elegans wurde auch untersucht. Es wurde festgestellt, dass Atrazin auf Wachstum und Reproduktion von C. elegans konzentrationsabhängig toxisch wirkt. Die bisherigen Ergebnisse zeigen jedoch, dass das Testsystem C. elegans hervorragend geeignet ist, um Chemikalienwirkungen frühzeitig sichtbar zu machen.
The main research question of this thesis was to set up a framework to allow for the identification of land use changes in drylands and reveal their underlying drivers. The concept of describing land cover change processes in a framework of global change syndrome was introduced by Schellnhuber et al. (1997). In a first step the syndrome approach was implemented for semi-natural areas of the Iberian Peninsula based on time series analysis of the MEDOKADS archive. In the subsequent study the approach was expanded and adapted to other land cover strata. Furthermore, results of an analysis of the relationship of annual NDVI and rainfall data were incorporated to designate areas that show a significant relationship indicating that at least a part of the variability found in NDVI time series was caused by precipitation. Additionally, a first step was taken towards the integration of socio-economic data into the analysis; population density changes between 1961 and 2008 were utilized to support the identification of processes related to land abandonment accompanied by cessation of agricultural practices on the one hand and urbanization on the other. The main findings of the studies comprise three major land cover change processes caused by human interaction: (i) shrub and woody vegetation encroachment in the wake of land abandonment of marginal areas, (ii) intensification of non-irrigated and irrigated, intensively used fertile regions and (iii) urbanization trends along the coastline caused by migration and the increase of mass tourism. Land abandonment of cultivated fields and the give-up of grazing areas in marginal mountainous areas often lead to the encroachment of shrubs and woody vegetation in the course of succession or reforestation. Whereas this cover change has positive effects concerning soil stabilization and carbon sequestration the increase of biomass involves also negative consequences for ecosystem goods and services; these include decreased water yield as a result of increased evapotranspiration, increasing fire risk, decreasing biodiversity due to landscape homogenization and loss of aesthetic value. Arable land in intensively used fertile zones of Spain was further intensified including the expansion of irrigated arable land. The intensification of agriculture has also generated land abandonment in these areas because less people are needed in the agricultural labour sector due to mechanization. Urbanization effects due to migration and the growth of the tourism sector were mapped along the eastern Mediterranean coast. Urban sprawl was only partly detectable by means of the MEDOKADS archive as the changes of urbanization are often too subtle to be detected by data with a spatial resolution of 1 km-². This is in line with a comparison of a Landsat TM time series and the NOAA AVHRR archive for a study area in the Greece that showed that small scale changes cannot be detected based on this approach, even though they might be of high relevance for local management of resources. This underlines the fact that land degradation processes are multi-scale problems and that data of several spatial and temporal scales are mandatory to build a comprehensive dryland observation system. Further land cover processes related to a decrease of greenness did not play an important role in the observation period. Thus, only few patches were identified, suggesting that no large-scale land degradation processes are taking place in the sense of decline of primary productivity after disturbances. Nevertheless, the land cover processes detected impact ecosystem functioning and using the example of shrub encroachment, bear risks for the provision of goods and services which can be valued as land degradation in the sense of a decline of important ecosystem goods and services. This risk is not only confined to the affected ecosystem itself but can also impact adjacent ecosystems due to inter-linkages. In drylands water availability is of major importance and the management of water resources is an important political issue. In view of climate change this topic will become even more important because aridity in Spain did increase within the last decades and is likely to further do so. In addition, the land cover changes detected by the syndrome approach could even augment water scarcity problems. Whereas the water yield of marginal areas, which often serve as headwaters of rivers, decreases with increasing biomass, water demand of agriculture and tourism is not expected to decline. In this context it will be of major importance to evaluate the trade-offs between different land uses and to take decisions that maintain the future functioning of the ecosystems for human well-being.
Extension of inexact Kleinman-Newton methods to a general monotonicity preserving convergence theory
(2011)
The thesis at hand considers inexact Newton methods in combination with algebraic Riccati equation. A monotone convergence behaviour is proven, which enables a non-local convergence. Above relation is transferred to a general convergence theory for inexact Newton methods securing the monotonicity of the iterates for convex or concave mappings. Several application prove the pratical benefits of the new developed theory.