Filtern
Erscheinungsjahr
- 2013 (35) (entfernen)
Dokumenttyp
- Dissertation (35) (entfernen)
Sprache
- Deutsch (20)
- Englisch (14)
- Mehrsprachig (1)
Schlagworte
- Optimierung (4)
- Stress (4)
- Statistik (3)
- Bodenerosion (2)
- Jugend (2)
- Kooperation (2)
- Modellierung (2)
- Numerische Strömungssimulation (2)
- Volkszählung (2)
- stress (2)
Institut
- Raum- und Umweltwissenschaften (10)
- Mathematik (8)
- Psychologie (5)
- Soziologie (3)
- Wirtschaftswissenschaften (3)
- Kunstgeschichte (2)
- Germanistik (1)
- Japanologie (1)
- Politikwissenschaft (1)
- Sinologie (1)
Cortisol exhibits typical ultradian and circadian rhythm and disturbances in its secretory pattern have been described in stress-related pathology. The aim of this thesis was to dissect the underlying structure of cortisol pulsatility and to develop tools to investigate the effects of this pulsatility on immune cell trafficking and the responsiveness of the neuroendocrine system and GR target genes to stress. Deconvolution modeling was set up as a tool for investigation of the pulsatile secretion underlying the ultradian cortisol rhythm. This further allowed us to investigate the role of the single cortisol pulses on the immune cell trafficking and the role of induced cortisol pulses on the kinetics of expression of GR target genes. The development of these three tools, would allow to induce and investigate in future the significance of single cortisol pulses for health and disease.
Ziel der Studie war es, die Wirksamkeit zweier psychotherapeutischer Mikrointerventionen zur Emotionsregulation und zur progressiven Relaxation und die damit einhergehenden Veränderungen auf psychometrischer und elektrokortikaler Ebene zu untersuchen. Die Stichprobe bestand aus 65 klinischen Versuchspersonen der Warteliste der Poliklinischen Psychotherapieambulanz der Universität Trier. In einer EEG-Erhebung vor und nach den Mikrointerventionen wurden neben dem Ruhe-EEG ereigniskorrelierte Potentiale (EKPs) aufgezeichnet. Im EKP-Paradigma wurden die Probanden instruiert negativ-valente Bilder aus dem IAPS-System entweder anzuschauen oder die gezeigte Situation kognitiv zu einer weniger negativen Interpretation der Bilder umzudeuten. Nach der EEG-Aufzeichnung wurden die Probanden randomisiert einer standardisierten 90-minütigen psychotherapeutischen Intervention zum kognitiven Reframing bzw. zur progressiven Relaxation zugewiesen. Im Anschluss wurde die EEG-Erhebung mit dem Ruhe-EEG und dem EKP mit einem parallelisierten Pool negativ valenter Bilder erneut durchgeführt. Auf psychometrischer Ebene wurde u.a. der positive und negative Affekt mit dem PANAS im Verlauf der Untersuchung zu insgesamt vier Messzeitpunkten erfasst. Neben dem Alpha-Frequenzband des Ruhe-EEGs wurde bei den EKPs die P3 und das Späte Positive Potential (LPP) untersucht. Die Ergebnisse geben Hinweise darauf, dass die psychotherapeutischen Mikrointerventionen zu differentiellen Effekten auf psychometrischer und elektrokortikaler Ebene führten. Auf der psychometrischen Ebene zeigte sich bei den Teilnehmern der Entspannungsintervention direkt nach der Intervention eine Abnahme des negativen Affekts, während sich dies bei den Teilnehmern der Reframing-Intervention erst im Verlauf der zweiten EEG-Messung mit dem Umdeuten der negativ valenten Bilder zeigte. Auf der elektrokortikalen Ebene waren die Ergebnisse weniger einheitlich. Durch die Entspannungs-Intervention konnte im Verlauf der Untersuchung eine Zunahme der P3-Amplituden festgestellt werden, während die Reframing-Teilnehmer über die Messzeitpunkte eine Abnahme der P3-Amplituden aufwiesen. Dies könnte so interpretiert werden, dass durch das Erlernen des Reframings das emotionale Arousal reduziert werden konnte. Bei dem LPP waren hingegen keine differentiellen Effekte der Mikrointerventionen nachweisbar. Bei beiden Interventionen kam es zu einer Zunahme der LPP-Amplituden. Bei der Analyse der Alpha-Aktivität des Ruhe-EEGs wurde bei den Entspannungs-Teilnehmern im Vergleich zu den Reframing-Teilnehmern nach der Mikrointervention eine größere Alpha-Aktivität gefunden. Diese Unterschiede wurden am deutlichsten in der linken Hemisphäre sowie in den zentralen und parietalen Hirnregionen. Eine höhere Alpha-Aktivität geht mit einer niedrigeren kortikalen Aktivität einher, so dass man davon ausgehen kann, dass die Entspannungs-Teilnehmer diese Hirnregionen während der Intervention weniger ausgeprägt nutzten. Zusammenfassend geben die Befunde erste Hinweise auf eine differentielle Wirkung der beiden Mikrointerventionen.
Copositive programming is concerned with the problem of optimizing a linear function over the copositive cone, or its dual, the completely positive cone. It is an active field of research and has received a growing amount of attention in recent years. This is because many combinatorial as well as quadratic problems can be formulated as copositive optimization problems. The complexity of these problems is then moved entirely to the cone constraint, showing that general copositive programs are hard to solve. A better understanding of the copositive and the completely positive cone can therefore help in solving (certain classes of) quadratic problems. In this thesis, several aspects of copositive programming are considered. We start by studying the problem of computing the projection of a given matrix onto the copositive and the completely positive cone. These projections can be used to compute factorizations of completely positive matrices. As a second application, we use them to construct cutting planes to separate a matrix from the completely positive cone. Besides the cuts based on copositive projections, we will study another approach to separate a triangle-free doubly nonnegative matrix from the completely positive cone. A special focus is on copositive and completely positive programs that arise as reformulations of quadratic optimization problems. Among those we start by studying the standard quadratic optimization problem. We will show that for several classes of objective functions, the relaxation resulting from replacing the copositive or the completely positive cone in the conic reformulation by a tractable cone is exact. Based on these results, we develop two algorithms for solving standard quadratic optimization problems and discuss numerical results. The methods presented cannot immediately be adapted to general quadratic optimization problems. This is illustrated with examples.
Ausgangspunkt der vorliegenden Untersuchung sind die deutlichen Unterschiede in den Ukrainepolitiken Polens und Tschechiens. Das Erkenntnisinteresse ist, worauf diese Unterschiede im außenpolitischen Verhalten zweier Staaten, die in der Außenpolitikforschung meistens als Vertreter einer relativ homogenen Gruppe betrachtet werden, zurückzuführen sind. Die Studie geht auf Basis bisheriger konstruktivistischer Forschung zur polnischen Sicherheitspolitik von der Hypothese aus, dass dies mit kulturellen Faktoren zu tun hat, speziell der unterschiedlichen sicherheitspolitischen Bewertung der Ukraine und Osteuropas im Allgemeinen sowie unterschiedlichen ukrainepolitischen Rollenkonzeptionen, die sich hieraus ergeben. Die Fragestellung lautet daher, welche ukrainebezogenen, sicherheitspolitisch motivierten Rollenkonzeptionen sich in Polen und Tschechien nach 1989 herausgebildet haben.Zur Beantwortung dieser Fragestellung wird zunächst auf Grundlage der Forschung zur politischen und zur strategischen Kultur das Konzept der sicherheitspolitischen Kultur entwickelt und die Rollentheorie als bislang in der diesbezüglichen Forschung kaum rezipiertes Analyseinstrument vorgestellt, das aus mehreren Gründen Vorteile gegenüber anderen Ansätzen hat. Methodisch wird eine wissenssoziologische Diskursanalyse durchgeführt, die als Instrument zur Erfassung von sozial konstruierter Wirklichkeit dient, sich aufgrund derselben metatheoretischen Grundlagen hervorragend in das Modell sicherheitspolitischer Kultur einfügt und daher für eine Analyse der Entstehung von Rollenkonzeptionen geeignet ist. Die Untersuchung ergibt, dass in Polen die Bedrohungskonstruktion einer möglichen Wiederkehr des russischen Imperiums zentral ist und eine unabhängige, stabilisierte Ukraine als Schutz hiergegen aufgefasst wird. Die sich ergebenden ukrainepolitischen Rollenkonzeptionen sind Teil eines weitgehend konsensuellen Komplexes sicherheitspolitischer Rollenkonzeptionen, die abgesehen von rollenspezifischen sicherheitspolitischen Zielen auch zentral durch die Bedrohungskonstruktion der politischen Marginalisierung motiviert und daher häufig als Führungsrollen charakterisierbar sind. Tschechien zeichnet sich hingegen durch das weitgehende Fehlen einer Bedrohungskonstruktion des russischen Imperialismus aus, stattdessen wird die Ukraine stärker als Quelle von Gefahren konstruiert. Zudem ist die sicherheitspolitische Kultur Tschechiens von einer konzeptionellen Unterkomplexität, einem Mangel an Konsens, einer Konstruktion Tschechiens als machtloser Akteur sowie einer Unterordnung der Außenpolitik unter innenpolitische Fragen gekennzeichnet. Daher fehlen im tschechischen Falle nicht nur jegliche ukrainepolitische Rollenkonzeptionen, es ist grundsätzlich ein Mangel an klaren Vorstellungen darüber festzustellen, welche Rollen Tschechien in der internationalen Politik spielen soll.
The startle response in psychophysiological research: modulating effects of contextual parameters
(2013)
Startle reactions are fast, reflexive, and defensive responses which protect the body from injury in the face of imminent danger. The underlying reflex is basic and can be found in many species. Even though it consists of only a few synapses located in the brain stem, the startle reflex offers a valuable research method for human affective, cognitive, and psychological research. This is because of moderating effects of higher mental processes such as attention and emotion on the response magnitude: affective foreground stimulation and directed attention are validated paradigms in startle-related research. This work presents findings from three independent research studies that deal with (1) the application of the established "affective modulation of startle"-paradigm to the novel setting of attractiveness and human mating preferences, (2) the question of how different components of the startle response are affected by a physiological stressor and (3) how startle stimuli affect visual attention towards emotional stimuli. While the first two studies treat the startle response as a dependent variable by measuring its response magnitude, the third study uses startle stimuli as an experimental manipulation and investigates its potential effects on a behavioural measure. The first chapter of this thesis describes the basic mechanisms of the startle response as well as the body of research that sets the foundation of startle research in psychophysiology. It provides the rationale for the presented studies, and offers a short summary of the obtained results. Chapter two to four represent primary research articles that are published or in press. At the beginning of each chapter the contribution of all authors is explained. The references for all chapters are listed at the end of this thesis. The overall scope of this thesis is to show how the human startle response is modulated by a variety of factors, such as the attractiveness of a potential mating partner or the exposure to a stressor. In conclusion, the magnitude of the startle response can serve as a measure for such psychological states and processes. Beyond the involuntary, physiological startle reflex, startle stimuli also affect intentional behavioural responses, which we could demonstrate for eye movements in a visual attention paradigm.
Die Frage, wie und in welche Richtung sich Wohlfahrtsstaaten entwickeln ist seit gut zwei Jahrzehnten zentraler Gegenstand der wissenschaftlichen Auseinandersetzung. Insbesondere dem konservativen Wohlfahrtsstaat, zu dem u.a. Österreich und Deutschland gezählt werden, wird dabei eine gewisse Reformresistenz nachgesagt. Besonders bei der Bewältigung neuer sozialer Risiken, wie Pflegebedürftigkeit, zeigt sich, dass der Wohlfahrtsstaat an tradierten sozialstaatlichen Leitprinzipien und kulturellen Leitbildern festhält und damit die tatsächlichen Anforderungen und Bedürfnisse sich wandelnder gesellschaftlicher Verhältnisse vernachlässigt. Auf dieses institutionelle Setting ist auch die Entstehung sogenannter Grauer Pflegemärkte in konservativen Wohlfahrtsstaaten zurückzuführen. Auf diesen Grauen Pflegemärkten bieten Migrantinnen Betreuungs- und Pflegedienstleistungen an, die überwiegend unter Umgehung nationaler arbeits- und sozialrechtlicher Standards erbracht und deshalb als irregulär eingestuft werden. Versuche der Regulierung Grauer Pflegemärkte müssen deshalb beim bisherigen sozialstaatlichen institutionellen Setting der Bereitstellung formeller/informeller Betreuungsdienstleistungen in Frage gestellt werden " aus diesem Grund können sie auch Hinweise auf die Entwicklung von Wohlfahrtsstaaten geben. Gerade hier mangelt es den zahlreichen Analysen zu den Ursachen und Folgen der Entstehung Grauer Pflegemärkte die Regulierungsversuche und -diskurse in einen größeren politikübergreifenden Forschungskontext zu setzen und zu analysieren. Dieses Dissertationsprojekt setzt an dieser Forschungslücke an und geht der Frage nach, was der parlamentarische Diskurs um die Legalisierung der 24-Stunden-Betreuung über die Richtung des wohlfahrtsstaatlichen Wandels konservativer Wohlfahrtsstaaten aussagt. Hierbei werden die wohlfahrtsstaatlichen Entwicklungen der vergangenen zwei Jahrzehnte sowie die sozialpolitischen Leitprinzipien des konservativen Wohlfahrtsstaates in die Untersuchung mit einbezogen. In theoretischer Hinsicht knüpft das Vorhaben an Theorieansätze der Wissenspolitologie und Wissenssoziologie an und verbindet sie mit dem Ansatz der Theorie der sozialen Probleme. Wissenspolitologie erlaubt es wohlfahrtsstaatliche Veränderungsprozesse vor dem Hintergrund von Deutungen, Ideen oder Argumenten, also dem, was politische Akteure sagen, zu analysieren und sehen gleichzeitig hierin den Ausgangspunkt eben jener wohlfahrtsstaatlichen Veränderungsprozesse und Entwicklungen. Der wissenssoziologische Zugang in dieser Arbeit begründet sich über die Beobachtung, dass Graue Pflegemärkte rund zwanzig Jahre unbeachtet von Politik und Gesellschaft existieren konnten. Erst die Problematisierung der Grauen Pflegemärkte bzw. der auf ihnen irregulär erbrachten Betreuungsdienstleistungen ermöglichte einen Diskurs um die Frage, wie und in welchem Rahmen Betreuungsdienstleistungen zukünftig erbracht werden sollen. Insofern kann die Problematisierung als Ausgangspunkt für einen sozialpolitischen Veränderungsprozess gesehen werden. Die Analyse stützt sich dabei auf qualitative Methoden und wertet hierzu wichtige Parlamentsdebatten, Gesetzesentwürfe, Parteiendokumente sowie Zeitungsartikel die im Rahmen der Problematisierung und öffentlichen Diskussion zur Legalisierung der 24-Stunden-Betreuung geführt wurden aus. Ziel dieser Arbeit ist es, den Wandel des konservativen Wohlfahrtsstaates (1) durch das bislang wenig beachtete Politikfeld Betreuungsarbeit und Pflege zu ergänzen und (2) die Analyse um die Bedeutung von Deutungen und sozialpolitischen Leitprinzipien für sozialpolitische Reformprozesse zu erweitern.
This study examines the relationship between media content, its production, and its reception in Japanese popular culture with the example of the so-called yuri ("lily") genre that centers on representations of intimate relationships between female characters. Based on contemporary genre theory, which posits that genres are not inherent properties of texts, the central question of this study is how the yuri genre is discursively produced in Japan. To examine this question, the study takes a variety of sources into consideration: Firstly, it discusses ten exemplary texts from the 1910s to 2010s that in the Japanese discourse on the yuri genre are deemed the milestone texts of the yuri genre's historical development (Hana monogatari, Otome no minato, Secret Love, Shiroi heya no futari, BishÅjo senshi Sailor Moon, Maria-sama ga miteru, ShÅjo Sect, Aoi hana, Yuru yuri, and Yuri danshi). Secondly, interviews with ten editors working for Japanese manga magazines shed light on their assessment of the yuri genre. Finally, the results of an online survey among Japanese fans of the yuri genre, which returned 1,352 completed questionnaires, question hitherto assumptions about the fans and their reasons for liking the yuri genre. The central argument of this study is that the yuri genre is for the most part constructed not through assignments on part of the genre's producers but through interpretations on part of the genre's fans. The intimacy portrayed in the texts ranges from "friendship" to "love," and often the ideas of "innocence" and "beauty" are emphasized. Nevertheless, the formation of the yuri genre occurs outside the bounds of the texts, most importantly in fan works, i.e. derivative texts created by fans. The actual content of the originals merely serves as a starting point for these interpretations. Located at the intersection of Japanese studies, cultural studies, media studies, and sociology, this study contributes to our understanding of contemporary Japanese popular culture by showing the mutual dependencies between media content, production, and reception. It provides a deeper look at these processes through first-hand accounts of both producers and fans of the yuri genre.
Nicht von einer Hand Fallbeispiele der künstlerischen Zusammenarbeit in der Gemäldeproduktion vom 17. bis 19. Jahrhundert Das Phänomen der künstlerischen Zusammenarbeit mehrerer Maler auf einem Bildträger wurde in den vergangenen zehn Jahren in der Forschung und in der praktischen Museumsarbeit mit immer größerem Interesse betrachtet. Das hängt mit dem generellen Wandel in der Wahrnehmung von historischen Sammlungen und der Hinterfragung von tradierten Wahrnehmungsmustern in der Kunstgeschichte zusammen. Diese Dissertation hat sich die Frage nach der Entstehung dieser Form der Zusammenarbeit in verschiedenen Regionen und deren Rezeption im 18. und 19. Jahrhundert gestellt. Wenngleich in der Forschung die Kooperationstätigkeiten einzelner Künstler zunehmend Beachtung finden, so war es mein Anliegen, das Phänomen der Kooperationspraxis umfassend anhand verschiedener Fallbeispiele zu beschreiben. In vielen Fällen können diese Beispiele ergänzt und erweitert werden. Im Kern aber bleibt die Feststellung, dass die Kooperationspraxis als künstlerische Produktionsweise eine Entwicklung vollzogen hat. Kooperationen im beschriebenen Umfang hat es immer gegeben. Die produktive Phase der niederländischen und flämischen Malerei wäre im 17. Jahrhundert nicht möglich gewesen, hätten sich vor allem in Antwerpen die Maler nicht zu Kooperationsgemeinschaften zusammengeschlossen. Die Entwicklung der Genres, der Transfer unterschiedlichster Bildthemen und Motive hängt im engen Maße mit der Kooperationstätigkeit zusammen. Entscheidend für die horizontale Kooperation, also die Kooperation unter (mehr oder minder) gleichgestellten autonomen Meistern, war die Entwicklung dieser verschiedenen Genres. Einige dieser Gattungen eigneten sich besonders gut für die Praxis der Künstlerkooperation. Sie wurden zum Teil überhaupt erst durch diesen intensiven Austausch unter den Malern so erfolgreich und konnten erst durch eine ökonomische Produktionsweise in großer Menge für den freien Kunstmarkt hergestellt werden. Bei der Gegenüberstellung der Kooperationsbedingungen in Deutschland und in den Niederlanden wurden signifikante Gründe für die unterschiedliche Entwicklung der künstlerischen Zusammenarbeit herausgestellt. Im Alten Reich unterschieden sich im 16. und 17. Jahrhundert die sozial-ökonomischen Verhältnisse deutlich von denen in den südlichen und nördlichen Niederlanden. Die Grenzen zwischen der werkstattinternen Arbeitsteilung und der Kooperation zwischen autonomen Meistern verliefen fließend. Die Entwicklung in der Arbeitsweise der Maler verlief über einen langen Zeitraum und kann nicht als homogener Entwicklungsstrang festgeschrieben werden. Waren es anfangs die herrschaftlich motivierten Ansprüche für die Ausstattung der Residenzen oder für exorbitante Memorialprojekte, welche die bekanntesten Maler an einem Projekt unter der Koordination eines Höflings wirken ließen, so ging mit dem Erstarken des freien Kunstmarktes die Künstlerkooperation mit dem Ziel einer effektiven und absatzstarken Gemäldeproduktion einher. Die Produktionsverfahren des 18. und 19. Jahrhunderts folgten, mehr und mehr politischen, gesellschaftlichen und ökonomischen Motiven, wobei die Künstlerkooperation als soziales Arbeitsmodell bestätigt wurde. Damit wurde gleichsam der Weg für Künstlergemeinschaften und Künstlerkolonien geebnet, die vor allem im 20. Jahrhundert ein globales Phänomen darstellten und das künstlerische Selbstverständnis bis zum heutigen Tag prägen.
This work investigates the industrial applicability of graphics and stream processors in the field of fluid simulations. For this purpose, an explicit Runge-Kutta discontinuous Galerkin method in arbitrarily high order is implemented completely for the hardware architecture of GPUs. The same functionality is simultaneously realized for CPUs and compared to GPUs. Explicit time steppings as well as established implicit methods are under consideration for the CPU. This work aims at the simulation of inviscid, transsonic flows over the ONERA M6 wing. The discontinuities which typically arise in hyperbolic equations are treated with an artificial viscosity approach. It is further investigated how this approach fits into the explicit time stepping and works together with the special architecture of the GPU. Since the treatment of artificial viscosity is close to the simulation of the Navier-Stokes equations, it is reviewed how GPU-accelerated methods could be applied for computing viscous flows. This work is based on a nodal discontinuous Galerkin approach for linear hyperbolic problems. Here, it is extended to non-linear problems, which makes the application of numerical quadrature obligatory. Moreover, the representation of complex geometries is realized using isoparametric mappings. Higher order methods are typically very sensitive with respect to boundaries which are not properly resolved. For this purpose, an approach is presented which fits straight-sided DG meshes to curved geometries which are described by NURBS surfaces. The mesh is modeled as an elastic body and deformed according to the solution of closest point problems in order to minimize the gap to the original spline surface. The sensitivity with respect to geometry representations is reviewed in the end of this work in the context of shape optimization. Here, the aerodynamic drag of the ONERA M6 wing is minimized according to the shape gradient which is implicitly smoothed within the mesh deformation approach. In this context a comparison to the classical Laplace-Beltrami operator is made in a Stokes flow situation.
In der modernen Survey-Statistik treten immer häufifiger Optimierungsprobleme auf, die es zu lösen gilt. Diese sind oft von hoher Dimension und Simulationsstudien erfordern das mehrmalige Lösen dieser Optimierungsprobleme. Um dies in angemessener Zeit durchführen zu können, sind spezielle Algorithmen und Lösungsansätze erforderlich, welche in dieser Arbeit entwickelt und untersucht werden. Bei den Optimierungsproblemen handelt es sich zum einen um Allokationsprobleme zur Bestimmung optimaler Teilstichprobenumfänge. Hierbei werden neben auf einem Nullstellenproblem basierende, stetige Lösungsmethoden auch ganzzahlige, auf der Greedy-Idee basierende Lösungsmethoden untersucht und die sich ergebenden Optimallösungen miteinander verglichen.Zum anderen beschäftigt sich diese Arbeit mit verschiedenen Kalibrierungsproblemen. Hierzu wird ein alternativer Lösungsansatz zu den bisher praktizierten Methoden vorgestellt. Dieser macht das Lösen eines nichtglatten Nullstellenproblemes erforderlich, was mittels desrnnichtglatten Newton Verfahrens erfolgt. Im Zusammenhang mit nichtglatten Optimierungsalgorithmen spielt die Schrittweitensteuerung eine große Rolle. Hierzu wird ein allgemeiner Ansatz zur nichtmonotonen Schrittweitensteuerung bei Bouligand-differenzierbaren Funktionen betrachtet. Neben der klassischen Kalibrierung wird ferner ein Kalibrierungsproblem zur kohärenten Small Area Schätzung unter relaxierten Nebenbedingungen und zusätzlicher Beschränkung der Variation der Designgewichte betrachtet. Dieses Problem lässt sich in ein hochdimensionales quadratisches Optimierungsproblem umwandeln, welches die Verwendung von Lösern für dünn besetzte Optimierungsprobleme erfordert.Die in dieser Arbeit betrachteten numerischen Probleme können beispielsweise bei Zensen auftreten. In diesem Zusammenhang werden die vorgestellten Ansätze abschließend in Simulationsstudien auf eine mögliche Anwendung auf den Zensus 2011 untersucht, die im Rahmen des Zensus-Stichprobenforschungsprojektes untersucht wurden.
Design and structural optimization has become a very important field in industrial applications over the last years. Due to economical and ecological reasons, the efficient use of material is of highly industrial interest. Therefore, computational tools based on optimization theory have been developed and studied in the last decades. In this work, different structural optimization methods are considered. Special attention lies on the applicability to three-dimensional, large-scale, multiphysic problems, which arise from different areas of the industry. Based on the theory of PDE-constraint optimization, descent methods in structural optimization require knowledge of the (partial) derivatives with respect to shape or topology variations. Therefore, shape and topology sensitivity analysis is introduced and the connection between both sensitivities is given by the Topological-Shape Sensitivity Method. This method leads to a systematic procedure to compute the topological derivative by terms of the shape sensitivity. Due to the framework of moving boundaries in structural optimization, different interface tracking techniques are presented. If the topology of the domain is preserved during the optimization process, explicit interface tracking techniques, combined with mesh-deformation, are used to capture the interface. This techniques fit very well the requirements in classical shape optimization. Otherwise, an implicit representation of the interface is of advantage if the optimal topology is unknown. In this case, the level set method is combined with the concept of the topological derivative to deal with topological perturbation. The resulting methods are applied to different industrial problems. On the one hand, interface shape optimization for solid bodies subject to a transient heat-up phase governed by both linear elasticity and thermal stresses is considered. Therefore, the shape calculus is applied to coupled heat and elasticity problems and a generalized compliance objective function is studied. The resulting thermo-elastic shape optimization scheme is used for compliance reduction of realistic hotplates. On the other hand, structural optimization based on the topological derivative for three-dimensional elasticity problems is observed. In order to comply typical volume constraints, a one-shot augmented Lagrangian method is proposed. Additionally, a multiphase optimization approach based on mesh-refinement is used to reduce the computational costs and the method is illustrated by classical minimum compliance problems. Finally, the topology optimization algorithm is applied to aero-elastic problems and numerical results are presented.
Preisvergleiche zwischen verschiedenen Regionen spielen in zahlreichen wirtschaftlichen und politischen Zusammenhängen eine wichtige Rolle. Unabhängig davon, ob es darum geht, die Wirtschaftskraft von Regionen oder Ländern gegenüber zu stellen, die Lebensverhältnisse innerhalb eines Landes zu vergleichen, oder aber die Wirkungsweise sozial- und lohnpolitischer Entscheidungen einzuschätzen: Interregionale Preisvergleiche dienen in erster Linie als Instrument, um gesamtwirtschaftliche und ökonomische Größen zwischen verschiedenen Regionen oder Ländern real vergleichbar zu machen. Interregionale Preisvergleiche sind allgemeinhin besser bekannt als sogenannte Kaufkraftparitäten. Die enorme Bedeutung von Kaufkraftparitäten wurde in der Vergangenheit lange unterschätzt. Insbesondere bei Preisvergleichen innerhalb eines Landes mangelt es oftmals an einer soliden Datenbasis, sodass verlässliche Schätzungen regionaler Preisniveauunterschiede häufig nicht möglich sind. Die vorliegende Arbeit zeigt allerdings, dass ein breites Angebot verschiedener multilateraler Aggregationsmethoden bereit. Im Mittelpunkt des ersten Teils Arbeit steht die methodische Ausarbeitung verschiedener Aggregationsverfahren, mit deren Hilfe sich erhobene Daten zu verlässlichen und aussagekräftigen Preisvergleichskennzahlen aggregieren lassen. Im Unterschied zu intertemporalen Vergleichen sind gewöhnliche bilaterale Preisindizes für diesen Zweck nur begrenzt einsetzbar. Vielmehr sind spezielle multilaterale methodische Instrumente nötig, die den speziellen Anforderungen regionaler Preisvergleiche gerecht zu werden. Im Rahmen der Arbeit werden die verschiedenen multilateralen Aggregationsverfahren unterschiedlichen Berechnungsansätzen zugeordnet, wobei jeder dieser Ansätze durch bestimmte Eigenschaften charakterisiert ist. Neben den Mitgliedern der Klasse des Gini-Eltetö-Köves-Szulc (GEKS) und Minimum Spannning Tree (MST) Ansatzes sowie des Regressionsansatzes, widmet sich diese Arbeit schwerpunktmäßig den unterschiedlichen Verfahren des sogenannten Standardisierungsansatzes. Es stellt sich heraus, dass der Standardisierungsansatz grundsätzlich sehr dem Konstruktionsprinzip bilateraler Durchschnittswertindizes (GUV-Indizes) ähnelt, weshalb sich die Mitglieder dieser Klasse auch als multilaterale GUV-Indizes auffassen lassen. Darüber hinaus wird eine neue Unterklasse des Standardisierungsansatzes definiert, deren Mitglieder die breite Palette bereits existierender Verfahren ergänzen. Allerdings wird den Aggregationsverfahren des Standardisierungsansatzes nachgesagt, unter den Auswirkungen des sogenannten Gerschenkron-Effekts zu leiden und im Gegensatz zu anderen Aggregationsverfahren häufig verzerrte Preisvergleiche hervorzubringen. Der zweite Teil der Arbeit ist einem empirischen Vergleich der zuvor erörterten Aggregationsverfahren vorbehalten. Grundlage für die Berechnungen (auf und unterhalb der elementaren Güterebene) sind Daten des Europäischen Vergleichsprogramms (EVP). Eine wichtige Erkenntnis des empirischen Teils der Arbeit ist, dass viele der unterschiedlichen Aggregationsmethoden für die Berechnungen auf der Elementarebene sehr ähnliche Ergebnisse für die Preisvergleiche zwischen den Ländern im EVP generieren. Die Sorge verzerrter Preisvergleiche infolge der Auswirkungen des Gerschenkron-Effektes lässt sich auf Grundlage der empirischen Untersuchungen nicht (zweifelsfrei) bestätigen. Ferner zeigen die empirischen Untersuchungen, dass weitaus größere Schwierigkeiten bei der Berechnung von Preisvergleichen unterhalb der Elementarebene bestehen. Die Berechnungen offenbaren, dass die häufig in der Praxis eingesetzten Verfahren der GEKS-Methode in Situationen, in denen nur wenige Daten vorhanden sind, keine plausiblen Ergebnisse liefern. Es stellt sich heraus, dass in diesen Fällen die Verfahren des Regressionsansatzes eine unkompliziertere und verlässlichere Berechnung von Preisvergleichen erlauben. Nichtsdestotrotz decken die Ergebnisse schonungslos die Probleme und Schwächen interregionaler Preisvergleiche auf. Trotz intensiver Anstrengungen der internationalen statistischen Organisationen, eine vergleichbare und fundierte Datenbasis zu schaffen, sind die Dateninformationen einiger Regionen bzw. Länder nach wie vor sehr lückenhaft. Da verlässliche und aussagekräftige Preisvergleiche im Wesentlichen von der Verfügbarkeit und der Qualität der Daten abhängig sind, sollte der Forschungsschwerpunkt zukünftig daher mehr an der Bereitstellung eines soliden Datenfundaments ausgerichtet werden.
Krylov subspace methods are often used to solve large-scale linear equations arising from optimization problems involving partial differential equations (PDEs). Appropriate preconditioning is vital for designing efficient iterative solvers of this type. This research consists of two parts. In the first part, we compare two different kinds of preconditioners for a conjugate gradient (CG) solver attacking one partial integro-differential equation (PIDE) in finance, both theoretically and numerically. An analysis on mesh independence and rate of convergence of the CG solver is included. The knowledge of preconditioning the PIDE is applied to a relevant optimization problem. The second part aims at developing a new preconditioning technique by embedding reduced order models of nonlinear PDEs, which are generated by proper orthogonal decomposition (POD), into deflated Krylov subspace algorithms in solving corresponding optimization problems. Numerical results are reported for a series of test problems.
Die Frage, wie die Lesekompetenz der Lernenden effizienter entwickelt werden kann, beschäftigt die Leseforschung im Bereich Chinesisch als Fremdsprache (ChaF) seit vielen Jahren. Bis heute werden dabei schriftstrukturelle Aspekte in den Vordergrund gestellt, so z. B. die Frage, wie den Lernenden der Aufbau der Schriftzeichen systematisch näher gebracht werden kann oder auch korpusrelevante Ansätze, die in Sammlungen hochfrequenter Schriftzeichen und Wörter ihren Niederschlag finden. So sinnvoll diese Herangehensweisen beispielsweise für die Entwicklung von Lehrwerken sind, so bleibt doch festzuhalten, dass die Wortebene (Wortschatzkenntnis und Worterkennung), die den Befunden der L1- und L2-Leseforschung zufolge der Schlüssel für das Verstehen von Texten ist, bis heute sowohl in der lesedidaktischen Diskussion als auch in den Lehrwerken stark vernachlässigt wird. In den letzten zwanzig Jahren ist von Seiten der ChaF-Leseforschung, insbesondere in den USA und in China, eine Reihe von psycholinguistischen Studien zur Entwicklung der Lesekompetenz, der Worterkennung und von Wortschatzkenntnissen sowie zur Beziehung dieser Kompetenz- und Wissensbereiche publiziert worden. Auch der Leseprozess geübter L1-Leser ist inzwischen gut erforscht. Allerdings lassen sich aus den Ergebnissen einzelner psycholinguistischer Studien, in denen unter Anwendung unterschiedlicher Forschungsparadigmen bestimmte Subprozesse des Lesens untersucht werden, nicht direkt Schlussfolgerungen für die nach kohärenten Erklärungen des Leseprozesses verlangende Lesedidaktik ziehen. Für die Entwicklung eines evidenzbasierten Ansatzes zur wortschatzzentrierten Lesevermittlung in ChaF wurde daher in der vorliegenden interdisziplinären Studie die gesamte relevante empirische Evidenz zum Lesen und zur Wortverarbeitung in ChaF kritisch im Rahmen konsensfähiger Theorien zur Sprachverarbeitung analysiert. Ergebnis dieser Analyse war, dass " ebenso wie in anderen Fremdsprachen auch " umfassende und gut vernetzte Wortschatzkenntnisse sowie eine automatisierte Worterkennung, die den zuverlässigen Abruf phonologischer Informationen mit einschließt, Grundvoraussetzungen für das fließende Lesen chinesischer Texte sind. Gleichzeitig verdeutlichen die empirischen Befunde auch, dass der Erwerb vertiefter Wortschatzkenntnisse aufgrund der sprachlichen Distanz des Chinesischen für westliche ChaF-Lernende eine große Herausforderung darstellt. Auch die Entwicklung der Worterkennung ist aufgrund der phonologischen Intransparenz der chinesischen Schrift und auch weil beim Lesen eine zusätzliche Wortsegmentierung vorgenommen werden muss, mit großen Schwierigkeiten verbunden. Im letzten Kapitel der Dissertation werden Empfehlungen für eine wortschatzzentrierte Lesedidaktik formuliert, die Ansätze aus der evidenzbasierten westlichen L2-Lesedidaktik mit der traditionellen Methode des lauten Lesens verbindet und die den Lernenden gleichzeitig die Möglichkeit bietet, im Rahmen inhaltsbezogener rezeptiver, reflexiver und produktiver Übungen aktiv mit chinesischen Wörtern umzugehen und deren Verwendung wiederholt einzuüben.
Im querschnittlichen Vergleich zwischen 10- bis 18-jährigen Mädchen mit Major Depression und gleichaltrigen gesunden Probandinnen wiesen die depressiven Mädchen mehr Probleme, mehr körperliche und psychische Stresssymptome, erhöhte Cortisolsekretion sowie eine ungünstigere Stressverarbeitung auf. Im Längsschnitt zeigte sich die Bedeutsamkeit von psychischer Stressbelastung und der Einfluss von Bewältigungsstrategien auf den Verlauf der Depression.
In politics and economics, and thus in the official statistics, the precise estimation of indicators for small regions or parts of populations, the so-called Small Areas or domains, is discussed intensively. The design-based estimation methods currently used are mainly based on asymptotic properties and are thus reliable for large sample sizes. With small sample sizes, however, this design based considerations often do not apply, which is why special model-based estimation methods have been developed for this case - the Small Area methods. While these may be biased, they often have a smaller mean squared error (MSE) as the unbiased design based estimators. In this work both classic design-based estimation methods and model-based estimation methods are presented and compared. The focus lies on the suitability of the various methods for their use in official statistics. First theory and algorithms suitable for the required statistical models are presented, which are the basis for the subsequent model-based estimators. Sampling designs are then presented apt for Small Area applications. Based on these fundamentals, both design-based estimators and as well model-based estimation methods are developed. Particular consideration is given in this case to the area-level empirical best predictor for binomial variables. Numerical and Monte Carlo estimation methods are proposed and compared for this analytically unsolvable estimator. Furthermore, MSE estimation methods are proposed and compared. A very popular and flexible resampling method that is widely used in the field of Small Area Statistics, is the parametric bootstrap. One major drawback of this method is its high computational intensity. To mitigate this disadvantage, a variance reduction method for parametric bootstrap is proposed. On the basis of theoretical considerations the enormous potential of this proposal is proved. A Monte Carlo simulation study shows the immense variance reduction that can be achieved with this method in realistic scenarios. This can be up to 90%. This actually enables the use of parametric bootstrap in applications in official statistics. Finally, the presented estimation methods in a large Monte Carlo simulation study in a specific application for the Swiss structural survey are examined. Here problems are discussed, which are of high relevance for official statistics. These are in particular: (a) How small can the areas be without leading to inappropriate or to high precision estimates? (b) Are the accuracy specifications for the Small Area estimators reliable enough to use it for publication? (c) Do very small areas infer in the modeling of the variables of interest? Could they cause thus a deterioration of the estimates of larger and therefore more important areas? (d) How can covariates, which are in different levels of aggregation be used in an appropriate way to improve the estimates. The data basis is the Swiss census of 2001. The main results are that in the author- view, the use of small area estimators for the production of estimates for areas with very small sample sizes is advisable in spite of the modeling effort. The MSE estimates provide a useful measure of precision, but do not reach in all Small Areas the level of reliability of the variance estimates for design-based estimators.
The present thesis addresses the validity of Binge Eating Disorder (BED) as well as underlying mechanisms of BED from three different angles. Three studies provide data discriminating obesity with BED from obesity without BED. Study 1 demonstrates differences between obese individuals with and without BED regarding eating in the natural environment, psychiatric comorbidity, negative affect as well as self reported tendencies in eating behavior. Evidence for possible psychological mechanisms explaining increased intake of BED individuals in the natural environment was given by analyzing associations of negative affect, emotional eating, restrained eating and caloric intake in obese BED compared to NBED controls. Study 2 demonstrated stress-induced changes in the eating behavior of obese individuals with BED. The impact of a psychosocial stressor, the Trier Social Stress Test (TSST, Kirschbaum, Pirke, & Hellhammer, 1993), on behavioral patterns of eating behavior in laboratory was investigated. Special attention was given to stress-induced changes in variables that reflect mechanisms of appetite regulation in obese BED individuals compared to controls. To further explore by which mechanisms stress might trigger binge eating, study 3 investigated differences in stress-induced cortisol secretion after a socially evaluated cold pressure test (SECPT, Schwabe, Haddad, & Schachinger, 2008) in obese BED as compared to obese NBED individuals.
In a paper of 1996 the british mathematician Graham R. Allan posed the question, whether the product of two stable elements is again stable. Here stability describes the solvability of a certain infinite system of equations. Using a method from the theory of homological algebra, it is proved that in the case of topological algebras with multiplicative webs, and thus in all common locally convex topological algebras that occur in standard analysis, the answer of Allan's question is affirmative.
Im Leistungssport ist ein gesunder Körper die Hauptvoraussetzung für das Erbringen sportlicher Höchstleistungen. Allerdings müssen Leistungssportler tagtäglich in Training und Wettkampf gesundheitliche Risiken eingehen. Aus diesem Dilemma wird ein Trilemma, sobald es sich um jugendliche Leistungssportler handelt, da das Jugendalter mit all den Veränderungen auf psychischer, physischer und sozialer Ebene, die es mit sich bringt, häufig das Einstiegsalter für gesundheitsrelevante Risikoverhaltensweisen wie den Konsum von Alkohol, Tabak und Marihuana bildet. Diese können zusätzlich Auswirkungen auf die Gesundheit und damit das Erbringen sportlicher Leistung haben. Aus diesem Grund war es das Ziel dieser Dissertation, das gesundheitsrelevante Risikoverhalten und die subjektive Gesundheit in der speziellen Gruppe jugendlicher Leistungssportler zu untersuchen, mit einer jugendlicher Referenzstichprobe bestehend aus Nicht-Leistungssportlern zu vergleichen und assoziierte Determinanten - sowohl individueller als auch kontextueller Natur - zu identifizieren. Dazu wurden im Rahmen der GOAL Study (German Young Olympic Athletes" Lifestyle and Health Management Study) 1.138 jugendliche Leistungssportler aller olympischer Disziplinen schriftlich befragt. Ausgewertet wurden neben der subjektiven Gesundheit der Konsum von Alkohol, Tabak und Marihuana, das Ernährungsverhalten und die Nutzung von Nahrungsergänzungsmitteln. Als Vergleichspopulation wurde der KiGGS (Kinder- und Jugendgesundheitssurvey) des Robert Koch-Instituts herangezogen. Es zeigte sich, dass jugendliche Leistungssportler zwar selten rauchten (3%) oder Marihuana konsumierten (3%), aber dass sie durchaus Alkohol zu sich nahmen (86%) und insbesondere Binge Drinking betrieben (24%). Bezüglich des Rauchverhaltens, des Konsums von Marihuana und des Jemalskonsums von Alkohol zeigten sie jedoch niedrigere Prävalenzen als jugendliche Nicht-Leistungssportler. Bei der Ernährung der Athleten ergaben sich teilweise Defizite. Lediglich 52% der Athleten nahmen täglich eine Auswahl an vitamin- und ballaststoffreichen Nahrungsmitteln zu sich, jedoch waren dies mehr als in der Referenzpopulation. Neun von zehn Athleten nutzten Nahrungsergänzungsmittel, davon konsumierten rund 30% täglich Supplemente. Die Mehrheit der Athleten bezeichnete ihre Gesundheit als gut oder sehr gut (89%), was einem größeren Anteil entspricht als in der Referenzgruppe (86%). Es fanden sich eine Vielzahl an individuellen und kontextuellen Determinanten mit den einzelnen Risikoverhaltensweisen und der subjektiven Gesundheit verknüpft. Insgesamt lässt sich festhalten, dass Beratung und Aufklärung bezüglich der einzelnen Risikoverhaltensweisen immens wichtig erscheinen. Beispiele für bestehenden Aufklärungsbedarf sind der übermäßige Alkoholkonsum, welcher Auswirkungen auf die Leistungsfähigkeit haben kann, die Einnahme von Nahrungsergänzungsmitteln wie Kreatin, welche für Jugendliche nicht unbedenklich ist, und der häufig vorliegende nicht-tägliche Konsum von vitamin- und ballaststoffreichen Lebensmitteln, welcher wichtig für eine adäquate Ernährung ist. Daher sollten bereits Athleten in niedrigeren Kaderstufen Experten (z. B. Ernährungsberater) zur Seite gestellt werden. Aber nicht nur die Athleten sollten besser geschult werden sondern auch deren Trainer, Betreuer und Eltern, die allesamt wichtige Bezugspersonen darstellen.
In this thesis, global surrogate models for responses of expensive simulations are investigated. Computational fluid dynamics (CFD) have become an indispensable tool in the aircraft industry. But simulations of realistic aircraft configurations remain challenging and computationally expensive despite the sustained advances in computing power. With the demand for numerous simulations to describe the behavior of an output quantity over a design space, the need for surrogate models arises. They are easy to evaluate and approximate quantities of interest of a computer code. Only a few number of evaluations of the simulation are stored for determining the behavior of the response over a whole range of the input parameter domain. The Kriging method is capable of interpolating highly nonlinear, deterministic functions based on scattered datasets. Using correlation functions, distinct sensitivities of the response with respect to the input parameters can be considered automatically. Kriging can be extended to incorporate not only evaluations of the simulation, but also gradient information, which is called gradient-enhanced Kriging. Adaptive sampling strategies can generate more efficient surrogate models. Contrary to traditional one-stage approaches, the surrogate model is built step-by-step. In every stage of an adaptive process, the current surrogate is assessed in order to determine new sample locations, where the response is evaluated and the new samples are added to the existing set of samples. In this way, the sampling strategy learns about the behavior of the response and a problem-specific design is generated. Critical regions of the input parameter space are identified automatically and sampled more densely for reproducing the response's behavior correctly. The number of required expensive simulations is decreased considerably. All these approaches treat the response itself more or less as an unknown output of a black-box. A new approach is motivated by the assumption that for a predefined problem class, the behavior of the response is not arbitrary, but rather related to other instances of the mutual problem class. In CFD, for example, responses of aerodynamic coefficients share structural similarities for different airfoil geometries. The goal is to identify the similarities in a database of responses via principal component analysis and to use them for a generic surrogate model. Characteristic structures of the problem class can be used for increasing the approximation quality in new test cases. Traditional approaches still require a large number of response evaluations, in order to achieve a globally high approximation quality. Validating the generic surrogate model for industrial relevant test cases shows that they generate efficient surrogates, which are more accurate than common interpolations. Thus practical, i.e. affordable surrogates are possible already for moderate sample sizes. So far, interpolation problems were regarded as separate problems. The new approach uses the structural similarities of a mutual problem class innovatively for surrogate modeling. Concepts from response surface methods, variable-fidelity modeling, design of experiments, image registration and statistical shape analysis are connected in an interdisciplinary way. Generic surrogate modeling is not restricted to aerodynamic simulation. It can be applied, whenever expensive simulations can be assigned to a larger problem class, in which structural similarities are expected.