Filtern
Erscheinungsjahr
- 2013 (35) (entfernen)
Dokumenttyp
- Dissertation (35) (entfernen)
Sprache
- Deutsch (20)
- Englisch (14)
- Mehrsprachig (1)
Volltext vorhanden
- ja (35) (entfernen)
Schlagworte
- Optimierung (4)
- Stress (4)
- Statistik (3)
- Bodenerosion (2)
- Jugend (2)
- Kooperation (2)
- Modellierung (2)
- Numerische Strömungssimulation (2)
- Volkszählung (2)
- stress (2)
Institut
- Raum- und Umweltwissenschaften (10)
- Mathematik (8)
- Psychologie (5)
- Soziologie (3)
- Wirtschaftswissenschaften (3)
- Kunstgeschichte (2)
- Germanistik (1)
- Japanologie (1)
- Politikwissenschaft (1)
- Sinologie (1)
Die Zweckbestimmung der modernen Clustertheorie liegt in der Analyse regional-sektoraler Verbundsysteme von ökonomischen Aktivitäten. Erst seit kurzem wird der Versuch einer Übertragung auf touristische Destinationen in Entwicklungsländern unternommen. Die vorliegende Dissertation untersucht theoretische, methodische und praktische Implikationen dieser Übertragung anhand des Fallbeispiels der touristischen Clusterentwicklung in der Napo-Provinz Ecuadors. Hierbei stehen insbesondere die Rahmenbedingungen für die Genese wissensbasierter (kompetitiver) Wettbewerbsvorteile als Quelle der Clusterdynamik im Zentrum. Anhand einer quantitativen Methodik wird in diesem Rahmen sowohl ein Nachweis zur Gültigkeit eines vorab abgeleiteten Clusterentwicklungsmodells geführt, als auch auf dieser Grundlage ein Beitrag zur Verbesserung bestehender Diagnosesysteme geleistet.
Cortisol exhibits typical ultradian and circadian rhythm and disturbances in its secretory pattern have been described in stress-related pathology. The aim of this thesis was to dissect the underlying structure of cortisol pulsatility and to develop tools to investigate the effects of this pulsatility on immune cell trafficking and the responsiveness of the neuroendocrine system and GR target genes to stress. Deconvolution modeling was set up as a tool for investigation of the pulsatile secretion underlying the ultradian cortisol rhythm. This further allowed us to investigate the role of the single cortisol pulses on the immune cell trafficking and the role of induced cortisol pulses on the kinetics of expression of GR target genes. The development of these three tools, would allow to induce and investigate in future the significance of single cortisol pulses for health and disease.
Design and structural optimization has become a very important field in industrial applications over the last years. Due to economical and ecological reasons, the efficient use of material is of highly industrial interest. Therefore, computational tools based on optimization theory have been developed and studied in the last decades. In this work, different structural optimization methods are considered. Special attention lies on the applicability to three-dimensional, large-scale, multiphysic problems, which arise from different areas of the industry. Based on the theory of PDE-constraint optimization, descent methods in structural optimization require knowledge of the (partial) derivatives with respect to shape or topology variations. Therefore, shape and topology sensitivity analysis is introduced and the connection between both sensitivities is given by the Topological-Shape Sensitivity Method. This method leads to a systematic procedure to compute the topological derivative by terms of the shape sensitivity. Due to the framework of moving boundaries in structural optimization, different interface tracking techniques are presented. If the topology of the domain is preserved during the optimization process, explicit interface tracking techniques, combined with mesh-deformation, are used to capture the interface. This techniques fit very well the requirements in classical shape optimization. Otherwise, an implicit representation of the interface is of advantage if the optimal topology is unknown. In this case, the level set method is combined with the concept of the topological derivative to deal with topological perturbation. The resulting methods are applied to different industrial problems. On the one hand, interface shape optimization for solid bodies subject to a transient heat-up phase governed by both linear elasticity and thermal stresses is considered. Therefore, the shape calculus is applied to coupled heat and elasticity problems and a generalized compliance objective function is studied. The resulting thermo-elastic shape optimization scheme is used for compliance reduction of realistic hotplates. On the other hand, structural optimization based on the topological derivative for three-dimensional elasticity problems is observed. In order to comply typical volume constraints, a one-shot augmented Lagrangian method is proposed. Additionally, a multiphase optimization approach based on mesh-refinement is used to reduce the computational costs and the method is illustrated by classical minimum compliance problems. Finally, the topology optimization algorithm is applied to aero-elastic problems and numerical results are presented.
The startle response in psychophysiological research: modulating effects of contextual parameters
(2013)
Startle reactions are fast, reflexive, and defensive responses which protect the body from injury in the face of imminent danger. The underlying reflex is basic and can be found in many species. Even though it consists of only a few synapses located in the brain stem, the startle reflex offers a valuable research method for human affective, cognitive, and psychological research. This is because of moderating effects of higher mental processes such as attention and emotion on the response magnitude: affective foreground stimulation and directed attention are validated paradigms in startle-related research. This work presents findings from three independent research studies that deal with (1) the application of the established "affective modulation of startle"-paradigm to the novel setting of attractiveness and human mating preferences, (2) the question of how different components of the startle response are affected by a physiological stressor and (3) how startle stimuli affect visual attention towards emotional stimuli. While the first two studies treat the startle response as a dependent variable by measuring its response magnitude, the third study uses startle stimuli as an experimental manipulation and investigates its potential effects on a behavioural measure. The first chapter of this thesis describes the basic mechanisms of the startle response as well as the body of research that sets the foundation of startle research in psychophysiology. It provides the rationale for the presented studies, and offers a short summary of the obtained results. Chapter two to four represent primary research articles that are published or in press. At the beginning of each chapter the contribution of all authors is explained. The references for all chapters are listed at the end of this thesis. The overall scope of this thesis is to show how the human startle response is modulated by a variety of factors, such as the attractiveness of a potential mating partner or the exposure to a stressor. In conclusion, the magnitude of the startle response can serve as a measure for such psychological states and processes. Beyond the involuntary, physiological startle reflex, startle stimuli also affect intentional behavioural responses, which we could demonstrate for eye movements in a visual attention paradigm.
Ziel der Studie war es, die Wirksamkeit zweier psychotherapeutischer Mikrointerventionen zur Emotionsregulation und zur progressiven Relaxation und die damit einhergehenden Veränderungen auf psychometrischer und elektrokortikaler Ebene zu untersuchen. Die Stichprobe bestand aus 65 klinischen Versuchspersonen der Warteliste der Poliklinischen Psychotherapieambulanz der Universität Trier. In einer EEG-Erhebung vor und nach den Mikrointerventionen wurden neben dem Ruhe-EEG ereigniskorrelierte Potentiale (EKPs) aufgezeichnet. Im EKP-Paradigma wurden die Probanden instruiert negativ-valente Bilder aus dem IAPS-System entweder anzuschauen oder die gezeigte Situation kognitiv zu einer weniger negativen Interpretation der Bilder umzudeuten. Nach der EEG-Aufzeichnung wurden die Probanden randomisiert einer standardisierten 90-minütigen psychotherapeutischen Intervention zum kognitiven Reframing bzw. zur progressiven Relaxation zugewiesen. Im Anschluss wurde die EEG-Erhebung mit dem Ruhe-EEG und dem EKP mit einem parallelisierten Pool negativ valenter Bilder erneut durchgeführt. Auf psychometrischer Ebene wurde u.a. der positive und negative Affekt mit dem PANAS im Verlauf der Untersuchung zu insgesamt vier Messzeitpunkten erfasst. Neben dem Alpha-Frequenzband des Ruhe-EEGs wurde bei den EKPs die P3 und das Späte Positive Potential (LPP) untersucht. Die Ergebnisse geben Hinweise darauf, dass die psychotherapeutischen Mikrointerventionen zu differentiellen Effekten auf psychometrischer und elektrokortikaler Ebene führten. Auf der psychometrischen Ebene zeigte sich bei den Teilnehmern der Entspannungsintervention direkt nach der Intervention eine Abnahme des negativen Affekts, während sich dies bei den Teilnehmern der Reframing-Intervention erst im Verlauf der zweiten EEG-Messung mit dem Umdeuten der negativ valenten Bilder zeigte. Auf der elektrokortikalen Ebene waren die Ergebnisse weniger einheitlich. Durch die Entspannungs-Intervention konnte im Verlauf der Untersuchung eine Zunahme der P3-Amplituden festgestellt werden, während die Reframing-Teilnehmer über die Messzeitpunkte eine Abnahme der P3-Amplituden aufwiesen. Dies könnte so interpretiert werden, dass durch das Erlernen des Reframings das emotionale Arousal reduziert werden konnte. Bei dem LPP waren hingegen keine differentiellen Effekte der Mikrointerventionen nachweisbar. Bei beiden Interventionen kam es zu einer Zunahme der LPP-Amplituden. Bei der Analyse der Alpha-Aktivität des Ruhe-EEGs wurde bei den Entspannungs-Teilnehmern im Vergleich zu den Reframing-Teilnehmern nach der Mikrointervention eine größere Alpha-Aktivität gefunden. Diese Unterschiede wurden am deutlichsten in der linken Hemisphäre sowie in den zentralen und parietalen Hirnregionen. Eine höhere Alpha-Aktivität geht mit einer niedrigeren kortikalen Aktivität einher, so dass man davon ausgehen kann, dass die Entspannungs-Teilnehmer diese Hirnregionen während der Intervention weniger ausgeprägt nutzten. Zusammenfassend geben die Befunde erste Hinweise auf eine differentielle Wirkung der beiden Mikrointerventionen.
Die in einem Einzugsgebiet herrschende räumliche Inhomogenität wird im Wasserhaushaltsmodell LARSIM (Large Area Runoff Simulation Modell) in den einzelnen Modellkomponenten unterschiedlich stark berücksichtigt. Insbesondere die räumliche Verteilung der Abflussprozesse wurde bisher nicht berücksichtigt, weil keine flächenhaft verfügbare Information über eben diese Verteilung vorlag. Für das Einzugsgebiet der Nahe liegt nun seit dem Jahr 2007 eine Bodenhydrologische Karte vor, die flächenhaft den bei ausreichenden Niederschlägen zu erwartenden Abflussprozess ausweist. In der vorliegenden Dissertation wird die Nutzung dieser Prozessinformation bei der Parametrisierung des Bodenmoduls von LARSIM beschrieben: Für drei Prozessgruppen " gesättigter Oberflächenabfluss, Abfluss im Boden, Tiefenversickerung " werden mittels zweier neuer Parameter P_Bilanz und P_Dämpfung inhomogene Parametersätze aus empirisch ermittelten Kennfeldern gewählt, um die Prozessinformation bei der Abflussbildung im Modell zu berücksichtigen. Für die Abbildung der Prozessintensitäten in den Gebietsspeichern werden zwei unterschiedliche Ansätze vorgestellt, die sich in ihrer Komplexität unterscheiden. In der ersten Variante werden fünf Oberflächenabflussspeicher für unterschiedlich schnell reagierende Prozessgruppen eingeführt, in der zweiten Variante wird der erste Ansatz mit dem ursprünglichen Schwellenwert zur Aufteilung in schnelle und langsame Oberflächenabflusskomponenten kombiniert. Es wird gezeigt, dass die Parametrisierung mit den beiden neuen Parametern P_Bilanz und P_Dämpfung einfacher, effektiver und effizienter ist, da beide Parameter minimale Interaktionen aufweisen und in ihrer Wirkungsweise leicht verständlich sind, was auf die ursprünglichen Bodenparameter nicht zutrifft. Es wird ein Arbeitsfluss vorgestellt, in dem die neuen Parameter in Kombination mit Signature Measures und unterschiedlichen Darstellungen der Abflussdauerlinie gemeinsam genutzt werden können, um in wenigen Arbeitsschritten eine Anpassung des Modells in neuen Einzugsgebieten vorzunehmen. Die Methode wurde durch Anwendung in drei Gebieten validiert. In den drei Gebieten konnte in wenigen Kalibrierungsschritten die Simulationsgüte der ursprünglichen Version erreicht und " je nach Zielsetzung " übertroffen werden. Hinsichtlich der Gütemaße zeigte sich bei der Variante, in der die Gebietsspeicher nicht modifiziert wurden, aber kein eindeutiges Bild, ob die ursprüngliche Parametrisierung oder die neue grundsätzlich überlegen ist. Neben der Auswertung der Validierungszeiträume wurden dabei auch die simulierten Ganglinien in geschachtelten Gebieten betrachtet. Die Version, in der die Gebietsspeicher modifiziert wurden, zeigt hingegen vor allem im Validierungszeitraum tendenziell bessere Simulationsergebnisse. Hinsichtlich der Abbildung der Abflussprozesse ist das neue Verfahren dem alten deutlich überlegen: Es resultiert in plausiblen Anteilen von Abflusskomponenten, deren Verteilung und Abhängigkeit von Speicherkapazitäten, Landnutzungen und Eingangsdaten systematisch ausgewertet wurden. Es zeigte sich, dass vor allem die Speicherkapazität des Bodens einen signifikanten Einfluss hat, der aber im hydrologischen Sinn richtig und hinsichtlich der Modellannahmen plausibel ist. Es wird deutlich gemacht, dass die Einschränkungen, die sich ergeben haben, aufgrund der Modellannahmen zustande kommen, und dass ohne die Änderung dieser Annahmen keine bessere Abbildung möglich ist. Für die Zukunft werden Möglichkeiten aufgezeigt, wie die Annahmen modifiziert werden können, um eine bessere Abbildung zu erzielen, indem der bereits bestehende Infiltrationsansatz in die Methode integriert wird.
Ausgangspunkt der vorliegenden Untersuchung sind die deutlichen Unterschiede in den Ukrainepolitiken Polens und Tschechiens. Das Erkenntnisinteresse ist, worauf diese Unterschiede im außenpolitischen Verhalten zweier Staaten, die in der Außenpolitikforschung meistens als Vertreter einer relativ homogenen Gruppe betrachtet werden, zurückzuführen sind. Die Studie geht auf Basis bisheriger konstruktivistischer Forschung zur polnischen Sicherheitspolitik von der Hypothese aus, dass dies mit kulturellen Faktoren zu tun hat, speziell der unterschiedlichen sicherheitspolitischen Bewertung der Ukraine und Osteuropas im Allgemeinen sowie unterschiedlichen ukrainepolitischen Rollenkonzeptionen, die sich hieraus ergeben. Die Fragestellung lautet daher, welche ukrainebezogenen, sicherheitspolitisch motivierten Rollenkonzeptionen sich in Polen und Tschechien nach 1989 herausgebildet haben.Zur Beantwortung dieser Fragestellung wird zunächst auf Grundlage der Forschung zur politischen und zur strategischen Kultur das Konzept der sicherheitspolitischen Kultur entwickelt und die Rollentheorie als bislang in der diesbezüglichen Forschung kaum rezipiertes Analyseinstrument vorgestellt, das aus mehreren Gründen Vorteile gegenüber anderen Ansätzen hat. Methodisch wird eine wissenssoziologische Diskursanalyse durchgeführt, die als Instrument zur Erfassung von sozial konstruierter Wirklichkeit dient, sich aufgrund derselben metatheoretischen Grundlagen hervorragend in das Modell sicherheitspolitischer Kultur einfügt und daher für eine Analyse der Entstehung von Rollenkonzeptionen geeignet ist. Die Untersuchung ergibt, dass in Polen die Bedrohungskonstruktion einer möglichen Wiederkehr des russischen Imperiums zentral ist und eine unabhängige, stabilisierte Ukraine als Schutz hiergegen aufgefasst wird. Die sich ergebenden ukrainepolitischen Rollenkonzeptionen sind Teil eines weitgehend konsensuellen Komplexes sicherheitspolitischer Rollenkonzeptionen, die abgesehen von rollenspezifischen sicherheitspolitischen Zielen auch zentral durch die Bedrohungskonstruktion der politischen Marginalisierung motiviert und daher häufig als Führungsrollen charakterisierbar sind. Tschechien zeichnet sich hingegen durch das weitgehende Fehlen einer Bedrohungskonstruktion des russischen Imperialismus aus, stattdessen wird die Ukraine stärker als Quelle von Gefahren konstruiert. Zudem ist die sicherheitspolitische Kultur Tschechiens von einer konzeptionellen Unterkomplexität, einem Mangel an Konsens, einer Konstruktion Tschechiens als machtloser Akteur sowie einer Unterordnung der Außenpolitik unter innenpolitische Fragen gekennzeichnet. Daher fehlen im tschechischen Falle nicht nur jegliche ukrainepolitische Rollenkonzeptionen, es ist grundsätzlich ein Mangel an klaren Vorstellungen darüber festzustellen, welche Rollen Tschechien in der internationalen Politik spielen soll.
In der modernen Survey-Statistik treten immer häufifiger Optimierungsprobleme auf, die es zu lösen gilt. Diese sind oft von hoher Dimension und Simulationsstudien erfordern das mehrmalige Lösen dieser Optimierungsprobleme. Um dies in angemessener Zeit durchführen zu können, sind spezielle Algorithmen und Lösungsansätze erforderlich, welche in dieser Arbeit entwickelt und untersucht werden. Bei den Optimierungsproblemen handelt es sich zum einen um Allokationsprobleme zur Bestimmung optimaler Teilstichprobenumfänge. Hierbei werden neben auf einem Nullstellenproblem basierende, stetige Lösungsmethoden auch ganzzahlige, auf der Greedy-Idee basierende Lösungsmethoden untersucht und die sich ergebenden Optimallösungen miteinander verglichen.Zum anderen beschäftigt sich diese Arbeit mit verschiedenen Kalibrierungsproblemen. Hierzu wird ein alternativer Lösungsansatz zu den bisher praktizierten Methoden vorgestellt. Dieser macht das Lösen eines nichtglatten Nullstellenproblemes erforderlich, was mittels desrnnichtglatten Newton Verfahrens erfolgt. Im Zusammenhang mit nichtglatten Optimierungsalgorithmen spielt die Schrittweitensteuerung eine große Rolle. Hierzu wird ein allgemeiner Ansatz zur nichtmonotonen Schrittweitensteuerung bei Bouligand-differenzierbaren Funktionen betrachtet. Neben der klassischen Kalibrierung wird ferner ein Kalibrierungsproblem zur kohärenten Small Area Schätzung unter relaxierten Nebenbedingungen und zusätzlicher Beschränkung der Variation der Designgewichte betrachtet. Dieses Problem lässt sich in ein hochdimensionales quadratisches Optimierungsproblem umwandeln, welches die Verwendung von Lösern für dünn besetzte Optimierungsprobleme erfordert.Die in dieser Arbeit betrachteten numerischen Probleme können beispielsweise bei Zensen auftreten. In diesem Zusammenhang werden die vorgestellten Ansätze abschließend in Simulationsstudien auf eine mögliche Anwendung auf den Zensus 2011 untersucht, die im Rahmen des Zensus-Stichprobenforschungsprojektes untersucht wurden.
In this thesis, global surrogate models for responses of expensive simulations are investigated. Computational fluid dynamics (CFD) have become an indispensable tool in the aircraft industry. But simulations of realistic aircraft configurations remain challenging and computationally expensive despite the sustained advances in computing power. With the demand for numerous simulations to describe the behavior of an output quantity over a design space, the need for surrogate models arises. They are easy to evaluate and approximate quantities of interest of a computer code. Only a few number of evaluations of the simulation are stored for determining the behavior of the response over a whole range of the input parameter domain. The Kriging method is capable of interpolating highly nonlinear, deterministic functions based on scattered datasets. Using correlation functions, distinct sensitivities of the response with respect to the input parameters can be considered automatically. Kriging can be extended to incorporate not only evaluations of the simulation, but also gradient information, which is called gradient-enhanced Kriging. Adaptive sampling strategies can generate more efficient surrogate models. Contrary to traditional one-stage approaches, the surrogate model is built step-by-step. In every stage of an adaptive process, the current surrogate is assessed in order to determine new sample locations, where the response is evaluated and the new samples are added to the existing set of samples. In this way, the sampling strategy learns about the behavior of the response and a problem-specific design is generated. Critical regions of the input parameter space are identified automatically and sampled more densely for reproducing the response's behavior correctly. The number of required expensive simulations is decreased considerably. All these approaches treat the response itself more or less as an unknown output of a black-box. A new approach is motivated by the assumption that for a predefined problem class, the behavior of the response is not arbitrary, but rather related to other instances of the mutual problem class. In CFD, for example, responses of aerodynamic coefficients share structural similarities for different airfoil geometries. The goal is to identify the similarities in a database of responses via principal component analysis and to use them for a generic surrogate model. Characteristic structures of the problem class can be used for increasing the approximation quality in new test cases. Traditional approaches still require a large number of response evaluations, in order to achieve a globally high approximation quality. Validating the generic surrogate model for industrial relevant test cases shows that they generate efficient surrogates, which are more accurate than common interpolations. Thus practical, i.e. affordable surrogates are possible already for moderate sample sizes. So far, interpolation problems were regarded as separate problems. The new approach uses the structural similarities of a mutual problem class innovatively for surrogate modeling. Concepts from response surface methods, variable-fidelity modeling, design of experiments, image registration and statistical shape analysis are connected in an interdisciplinary way. Generic surrogate modeling is not restricted to aerodynamic simulation. It can be applied, whenever expensive simulations can be assigned to a larger problem class, in which structural similarities are expected.
Im querschnittlichen Vergleich zwischen 10- bis 18-jährigen Mädchen mit Major Depression und gleichaltrigen gesunden Probandinnen wiesen die depressiven Mädchen mehr Probleme, mehr körperliche und psychische Stresssymptome, erhöhte Cortisolsekretion sowie eine ungünstigere Stressverarbeitung auf. Im Längsschnitt zeigte sich die Bedeutsamkeit von psychischer Stressbelastung und der Einfluss von Bewältigungsstrategien auf den Verlauf der Depression.
Im Leistungssport ist ein gesunder Körper die Hauptvoraussetzung für das Erbringen sportlicher Höchstleistungen. Allerdings müssen Leistungssportler tagtäglich in Training und Wettkampf gesundheitliche Risiken eingehen. Aus diesem Dilemma wird ein Trilemma, sobald es sich um jugendliche Leistungssportler handelt, da das Jugendalter mit all den Veränderungen auf psychischer, physischer und sozialer Ebene, die es mit sich bringt, häufig das Einstiegsalter für gesundheitsrelevante Risikoverhaltensweisen wie den Konsum von Alkohol, Tabak und Marihuana bildet. Diese können zusätzlich Auswirkungen auf die Gesundheit und damit das Erbringen sportlicher Leistung haben. Aus diesem Grund war es das Ziel dieser Dissertation, das gesundheitsrelevante Risikoverhalten und die subjektive Gesundheit in der speziellen Gruppe jugendlicher Leistungssportler zu untersuchen, mit einer jugendlicher Referenzstichprobe bestehend aus Nicht-Leistungssportlern zu vergleichen und assoziierte Determinanten - sowohl individueller als auch kontextueller Natur - zu identifizieren. Dazu wurden im Rahmen der GOAL Study (German Young Olympic Athletes" Lifestyle and Health Management Study) 1.138 jugendliche Leistungssportler aller olympischer Disziplinen schriftlich befragt. Ausgewertet wurden neben der subjektiven Gesundheit der Konsum von Alkohol, Tabak und Marihuana, das Ernährungsverhalten und die Nutzung von Nahrungsergänzungsmitteln. Als Vergleichspopulation wurde der KiGGS (Kinder- und Jugendgesundheitssurvey) des Robert Koch-Instituts herangezogen. Es zeigte sich, dass jugendliche Leistungssportler zwar selten rauchten (3%) oder Marihuana konsumierten (3%), aber dass sie durchaus Alkohol zu sich nahmen (86%) und insbesondere Binge Drinking betrieben (24%). Bezüglich des Rauchverhaltens, des Konsums von Marihuana und des Jemalskonsums von Alkohol zeigten sie jedoch niedrigere Prävalenzen als jugendliche Nicht-Leistungssportler. Bei der Ernährung der Athleten ergaben sich teilweise Defizite. Lediglich 52% der Athleten nahmen täglich eine Auswahl an vitamin- und ballaststoffreichen Nahrungsmitteln zu sich, jedoch waren dies mehr als in der Referenzpopulation. Neun von zehn Athleten nutzten Nahrungsergänzungsmittel, davon konsumierten rund 30% täglich Supplemente. Die Mehrheit der Athleten bezeichnete ihre Gesundheit als gut oder sehr gut (89%), was einem größeren Anteil entspricht als in der Referenzgruppe (86%). Es fanden sich eine Vielzahl an individuellen und kontextuellen Determinanten mit den einzelnen Risikoverhaltensweisen und der subjektiven Gesundheit verknüpft. Insgesamt lässt sich festhalten, dass Beratung und Aufklärung bezüglich der einzelnen Risikoverhaltensweisen immens wichtig erscheinen. Beispiele für bestehenden Aufklärungsbedarf sind der übermäßige Alkoholkonsum, welcher Auswirkungen auf die Leistungsfähigkeit haben kann, die Einnahme von Nahrungsergänzungsmitteln wie Kreatin, welche für Jugendliche nicht unbedenklich ist, und der häufig vorliegende nicht-tägliche Konsum von vitamin- und ballaststoffreichen Lebensmitteln, welcher wichtig für eine adäquate Ernährung ist. Daher sollten bereits Athleten in niedrigeren Kaderstufen Experten (z. B. Ernährungsberater) zur Seite gestellt werden. Aber nicht nur die Athleten sollten besser geschult werden sondern auch deren Trainer, Betreuer und Eltern, die allesamt wichtige Bezugspersonen darstellen.
Bei synthetischen Simulationsgesamtheiten handelt es sich um künstlichernDaten, die zur Nachbildung von realen Phänomenen in Simulationen verwendetrnwerden. In der vorliegenden Arbeit werden Anforderungen und Methoden zur Erzeugung dieser Daten vorgestellt. Anhand von drei Beispielen wird gezeigt, wie erzeugte synthetische Daten in einer Simulation zur Anwendung kommen.
In der Forschung zur aktuellen Prozessdynamik der Bodenerosion sind Niederschlagssimulationen mit kleinen mobilen Beregnungsanlagen (KBA) ein unverzichtbarer Bestandteil. Weltweit werden sehr viele KBA unterschiedlicher Bauart, Plotgrößen, Tropfenerzeugung, Niederschlagsintensitäten, und -spektren eingesetzt. Eine Standardisierung der Anlagen ist aufgrund der Verschiedenheit der Forschungsfelder und -fragen nicht in Sicht. Darüber hinaus sind die erzeugten Niederschläge (Nd) der Anlagen unzureichend genau charakterisiert und es liegt keine einheitliche Datenbasis aller relevanten Parameter vor. Zudem werden mit KBA bisher ausschließlich Starkregen unter windstillen Bedingungen simuliert, obwohl Wind einen deutlichen Einfluss auf fallende Regentropfen ausübt. Die vorliegende Arbeit gliedert sich in drei Teile: (1) Weiterentwicklung und Anwendung von KBA: Wie lässt sich die Performance der Trierer KBA optimieren und eine einheitliche Mess- und Kalibrierungsmethode für den simulierten Niederschlag definieren? Welche Anforderungen, Möglichkeiten, Grenzen und Anwendungsbereiche gibt es? (2) Vergleich verschiedener Typen von KBA im Gelände: Inwieweit sind Nd-Charakteristika, Oberflächen-¬abflussgenerierungen und Bodenabträge europäischer KBA vergleichbar? (3) Implemen-¬tierung von windbeschleunigtem Regen in KBA mit dem neuen mobilen Trierer Windregenkanal (WiReKa): Wie kann Wind in ein KBA-Setting integriert werden? Wie sind Unterschiede von Erosionsraten mit und ohne Windeinfluss in-situ zu quantifizieren und wie hoch fallen sie aus? Im ersten Teil der Arbeit wurde zunächst die Nd-Charakteristik der langjährig von der Physischen Geographie eingesetzten KBA mit unterschiedlichen, weltweit angewandten Messmethoden untersucht. Dabei zeigten sich einige Schwächen der KBA bezüglich ihrer Funktionalität. Der Einsatz verschiedener Mess-¬methoden zur Charakterisierung des künstlich erzeugten Nd führte zu sehr unterschiedlichen Ergebnissen. Mittels Laser-Niederschlags-Monitor (LNM) und Nd-Sammlern wurde daher ein einheitliches Testverfahren entwickelt, das eine detaillierte Aufnahme, Auswertung und Darstellung der relevanten Nd-Parameter nahezu aller KBA-Designs ermöglicht. Mit Hilfe dieses Testverfahrens wurden Nd-Charakteristik, Funktionalität und Mobilität der Trierer KBA durch technische Veränderungen deutlich verbessert. Alle Parameter dieser Anlage sind nun bekannt und lassen sich zuverlässig reproduzieren. Die Anforderungen, Möglichkeiten und Grenzen des Einsatzes von KBA wurden detailliert erarbeitet und beschrieben. Auf dem "International Rainfall Simulator Workshop" in Trier konnte mit 40 Wissenschaftlern aus 11 Nationen Einigkeit über grundlegende Aspekte beim Bau und Einsatz von KBA erzielt werden. Der zweite Teil der Arbeit stellt die Arbeitsmethoden und Ergebnisse eines in internationaler Kooperation durchgeführten Projektes zu Messmethoden und Vergleichbarkeit von Simulatordesigns und Nd-Charakteristika unterschiedlicher europäischer KBA vor. An 13 Instituten in Deutschland, den Niederlanden, der Schweiz und Spanien wurde mit dem Trierer Testverfahren eine einheitliche Datenbasis aller wesentlichen Nd-Parameter erstellt. Im praktischen Teil des Rainfall Simulator Workshop in Trier wurden dann vergleichende Versuche mit sieben KBA auf einer universitätsnahen Versuchsfläche zur Oberflächenabflussgenerierung und zum Bodenabtrag durchgeführt. Vor allem die (maximale) Sedimentkonzentration einer Simulation hat sich dabei als gute Vergleichsgröße herausgestellt. Differenzen in den gemessenen Oberflachenabfluss- und Sedimentmengen sind ganz klar unterschiedlichen Nd zuzuordnen. Der zeitliche Ablauf des Oberflächenabfluss- und Erosionsverhalten differiert dagegen nur bei zunehmender Plotgröße. Im dritten Teil der Arbeit wird analysiert, wie windbeschleunigter Regen in einer KBA simuliert werden kann. Darüber hinaus wurde eine spezielle Testreihenfolge für die Erosionsmessungen entwickelt, deren Praktikabilität sich in der Anwendung bewährt hat. Es konnten stark erhöhte Abtragsraten aufgrund der Zuschaltung von Wind zu der Regensimulation auf kohäsionslosem sandigen Substrat quantifiziert werden. Das Dissertationsprojekt kann auf mehreren Ebenen als erfolgreich angesehen werden: Die Arbeit mit den Trierer KBA konnte qualitativ verbessert werden insofern, als die Anlagenparameter optimiert und die Güte der produzierten Daten gewährleistet werden konnte. Darüber hinaus konnten die gewonnenen Erkenntnisse durch eine gezielte internationale Vernetzung in Wert gesetzt und die Zusammenarbeit auf der operationalen Ebene gestärkt werden.
Krylov subspace methods are often used to solve large-scale linear equations arising from optimization problems involving partial differential equations (PDEs). Appropriate preconditioning is vital for designing efficient iterative solvers of this type. This research consists of two parts. In the first part, we compare two different kinds of preconditioners for a conjugate gradient (CG) solver attacking one partial integro-differential equation (PIDE) in finance, both theoretically and numerically. An analysis on mesh independence and rate of convergence of the CG solver is included. The knowledge of preconditioning the PIDE is applied to a relevant optimization problem. The second part aims at developing a new preconditioning technique by embedding reduced order models of nonlinear PDEs, which are generated by proper orthogonal decomposition (POD), into deflated Krylov subspace algorithms in solving corresponding optimization problems. Numerical results are reported for a series of test problems.
Rinnen werden als effektive Sedimentquellen und als Transportwege für große Sedimentmengen angesehen, zusätzlich agieren sie als bevorzugte Fließwege für den Oberflächenabfluss. Sie können sich zu irreversiblen Formen (Gullys) weiterentwickeln. Trotz Fortschritten in der Modellierung bleibt insbesondere die Modellierung von Rinnenerosion schwierig. Daher ist es wichtig, experimentelle Daten aus Geländeversuchen zu erheben, um das Prozesswissen zu verbessern und bessere Modelle zu entwickeln. In den Experimenten sollte eine standardisierte Methode verwendet werden, um eine gewisse Vergleichbarkeit der Ergebnisse zwischen unterschiedlichen Testgebieten zu gewährleisten. Die meisten Experimente zur Rinnenerosion, die unter Labor- oder Geländebedingungen durchgeführt wurden, verwendeten Substrate mit unterschiedlichen Korngrößen und natürlichen oder simulierten Niederschlag. Ziel war meist die Entstehung von Rinnennetzwerken zu beobachten, Startbedingungen für Rinnenbildung zu definieren, die Entwicklung der Rinnenmorphologie zu untersuchen, die wichtigsten hydraulischen Parameter wie Fließquerschnitt, benetzten Umfang, hydraulischen Radius, mittlere Fließgeschwindigkeit und shear stress abzuschätzen oder mathematische Modelle zu kreieren, um den Bodenabtrag durch Rinnenerosion abschätzen zu können. Aber es fehlen Untersuchungen zum Verhalten von existierenden Rinnen, natürlichen oder anthropogen entwickelten, unter Geländebedingungen. Um diese Lücke zu schließen wurde eine reproduzierbare Versuchsanordnung entworfen und in verschiedenen Rinnen angewendet um folgende Fragen zu beantworten: Wie hoch ist der Anteil der Rinnenerosion am Bodenabtrag? 2) Wie effektiv sind Rinnen beim Transport von Wasser und Sediment durch ihr Einzugsgebiet? In prozess-basierten Modellen werden verschiedene Prozesse durch mathematische Gleichungen beschrieben. Die Grundlage dieser Formeln ist meist ein hydraulischer Parameter, der in Verbindung zum Abtrag gebracht wird. Der am häufigsten verwendete Parameter ist der shear stress, von dem angenommen wird, dass er ein lineares Verhältnis zu Erosionsparametern wie detachment rate, detachment capacity oder Sedimentkonzentration aufweist. Aus dem shear stress lassen sich weitere Parameter wie unit length shear force oder verschiedene Varianten der stream power berechnen. Die verwendeten Erosions- und hydraulischen Parameter ändern sich je nach Forschergruppe. Eine weitere Modellannahme ist, dass die transport rate die trasnport capacity nicht übersteigen kann. Wenn das transport rate vs. transport capacity - Verhältnis 1 übersteigt, verringern Sedimentationsprozesse die Rate bis die transport capacity wieder erreicht ist. Wir untersuchten in Geländeversuchen die folgenden Annahmen: 1) Ist das Verhältnis zwischen transport rate und transport capacity immer kleiner 1? 2) Besteht die lineare Beziehung zwischen verschiedenen hydraulischen Parametern und Bodenabrtagsparametern? 3)Verursachen die selben hydraulischen Parameter, die in verschiedenen Versuchen aufgenommen wurden, auch immer die selben Erosionsparameter?