Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (844) (entfernen)
Sprache
- Deutsch (492)
- Englisch (341)
- Mehrsprachig (7)
- Französisch (4)
Volltext vorhanden
- ja (844) (entfernen)
Schlagworte
- Stress (37)
- Deutschland (33)
- Modellierung (19)
- Optimierung (18)
- Fernerkundung (17)
- Hydrocortison (16)
- stress (15)
- Motivation (12)
- Stressreaktion (12)
- cortisol (12)
Institut
- Psychologie (181)
- Raum- und Umweltwissenschaften (147)
- Mathematik (62)
- Wirtschaftswissenschaften (61)
- Fachbereich 4 (60)
- Fachbereich 1 (31)
- Geschichte, mittlere und neuere (28)
- Germanistik (26)
- Informatik (26)
- Kunstgeschichte (22)
- Politikwissenschaft (18)
- Anglistik (17)
- Soziologie (16)
- Fachbereich 2 (14)
- Fachbereich 6 (14)
- Fachbereich 3 (9)
- Philosophie (9)
- Romanistik (9)
- Computerlinguistik und Digital Humanities (7)
- Medienwissenschaft (6)
- Geschichte, alte (5)
- Allgemeine Sprach- und Literaturwissenschaft (4)
- Fachbereich 5 (4)
- Klassische Philologie (4)
- Pädagogik (4)
- Ethnologie (3)
- Japanologie (3)
- Sinologie (3)
- Archäologie (2)
- Rechtswissenschaft (2)
- Phonetik (1)
- Slavistik (1)
- Universitätsbibliothek (1)
Energy transport networks are one of the most important infrastructures for the planned energy transition. They form the interface between energy producers and consumers and their features make them good candidates for the tools that mathematical optimization can offer. Nevertheless, the operation of energy networks comes with two major challenges. First, the nonconvexity of the equations that model the physics in the network render the resulting problems extremely hard to solve for large-scale networks. Second, the uncertainty associated to the behavior of the different agents involved, the production of energy, and the consumption of energy make the resulting problems hard to solve if a representative description of uncertainty is to be considered.
In this cumulative dissertation we study adaptive refinement algorithms designed to cope with the nonconvexity and stochasticity of equations arising in energy networks. Adaptive refinement algorithms approximate the original problem by sequentially refining the model of a simpler optimization problem. More specifically, in this thesis, the focus of the adaptive algorithm is on adapting the discretization and description of a set of constraints.
In the first part of this thesis, we propose a generalization of the different adaptive refinement ideas that we study. We sequentially describe model catalogs, error measures, marking strategies, and switching strategies that are used to set up the adaptive refinement algorithm. Afterward, the effect of the adaptive refinement algorithm on two energy network applications is studied. The first application treats the stationary operation of district heating networks. Here, the strength of adaptive refinement algorithms for approximating the ordinary differential equation that describes the transport of energy is highlighted. We introduce the resulting nonlinear problem, consider network expansion, and obtain realistic controls by applying the adaptive refinement algorithm. The second application concerns quantile-constrained optimization problems and highlights the ability of the adaptive refinement algorithm to cope with large scenario sets via clustering. We introduce the resulting mixed-integer linear problem, discuss generic solution techniques, make the link with the generalized framework, and measure the impact of the proposed solution techniques.
The second part of this thesis assembles the papers that inspired the contents of the first part of this thesis. Hence, they describe in detail the topics that are covered and will be referenced throughout the first part.
Bei der Preisberechnung von Finanzderivaten bieten sogenannte Jump-diffusion-Modelle mit lokaler Volatilität viele Vorteile. Aus mathematischer Sicht jedoch sind sie sehr aufwendig, da die zugehörigen Modellpreise mittels einer partiellen Integro-Differentialgleichung (PIDG) berechnet werden. Wir beschäftigen uns mit der Kalibrierung der Parameter eines solchen Modells. In einem kleinste-Quadrate-Ansatz werden hierzu Marktpreise von europäischen Standardoptionen mit den Modellpreisen verglichen, was zu einem Problem optimaler Steuerung führt. Ein wesentlicher Teil dieser Arbeit beschäftigt sich mit der Lösung der PIDG aus theoretischer und vor allem aus numerischer Sicht. Die durch ein implizites Zeitdiskretisierungsverfahren entstandenen, dicht besetzten Gleichungssysteme werden mit einem präkonditionierten GMRES-Verfahren gelöst, was zu beinahe linearem Aufwand bezüglich Orts- und Zeitdiskretisierung führt. Trotz dieser effizienten Lösungsmethode sind Funktionsauswertungen der kleinste-Quadrate-Zielfunktion immer noch teuer, so dass im Hauptteil der Arbeit Modelle reduzierter Ordnung basierend auf Proper Orthogonal Decomposition Anwendung finden. Lokale a priori Fehlerabschätzungen für die reduzierte Differentialgleichung sowie für die reduzierte Zielfunktion, kombiniert mit einem Trust-Region-Ansatz zur Globalisierung liefern einen effizienten Algorithmus, der die Rechenzeit deutlich verkürzt. Das Hauptresultat der Arbeit ist ein Konvergenzbeweis für diesen Algorithmus für eine weite Klasse von Optimierungsproblemen, in die auch das betrachtete Kalibrierungsproblem fällt.
Water-deficit stress, usually shortened to water- or drought stress, is one of the most critical abiotic stressors limiting plant growth, crop yield and quality concerning food production. Today, agriculture consumes about 80-90% of the global freshwater used by humans and about two thirds are used for crop irrigation. An increasing world population and a predicted rise of 1.0-2.5-°C in the annual mean global temperature as a result of climate change will further increase the demand of water in agriculture. Therefore, one of the most challenging tasks of our generation is to reduce the amount water used per unit yield to satisfy the second UN Sustainable Development Goal and to ensure global food security. Precision agriculture offers new farming methods with the goal to improve the efficiency of crop production by a sustainable use of resources. Plant responses to water stress are complex and co-occur with other environmental stresses under natural conditions. In general, water stress causes plant physiological and biochemical changes that depend on the severity and the duration of the actual plant water deficit. Stomatal closure is one of the first responses to plant water stress causing a decrease in plant transpiration and thus an increase in plant temperature. Prolonged or severe water stress leads to irreversible damage to the photosynthetic machinery and is associated with decreasing chlorophyll content and leaf structural changes (e.g., leaf rolling). Since a crop can already be irreversibly damaged by only mild water deficit, a pre-visual detection of water stress symptoms is essential to avoid yield loss. Remote sensing offers a non-destructive and spatio-temporal method for measuring numerous physiological, biochemical and structural crop characteristics at different scales and thus is one of the key technologies used in precision agriculture. With respect to the detection of plant responses to water stress, the current state-of-the-art hyperspectral remote sensing imaging techniques are based on measurements of thermal infrared emission (TIR; 8-14 -µm), visible, near- and shortwave infrared reflectance (VNIR/SWIR; 0.4-2.5 -µm), and sun-induced fluorescence (SIF; 0.69 and 0.76 -µm). It is, however, still unclear how sensitive these techniques are with respect to water stress detection. Therefore, the overall aim of this dissertation was to provide a comparative assessment of remotely sensed measures from the TIR, SIF, and VNIR/SWIR domains for their ability to detect plant responses to water stress at ground- and airborne level. The main findings of this thesis are: (i) temperature-based indices (e.g., CWSI) were most sensitive for the detection of plant water stress in comparison to reflectance-based VNIR/SWIR indices (e.g., PRI) and SIF at both, ground- and airborne level, (ii) for the first time, spectral emissivity as measured by the new hyperspectral TIR instrument could be used to detect plant water stress at ground level. Based on these findings it can be stated that hyperspectral TIR remote sensing offers great potential for the detection of plant responses to water stress at ground- and airborne level based on both TIR key variables, surface temperature and spectral emissivity. However, the large-scale application of water stress detection based on hyperspectral TIR measures in precision agriculture will be challenged by several problems: (i) missing thresholds of temperature-based indices (e.g., CWSI) for the application in irrigation scheduling, (ii) lack of current TIR satellite missions with suitable spectral and spatial resolution, (iii) lack of appropriate data processing schemes (including atmosphere correction and temperature emissivity separation) for hyperspectral TIR remote sensing at airborne- and satellite level.
Death is perceived as a severe threat to the self. Although it is certain that everyone has to die, people usually don't think about the finiteness of their life. Everything reminding of death is ignored, rationalized and death-related thoughts and fears are pushed out of mind (TMT; Pyszczynski et al., 1999). However, people differ in their ability to regulate negative affect and to access their self-system (Kuhl, 2001). As death is assumed to arouse existential fears, the ability to regulate such fears is particularly important, higher self-access could be relevant in defending central personal values. This thesis aimed at showing existential fears under mortality salience and effects of self-regulation of affect under mortality salience. In two studies (Chapter 2) implicit negative affect under mortality salience was demonstrated. An additional study (Chapter 3) shows the effects of self-regulation on implicit negative affect, whereas four studies in Chapter 4 displayed differences in self-access under mortality salience depending on people- ability of self-regulating negative affect.
Im Rahmen dieser Arbeit wurde die agrarklimatische und phänologische Situation in der zweiten Hälfte des vergangenen 20. Jahrhunderts für das Mittlere Moseltal am Beispiel der Moselregion im Umfeld der Stadt Bernkastel-Kues ausgewertet. Es konnten erhebliche klimatische und phänologische Veränderungen festgestellt und deren Auswirkungen auf den regionsprägenden Weinbau aufgezeigt werden. Der zeitliche Verlauf der Jahresmittel der Lufttemperatur zeigt eine deutliche Zweiteilung der Entwicklung in den Jahren 1945 bis 2000. Eine Abnahme (- 0.7 K) in der ersten Hälfte und eine deutliche Zunahme (+1.1 K) in der zweiten Hälfte der Zeitreihe. Einen vergleichbaren Verlauf zeigen die Jahresmittel der Tagestemperaturmaxima und -minima. Eine erhebliche Erwärmung lässt sich im April und Mai, August und Oktober und Januar und Dezember beobachten. Die geringsten Veränderungen zeigen Februar, Juli und November. Die Jahresniederschläge lassen keinen Trend im Gesamtabschnitt erkennen. Saisonale Verschiebungen weisen jedoch auf Änderungen in der Niederschlagscharakteristik hin. Die niederschlagsreichste Zeit im Jahr hat sich vom August auf Juni/Juli verschoben (starke Abnahme im August) und der regenärmste Monat vom März auf den Februar. Zunahmen zeigen v. a. September und Oktober. Die Jahressummen der Sonnen-scheindauer zeigen einen starken Rückgang in den Jahren 1945 bis 1981 und eine Trendumkehr in den Jahren bis 2000. Insbesondere der Monat August weist eine starke Zunahme der Sonnenscheindauer auf. Der mittlere jährliche Wachstumsverlauf der Weinrebe beginnt Anfang/Mitte April. Austrieb und Ergrünen folgen bis Mitte Mai. Die Rebe blüht im Durchschnitt zwischen dem 21.6. und 26.6. Mitte Juli sind die Beeren erbsengroß. Das Beerenwachstum und die Fruchtreife dauern in der Regel bis Anfang Oktober. Die Herbsttermine Laubfärbung und Laubfall finden zwischen Mitte Oktober und Anfang November statt. Alle in Bernkastel beobachteten phänologischen Merkmale zeigen eine Vorverlagerung der Eintrittstermine zwischen -6 Tagen und -15 Tagen in den Jahren 1967 bis 2001. Die Beerenentwicklung bzw. Reifephase im Sommer und Frühherbst verlängert sich um rund 10 Tage. Die wärmer gewordenen Monate März und April (geringere Spätfrostgefahr) äußern sich anhand eines früheren Vegetationsbeginns der Rebe. Die wärmeren, trockeneren und sonnenscheinreicheren Monate Mai und Juni führen zu einer erheblichen Vorverlagerung des Blühtermins und zu einer günstigen Verschiebung der Fruchtentwicklungs- und Reifephasen in den trockeneren, wärmeren und strahlungsreicheren Hochsommer. Die optimale Ausreife der Trauben im September und Oktober wird einerseits durch eine Temperaturzunahme gefördert, anderseits durch höhere Niederschlagswerte verzögert oder behindert. Die phänologischen Termine Knospung, Austriebs, Blüte und Reifegrad eignen sich somit hervorra-gend als Indikator für die Veränderung der klimatischen Bedingungen im Jahresverlauf. Ein starker Zusammenhang zwischen den Terminen des Blühbeginns der Rebe mit den Temperaturfaktoren und zwischen dem Reifegrad 60 -°Oe und kumulierten Temperatursummen bzw. den Sonnenscheindauern zwischen Mai und August ist ein weiterer Beleg für die stattgefundenen klimatischen Veränderungen im Mittleren Moseltal besonders in den Monaten März bis Juni und August und Oktober.
Das übergeordnete Ziel dieser Dissertation ist die Untersuchung der aktuellen Geomorphodynamik in den Gullyeinzugsgebieten der Souss-Ebene, Südmarokko. Eine Sonderstellung nehmen besonders in der Taroudant-Region die durch land-levelling Maßnahmen beeinflussten Flächen ein. Anhand von experimentellen Feldmethoden werden verschiedene Prozesse der Bodenerosion aufgenommen und bewertet. Mittels Luftbildmonitoring mit einer Drohne erfolgt eine Analyse des Gullywachstums. Durch eine Zusammenführung der Methodenkombination kann ein Gesamtbild der aktuellen geomorphologischen Prozessdynamik im Souss erstellt werden. Mit Zerfall der Zuckerindustrie Ende des 17. Jahrhunderts setzt im Souss Becken aufgrund der nahezu vollständigen Abholzung der Arganwälder die lineare Bodenerosion ein. Mit der Transformation von traditioneller Landwirtschaft zu modernen Zitrusfrucht- und Gemüseplantagen, beginnt Anfang der 1960er Jahre ein sehr dynamischer Landnutzungswandel. Die Expansion der Anbauflächen, die von Wadi- und Gullysystemen tief zerschnittenen sind, wird durch Planierungsmaßnahmen vorangetrieben. Auf den planierten Flächen entwickeln sich durch die Verdichtung des Bodens, das Entfernen von Vegetationsbedeckung sowie Krustenbildung auf dem schluffig-lehmigen Substrat bei Starkniederschlagsereignissen zumeist erneut Gullys. Die rasche lineare Zerschneidung bedroht weitere Anbauflächen. Eine nachhaltige Entwicklung auf diesen Flächen ist daher fraglich. Durch starke Verschlämmung nach Niederschlägen bilden sich auf den planierten Flächen sehr schnell physikalische Bodenkrusten aus. Ihre Mikromorphologie ist aufgrund der Belastungen mit schwerem Gerät sowie mehrfacher Erosions- und Akkumulationszyklen durch Plattenstruktur und Vesikel geprägt, wodurch die Infiltrationskapazität des Bodens verringert wird. Diese Auswirkungen können durch Messungen mit dem Einringinfiltrometer bestätigt werden. Sie zeigen auf ungestörten Flächen durchschnittlich eine 2,6-fach höhere Infiltrationsrate als auf planierten Flächen. Durch eine Inventarisierung der Bodeneigenschaften und Oberflächencharakteristika kann ihre signifikante Veränderung nach Planierungsmaßnahmen identifiziert werden. So zeigen planierte Flächen hohe Anteile an Bodenverkrustung und wenig Vegetationsbedeckung auf. Ungestörte Flächen sind dagegen weniger verkrustet und stärker mit Vegetation bedeckt. Zudem kann eine Kompaktion der oberen Bodenschicht nachgewiesen werden. Diese Faktoren wirken auf die Oberflächenabflussbildung und den Sedimentabtrag ein. Die Ergebnisse von 122 Niederschlagssimulationen mit einer Kleinberegnungsanlage zeigen einen signifikanten Anstieg der mittleren Oberflächenabflüsse und Sedimentfrachten (1,4-, bzw. 3,5-mal höher) auf planierten im Gegensatz zu ungestörten Testflächen. Mithilfe des Gullymonitorings wird die Entwicklung eines kompletten Gullys durch Starkniederschlagsereignisse auf einer planierten Fläche detektiert. Dabei wird in einem 3,5 ha großen Einzugsgebiet etwa 1080 t Bodenmaterial erodiert. Hier wurde errechnet, dass Gullyerosion für 91 % des gesamten Bodenverlustes im Einzugsgebiet verantwortlich ist. Die Fläche dient nur als Lieferant des Erosionsagens Wasser. Das Verfüllen des ursprünglichen Gullysystems mit Material der umliegenden Hänge führt zu einer Erniedrigung der Geländehöhe von durchschnittlich über 5 cm. Auf ungestörten Flächen wird dagegen nur ein geringes Gullywachstum verzeichnet. Die vorgestellte Methodenkombination lässt eine gezielte Beschreibung der aktuellen Geomorphodynamik in den Einzugsgebieten der Souss-Ebene zu. Durch die land-levelling Maßnahmen wird die Prozessdynamik signifikant erhöht. Eine Verminderung der Vegetationsbedeckung, schnelle Krustenbildung sowie Bodenkompaktion unterstützen hohe Oberflächenabflussbildung und Sedimentabtrag. Durch lineare Konzentration des Abflusses wird rapide Gullyerosion gefördert. Ganze Gullysysteme können sich auf Planierungsflächen durch nur ein einziges Starkniederschlagsereignis ausbilden. Dadurch sind Anbauflächen, Gebäude und Infrastruktur gefährdet.
Algorithmen als Richter
(2022)
Die menschliche Entscheidungsgewalt wird durch algorithmische
Entscheidungssysteme herausgefordert. Verfassungsrechtlich besonders
problematisch ist dies in Bereichen, die das staatliche Handeln betreffen.
Eine herausgehobene Stellung nimmt durch den besonderen Schutz der
Art. 92 ff. GG die rechtsprechende Gewalt ein. Lydia Wolff fragt daher danach, welche Antworten das Grundgesetz auf digitale Veränderungen in diesem Bereich bereithält und wie sich ein Eigenwert menschlicher Entscheidungen in der Rechtsprechung angesichts technischen Wandels darstellen lässt.
Das Werk erörtert hierzu einen Beitrag zum verfassungsrechtlichen
Richterbegriff und stellt diesen etablierten Begriff in einen Kontext neuer digitaler Herausforderungen durch algorithmische Konkurrenz.
Ziel der vorliegenden Dissertation war es, in einem gesamtspektralen Porträt als Momentaufnahme darzustellen, welche Themen in den japanischen allgemeinen Tageszeitungen wie strukturiert dargestellt werden und in welcher gestalterischen Form dies geschieht. Anhand einer umfassenden Stichtagssammlung galt es dabei vornehmlich, Antworten auf die Fragen zu finden, ob Unterschiede in der Themenwahl und deren gestalterischer Darstellung auszumachen sind, und welche Grundmuster vorherrschen. Vor allem bezüglich der formalen Gestaltung musste einer Diskussion der bislang nur unzureichend erarbeiteten Grundlagen der japanischen Layout-Theorie gebührender Platz eingeräumt werden. Am Soll-Zustand des Mediums wurde dann im Zuge der genannten Fragestellung mittels einer Kombination von Formstruktur- und Themen- bzw. Themensenquenzanalyse der Stichtagssammlung der Ist-Zustand gemessen. Die Autopsie des Samples ergab große Übereinstimmungen bei der Seitengestaltung. Bezüglich der Themenselektion konnte zudem eine hohe Konveregenz konstatiert werden. Hier kristallisierten sich im Laufe der Betrachtung hauptsächlich zwei Zeitungstypen heraus: als dominierender Typ Erst- bzw. Hauptzeitungen, auflagenstarke nationale und regionale Set- wie Morgenzeitungen, die eine weite Bandbreite von Themen in überwiegend übereinstimmender Sequenz präsentieren, sowie Zweit- bzw. Nebenzeitungen, die nur Teile des Themenspektrums in unterschiedlicher Sequenz vorweisen. Die Analyseergebnisse führen zu dem Schluss, dass im japanischen Zeitungswesen auf breiter Basis ein bisher erfolgreiches Businessmodell kopiert wird und auch im allgegenwärtigen Wettbewerb der regionalen Zeitungen mit den nationalen Blättern nur ansatzweise Abwechslung zu erkennen ist. Die Fortsetzung der traditionellen gestalterischen Form, wie auch die Beibehaltung althergebrachter inhaltlicher Strukturen und thematischer Tendenzen beweisen, dass sich die allgemeinen japanischen Tageszeitungen eindeutig auf die älteren Leser als Zielgruppe konzentrieren und sich so zu einem Seniorenmedium wandeln.
Alt und Jung im Dialog
(2001)
Besonderheiten, die den intergenerationellen Dialog innerhalb wie auch außerhalb von Familien kennzeichnen, wurden in zwei empirischen Studien untersucht. Im Anschluß an eine umfangreiche Übersicht der einschlägigen Forschungsliteratur werden die Studien präsentiert, in denen Zusammenhänge zwischen Merkmalen dyadischer Beziehungskontexte und Aspekten des Dialogs, der in ihnen stattfindet, explorativ analysiert wurden. In der quasi-experimentellen Studie A wurde geprüft, ob Wahrnehmungen und Bewertungen eines fiktiven intergenerationellen Dialogs in Abhängigkeit seines Beziehungskontexts variieren. Jüngere (M = 22 Jahre; n = 164) und ältere Erwachsene (M = 74 Jahre; n = 139) bearbeiteten Textvignetten, in denen ein Dialog zwischen einer älteren Frau und ihrer Tochter oder aber einer professionellen Altenpflegerin wiedergegeben wurde. Die jüngere Protagonistin zeigte dabei entweder ein bevormundendes oder ein aufgabenorientiertes Sprechverhalten. Das Verhalten einer (fiktiven) Tochter wurde als respektvoller und wertschätzender beurteilt als das einer professionellen Altenpflegerin. Dies galt in der Stichprobe der älteren Erwachsenen vor allem für bevormundendes, in der Stichprobe der jüngeren Erwachsenen für aufgabenorientiertes Sprechverhalten. Im Einklang mit bisherigen Studien urteilten ältere Erwachsene generell milder über die Vignetten als jüngere, und bevormundendes Sprechverhalten wurde negativer bewertet als aufgabenorientiertes. Der Funktionsstatus der älteren Protagonistin erwies sich hingegen als irrelevant für Urteile über das an sie gerichtete Sprechverhalten. In der zweiten, explorativ angelegten Fragebogenstudie B wurden Aspekte der inhaltlichen Gestaltung des intergenerationellen Dialogs und deren systematische Zusammenhänge mit Indikatoren der Qualität intrafamilialer Generationenbeziehungen analysiert. In unabhängigen Stichproben von Erwachsenen im mittleren ("Kinder"; M = 45 Jahre, n = 299) und im höheren Lebensalter ("Eltern"; M = 71 Jahre, n = 244) wurde die perzipierte Häufigkeit erfaßt, mit der 15 ausgewählte Themen (z.B. "politische und gesellschaftliche Fragen", "Lebensführung des Kindes") im Gespräch mit einer der beiden Elternpersonen resp. mit dem ältesten Kind zur Sprache kommen. Aufgrund exploratorischer Faktorenanalysen wurden diese Angaben zu den Dimensionen "Narrativer Austausch" und "Regulativer Austausch" aggregiert. In multivariaten Auswertungen erwies sich ein häufiger narrativer Austausch als charakteristisch für "gute" Eltern-Kind-Beziehungen, die durch Zuneigung und hohe erlebte Wertschätzung seitens der anderen Generation gekennzeichnet waren. Ein häufiger regulativer Austausch deutete hingegen - vor allem in Verbindung mit einem reduzierten narrativen Austausch - auf eine eher konflikthafte Eltern-Kind-Beziehung hin.
Die Auswirkungen von Rahmenfehlern in Zensen werden bereits seit vielen Jahren untersucht. Eine Methode, um aktuelle Bevölkerungszahlen zu gewinnen, basiert auf Fortschreibung. Wegen Ungenauigkeiten in der Fortschreibung wurden aber auch andere Modelle entwickelt - die capture-recapture-Modelle. Am 29. August 2006 hat die Bundesregierung beschlossen, dass in Deutschland 2011 ein registergestützter Zensus durchgeführt wird. Der Schwerpunkt dieser Dissertation liegt in der Anwendung des capture-recapture-Modelles im deutschen Zensus 2011. Die Dissertation vergleicht den dual system estimator (DSE) und alternative Schätzer (Verallgemeinerter-Regressionsschätzer, Verhältnis-synthetischer Schätzer, Schätzer basierend auf dem Unit-level Modell) für die Schätzung der Anzahl der tatsächlich vorhandenen Personen. Die empirische Untersuchung der Güte der Schätzer basiert auf Monte Carlo Simulationen synthetischer Populationen des Bundeslandes Saarland.
In the past twenty years considerable research has focused on the distinction between implicit and explicit measures of retention. In implicit memory tests, subjects are asked to perform a task that is apparently not related to a previous study phase, e.g. to produce category exemplars or to complete word stems. Implicit memory is revealed when the previous exposure to stimuli facilitates later performance in the implicit memory task relative to a nonstudied baseline performance. Implicit memory tests are contrasted with explicit memory tests, such as recall or recognition that require an intentional recollection of previous experiences. So far, only few studies on the development of implicit memory have been published. Despite the relative paucity of research with children, findings have been quite consistent: While explicit memory improves with age, no age differences were found in implicit memory tests. In these studies, however, mainly perceptual implicit memory tests have been employed. In recent studies with adults, dissociations have been observed between different implicit tests, especially between perceptual and conceptual ones. To draw conclusions about the developmental invariance of priming from findings using only one single type of test thus seems premature. In the present study, six experiments have been conducted that compared the memory performances of preschoolers and school-aged children using conceptual implicit tests (category production and word association). Conceptual priming effects rely on conceptual knowledge and conceptual processes (e.g., organization, semantic elaboration). Age-related improvements were found in both conceptual tests. This finding is interpreted in the context of a more elaborated knowledge base and enhanced processing abilities of older children. In contrast to the hypothesis that implicit memory is in general age-invariant, the results of this study suggest that at least conceptual implicit memory is influenced by developmental changes.
Falsche Erinnerungen sind eine Gedächtnisillusion und dadurch gekennzeichnet, dass Ereignisse oder Informationen erinnert werden, die gar nicht stattgefunden haben bzw. präsentiert wurden. In der vorliegenden Arbeit wurde in insgesamt fünf Experimenten anhand des Deese/Roediger-McDermott- (DRM) Paradigmas untersucht, ob Vorschulkinder empfänglicher für falsche Erinnerungen sind als ältere Grundschulkinder und junge Erwachsene. Ausgehend von dem Aktivierungs-Monitoring Ansatz wurde darüber hinaus geprüft, inwieweit etwaige alterskorrelierte Veränderungen in falschen Erinnerungen auf Unterschiede in den Fähigkeiten zur Quellenkontrolle und/oder auf Unterschiede in der Wahrscheinlichkeit der Aktivierung der kritischen Wörter zurückgehen. Im ersten Experiment wurden neben einem abschließenden Wiedererkennenstest zwei verschiedene implizite Testverfahren eingesetzt, die nur Aktivierung ohne Quellenkontrolle erfassen. Da sich aus den Ergebnissen von Experiment 1 keine eindeutigen Schlüsse über alterskorrelierte Veränderungen der Aktivierungsstärke ziehen ließen und ein Indikator für die Quellenkontrolle eingesetzt werden sollte, wurden in den folgenden drei Experimenten explizite Testverfahren verwendet (Experiment 2: Freie Reproduktion, Experiment 3A und Experiment 3B: Wiedererkennenstest). Um die Aktivierung der kritischen Items ohne entgegenwirkende Quellenkontrolle zu prüfen, wurden Inklusionsinstruktionen erteilt. Die Quellenkontrolle wurde separat durch Nachbefragungen erfasst. Zur Förderung der Aktivierung bei Kindern, wurden in Experiment 3B und 4 spezielle Lerninstruktionen erteilt, die eine semantisch-relationale (3B) bzw. eine itemspezifische und semantisch-relationale Verarbeitung der Wortlisten verlangten (4). Im letzten Experiment (4) sollte die Quellenkontrolle differenzierter untersucht werden, in dem ein Quellentest eingesetzt wurde, der nach beiden möglichen Quellen fragte. In allen Experimenten zeigte sich eine geringe alterskorrelierte Zunahme der Aktivierung kritischer Items, aber deutliche alterskorrelierte Verbesserungen der Quellenkontrolle. Die Befunde zu falschen Erinnerungen in den verschiedenen Experimenten waren je nach Lern- und Testbedingung unterschiedlich: Die Ergebnisse deuteten sowohl auf eine alterskorrelierte Zunahme als auch auf eine alterskorrelierte Abnahme hin.
This work addresses the algorithmic tractability of hard combinatorial problems. Basically, we are considering \NP-hard problems. For those problems we can not find a polynomial time algorithm. Several algorithmic approaches already exist which deal with this dilemma. Among them we find (randomized) approximation algorithms and heuristics. Even though in practice they often work in reasonable time they usually do not return an optimal solution. If we constrain optimality then there are only two methods which suffice for this purpose: exponential time algorithms and parameterized algorithms. In the first approach we seek to design algorithms consuming exponentially many steps who are more clever than some trivial algorithm (who simply enumerates all solution candidates). Typically, the naive enumerative approach yields an algorithm with run time $\Oh^*(2^n)$. So, the general task is to construct algorithms obeying a run time of the form $\Oh^*(c^n)$ where $c<2$. The second approach considers an additional parameter $k$ besides the input size $n$. This parameter should provide more information about the problem and cover a typical characteristic. The standard parameterization is to see $k$ as an upper (lower, resp.) bound on the solution size in case of a minimization (maximization, resp.) problem. Then a parameterized algorithm should solve the problem in time $f(k)\cdot n^\beta$ where $\beta$ is a constant and $f$ is independent of $n$. In principle this method aims to restrict the combinatorial difficulty of the problem to the parameter $k$ (if possible). The basic hypothesis is that $k$ is small with respect to the overall input size. In both fields a frequent standard technique is the design of branching algorithms. These algorithms solve the problem by traversing the solution space in a clever way. They frequently select an entity of the input and create two new subproblems, one where this entity is considered as part of the future solution and another one where it is excluded from it. Then in both cases by fixing this entity possibly other entities will be fixed. If so then the traversed number of possible solution is smaller than the whole solution space. The visited solutions can be arranged like a search tree. To estimate the run time of such algorithms there is need for a method to obtain tight upper bounds on the size of the search trees. In the field of exponential time algorithms a powerful technique called Measure&Conquer has been developed for this purpose. It has been applied successfully to many problems, especially to problems where other algorithmic attacks could not break the trivial run time upper bound. On the other hand in the field of parameterized algorithms Measure&Conquer is almost not known. This piece of work will present examples where this technique can be used in this field. It also will point out what differences have to be made in order to successfully apply the technique. Further, exponential time algorithms for hard problems where Measure&Conquer is applied are presented. Another aspect is that a formalization (and generalization) of the notion of a search tree is given. It is shown that for certain problems such a formalization is extremely useful.
Amphibien sind weltweit stark bedroht, was neben anderen Gründen auch durch Umweltverschmutzung bedingt scheint, wobei hier oft der vermehrte Einsatz von Agrochemikalien hervorgehoben wird. Obwohl landwirtschaftlich genutzte Gebiete meistens stark anthropogen verändert sind, beherbergen sie dennoch viele Amphibienpopulationen. Diese müssen hier oftmals persistieren, weil ihre ursprünglichen Lebensräume für die Landwirtschaft umgestaltet wurden und werden. Neben direkter Habitatzerstörung und "degradierung sowie mechanischen Bearbeitungsprozessen in der Landwirtschaft kann sich der Einsatz von Agrochemikalien, insbesondere von Pestiziden, stark negativ auf die dortigen Amphibien auswirken. Zwar sind aufgrund mangelnder Datenlage bisher keine kausalen Zusammenhänge zwischen Populationsrückgängen und Pestizideinsätzen nachgewiesen, jedoch können Amphibien über verschiedene direkte und indirekte Wege geschädigt werden. Eine Vielzahl von Studien zeigte bereits unterschiedlichste adverse Effekte auf der Individualebene. In der vorliegenden Arbeit wurden wichtige Fragestellungen zu diesem Themengebiet aufgegriffen. Der potenzielle Einfluss von Pestizideinsätzen auf Amphibien, besonders im Freiland, stellt ein komplexes Arbeitsfeld dar, so dass verschiedene methodische Ansätze angewendet wurden, um auf verschiedene Fragestellungen einzugehen. Im ersten Teil der vorliegenden Arbeit wurden zwei methodisch unterschiedliche Risikobewertungen durchgeführt. Es wurde auf die Fragestellung eingegangen, welche Effekte von glyphosatbasierten Herbiziden, welche weltweit den größten Absatz besitzen, auf Amphibien dokumentiert sind und welche Endpunkte am besten geeignet sind, um adverse Effekte nachzuweisen. Dazu wurde eine systematische Literaturübersicht und Meta-Analyse aller publizierten Studien durchgeführt. In einer zweiten Risikobewertung wurde ein GIS-basierter Ansatz angewendet, um das Expositionsrisiko der Amphibienarten des Anhangs II der europäischen Fauna-Flora-Habitat-Richtlinie (Arten von gemeinschaftlichem Interesse) gegenüber Pestiziden in ihren speziell ausgewiesenen Schutzgebieten abzuschätzen. Im zweiten Teil der vorliegenden Arbeit wurden Laborexperimente mit Embryonen und Larven zweier Anuren-Modellorganismen und einem, amphibientoxikologisch bisher noch nicht untersuchten und häufig angewendeten, Herbizid durchgeführt. Der dritte Teil der vorliegenden Arbeit beinhaltet die Ergebnisse zweier Freilandstudien. Es wurde überprüft, ob Anurenlarven aufgrund der Wahrscheinlichkeit der Ausbildung von Deformationen (was im Labor einen gut studierten Endpunkt darstellt) als Bioindikatoren für die Belastung von Kleingewässern mit Agrochemikalien geeignet sind. In der zweiten Freilandstudie wurde überprüft, ob drei einheimische Amphibienarten Kleinstgewässer meiden, welche mit umweltrelevanten Konzentrationen verschiedener Stoffe kontaminiert wurden. Im rechtswissenschaftlichen Teil der Arbeit wurde darauf eingegangen, wie hoch die unterschiedlichen Umsetzungsstandards der europäischen Wasserrahmenrichtlinie respektive des nationalen Wasserhaushaltsgesetzes in den Ländern bezüglich des Schutzes von Kleingewässern, welche fast alle heimischen Amphibienarten zur Reproduktion benötigen, durch Gewässerrandstreifenschutz ist.
The publication of statistical databases is subject to legal regulations, e.g. national statistical offices are only allowed to publish data if the data cannot be attributed to individuals. Achieving this privacy standard requires anonymizing the data prior to publication. However, data anonymization inevitably leads to a loss of information, which should be kept minimal. In this thesis, we analyze the anonymization method SAFE used in the German census in 2011 and we propose a novel integer programming-based anonymization method for nominal data.
In the first part of this thesis, we prove that a fundamental variant of the underlying SAFE optimization problem is NP-hard. This justifies the use of heuristic approaches for large data sets. In the second part, we propose a new anonymization method belonging to microaggregation methods, specifically designed for nominal data. This microaggregation method replaces rows in a microdata set with representative values to achieve k-anonymity, ensuring each data row is identical to at least k − 1 other rows. In addition to the overall dissimilarities of the data rows, the method accounts for errors in resulting frequency tables, which are of high interest for nominal data in practice. The method employs a typical two-step structure: initially partitioning the data set into clusters and subsequently replacing all cluster elements with representative values to achieve k-anonymity. For the partitioning step, we propose a column generation scheme followed by a heuristic to obtain an integer solution, which is based on the dual information. For the aggregation step, we present a mixed-integer problem formulation to find cluster representatives. To this end, we take errors in a subset of frequency tables into account. Furthermore, we show a reformulation of the problem to a minimum edge-weighted maximal clique problem in a multipartite graph, which allows for a different perspective on the problem. Moreover, we formulate a mixed-integer program, which combines the partitioning and the aggregation step and aims to minimize the sum of chi-squared errors in frequency tables.
Finally, an experimental study comparing the methods covered or developed in this work shows particularly strong results for the proposed method with respect to relative criteria, while SAFE shows its strength with respect to the maximum absolute error in frequency tables. We conclude that the inclusion of integer programming in the context of data anonymization is a promising direction to reduce the inevitable information loss inherent in anonymization, particularly for nominal data.
Diese Dissertation beschäftigt sich mit der Fragestellung, ob und wie Intersektionalität als analytische Perspektive für literarische Texte eine nützliche Ergänzung für ethnisch geordnete Literaturfelder darstellt. Diese Fragestellung wird anhand der Analyse dreier zeitgenössischer chinesisch-kanadischer Romane untersucht.
In der Einleitung wird die Relevanz der Themenbereiche Intersektionalität und asiatisch-kanadische Literatur erörtert. Das darauffolgende Kapitel bietet einen historischen Überblick über die chinesisch-kanadische Einwanderung und geht detailliert auf die literarischen Produktionen ein. Es wird aufgezeigt, dass, obwohl kulturelle Güter auch zur Artikulation von Ungleichheitsverhältnissen aufgrund von zugeschriebener ethnischer Zugehörigkeit entstehen, ein Diversifizierungsbestreben innerhalb der literarischen Gemeinschaft von chinesisch-kanadischen Autor:innen identifiziert werden kann. Das dritte Kapitel widmet sich dem Begriff „Intersektionalität“ und stellt, nach einer historischen Einordnung des Konzeptes mit seinen Ursprüngen im Black Feminism, Intersektionalität als bindendes Element zwischen Postkolonialismus, Diversität und Empowerment dar – Konzepte, die für die Analyse (kanadischer) Literatur in dieser Dissertation von besonderer Relevanz sind. Anschließend wird die Rolle von Intersektionalität in der Literaturwissenschaft aufgegriffen. Die darauffolgenden exemplarischen Analysen von Kim Fus For Today I Am a Boy, Wayson Choys The Jade Peony und Yan Lis Lily in the Snow veranschaulichen die vorangegangen methodischen Überlegungen. Allen drei Romanen vorangestellt ist die Kontextualisierung des jeweiligen Werkes als chinesisch-kanadisch, aber auch bisher vorgenommene Überlegungen, die diese Einordnung infrage stellen. Nach einer Zusammenfassung des Inhalts folgt eine intersektionale Analyse auf der inhaltlichen Ebene, die in den familiären und weiteren sozialen Bereich unterteilt ist, da sich die Hierarchiemechanismen innerhalb dieser Bereiche unterscheiden oder gegenseitig verstärken, wie aus den Analysen hervorgeht. Anschließend wird die formale Analyse mit einem intersektionalen Schwerpunkt in einem separaten Unterkapitel näher beleuchtet. Ein drittes Unterkapitel widmet sich einem dem jeweiligen Roman spezifischen Aspekt, der im Zusammenhang mit einer intersektionalen Analyse von besonderer Relevanz ist. Die Arbeit schließt mit einem übergreifenden Fazit, welches die wichtigsten Ergebnisse aus der Analyse zusammenfasst und mit weiteren Überlegungen zu den Implikationen dieser Dissertation, vor allem im Hinblick auf sogenannte kanadische „master narratives“, die eine weitreichende, kontextuelle Relevanz für das Arbeiten mit literarischen Texten aufweisen und durch einen intersektionalen literarischen Ansatz in Zukunft gegebenenfalls gewinnbringend ergänzt werden können.
A huge number of clinical studies and meta-analyses have shown that psychotherapy is effective on average. However, not every patient profits from psychotherapy and some patients even deteriorate in treatment. Due to this result and the restricted generalization of clinical studies to clinical practice, a more patient-focused research strategy has emerged. The question whether a particular treatment works for an individual case is the focus of this paradigm. The use of repeated assessments and the feedback of this information to therapists is a major ingredient of patient-focused research. Improving patient outcomes and reducing dropout rates by the use of psychometric feedback seems to be a promising path. Therapists seem to differ in the degree to which they make use of and profit from such feedback systems. This dissertation aims to better understand therapist differences in the context of patient-focused research and the impact of therapists on psychotherapy. Three different studies are included, which focus on different aspects within the field:
Study I (Chapter 5) investigated how therapists use psychometric feedback in their work with patients and how much therapists differ in their usage. Data from 72 therapists treating 648 patients were analyzed. It could be shown that therapists used the psychometric feedback for most of their patients. Substantial variance in the use of feedback (between 27% and 52%) was attributable to therapists. Therapists were more likely to use feedback when they reported being satisfied with the graphical information they received. The results therefore indicated that not only patient characteristics or treatment progress affected the use of feedback.
Study II (Chapter 6) picked up on the idea of analyzing systematic differences in therapists and applied it to the criterion of premature treatment termination (dropout). To answer the question whether therapist effects occur in terms of patients’ dropout rates, data from 707 patients treated by 66 therapists were investigated. It was shown that approximately six percent of variance in dropout rates could be attributed to therapists, even when initial impairment was controlled for. Other predictors of dropout were initial impairment, sex, education, personality styles, and treatment expectations.
Study III (Chapter 7) extends the dissertation by investigating the impact of a transfer from one therapist to another within ongoing treatments. Data from 124 patients who agreed to and experienced a transfer during their treatment were analyzed. A significant drop in patient-rated as well as therapist-rated alliance levels could be observed after a transfer. On average, there seemed to be no difficulties establishing a good therapeutic alliance with the new therapist, although differences between patients were observed. There was no increase in symptom severity due to therapy transfer. Various predictors of alliance and symptom development after transfer were investigated. Impacts on clinical practice were discussed.
Results of the three studies are discussed and general conclusions are drawn. Implications for future research as well as their utility for clinical practice and decision-making are presented.
Wasserbezogene regulierende und versorgende Ökosystemdienstleistungen (ÖSDL) wurden im Hinblick auf das Abflussregime und die Grundwasserneubildung im Biosphärenreservat Pfälzerwald im Südwesten Deutschlands anhand hydrologischer Modellierung unter Verwendung des Soil and Water Assessment Tool (SWAT+) untersucht. Dabei wurde ein holistischer Ansatz verfolgt, wonach den ÖSDL Indikatoren für funktionale und strukturelle ökologische Prozesse zugeordnet werden. Potenzielle Risikofaktoren für die Verschlechterung von wasserbedingten ÖSDL des Waldes, wie Bodenverdichtung durch Befahren mit schweren Maschinen im Zuge von Holzerntearbeiten, Schadflächen mit Verjüngung, entweder durch waldbauliche Bewirtschaftungspraktiken oder durch Windwurf, Schädlinge und Kalamitäten im Zuge des Klimawandels, sowie der Kli-mawandel selbst als wesentlicher Stressor für Waldökosysteme wurden hinsichtlich ihrer Auswirkungen auf hydrologische Prozesse analysiert. Für jeden dieser Einflussfaktoren wurden separate SWAT+-Modellszenarien erstellt und mit dem kalibrierten Basismodell verglichen, das die aktuellen Wassereinzugsgebietsbedingungen basierend auf Felddaten repräsentierte. Die Simulationen bestätigten günstige Bedingungen für die Grundwasserneubildung im Pfälzerwald. Im Zusammenhang mit der hohen Versickerungskapazität der Bodensubstrate der Buntsandsteinverwitterung, sowie dem verzögernden und puffernden Einfluss der Baumkronen auf das Niederschlagswasser, wurde eine signifikante Minderungswirkung auf die Oberflächenabflussbildung und ein ausgeprägtes räumliches und zeitliches Rückhaltepotential im Einzugsgebiet simuliert. Dabei wurde festgestellt, dass erhöhte Niederschlagsmengen, die die Versickerungskapazität der sandigen Böden übersteigen, zu einer kurz geschlossenen Abflussreaktion mit ausgeprägten Oberflächenabflussspitzen führen. Die Simulationen zeigten Wechselwirkungen zwischen Wald und Wasserkreislauf sowie die hydrologische Wirksamkeit des Klimawandels, verschlechterter Bodenfunktionen und altersbezogener Bestandesstrukturen im Zusammenhang mit Unterschieden in der Baumkronenausprägung. Zukunfts-Klimaprojektionen, die mit BIAS-bereinigten REKLIES- und EURO-CORDEX-Regionalklimamodellen (RCM) simuliert wurden, prognostizierten einen höheren Verdunstungsbedarf und eine Verlängerung der Vegetationsperiode bei gleichzeitig häufiger auftretenden Dürreperioden innerhalb der Vegetationszeit, was eine Verkürzung der Periode für die Grundwasserneubildung induzierte, und folglich zu einem prognostizierten Rückgang der Grundwasserneubildungsrate bis zur Mitte des Jahrhunderts führte. Aufgrund der starken Korrelation mit Niederschlagsintensitäten und der Dauer von Niederschlagsereignissen, bei allen Unsicherheiten in ihrer Vorhersage, wurde für die Oberflächenabflussgenese eine Steigerung bis zum Ende des Jahrhunderts prognostiziert.
Für die Simulation der Bodenverdichtung wurden die Trockenrohdichte des Bodens und die SCS Curve Number in SWAT+ gemäß Daten aus Befahrungsversuchen im Gebiet angepasst. Die günstigen Infiltrationsbedingungen und die relativ geringe Anfälligkeit für Bodenverdichtung der grobkörnigen Buntsandsteinverwitterung dominierten die hydrologischen Auswirkungen auf Wassereinzugsgebietsebene, sodass lediglich moderate Verschlechterungen wasserbezogener ÖSDL angezeigt wurden. Die Simulationen zeigten weiterhin einen deutlichen Einfluss der Bodenart auf die hydrologische Reaktion nach Bodenverdichtung auf Rückegassen und stützen damit die Annahme, dass die Anfälligkeit von Böden gegenüber Verdichtung mit dem Anteil an Schluff- und Tonbodenpartikeln zunimmt. Eine erhöhte Oberflächenabflussgenese ergab sich durch das Wegenetz im Gesamtgebiet.
Schadflächen mit Bestandesverjüngung wurden anhand eines artifiziellen Modells innerhalb eines Teileinzugsgebiets unter der Annahme von 3-jährigen Baumsetzlingen in einem Entwicklungszeitraum von 10 Jahren simuliert und hinsichtlich spezifischer Was-serhaushaltskomponenten mit Altbeständen (30 bis 80 Jahre) verglichen. Die Simulation ließ darauf schließen, dass bei fehlender Kronenüberschirmung die hydrologisch verzögernde Wirkung der Bestände beeinträchtigt wird, was die Entstehung von Oberflächenabfluss begünstigt und eine quantitativ geringfügig höhere Tiefensickerung fördert. Hydrologische Unterschiede zwischen dem geschlossenem Kronendach der Altbestände und Jungbeständen mit annähernden Freilandniederschlagsbedingungen wurden durch die dominierenden Faktoren atmosphärischer Verdunstungsanstoß, Niederschlagsmengen und Kronenüberschirmungsgrad bestimmt. Je weniger entwickelt das Kronendach von verjüngten Waldbeständen im Vergleich zu Altbeständen, je höher der atmosphärische Verdunstungsanstoß und je geringer die eingetragenen Niederschlagsmengen, desto größer war der hydrologische Unterschied zwischen den Bestandestypen.
Verbesserungsmaßnahmen für den dezentralen Hochwasserschutz sollten folglich kritische Bereiche für die Abflussbildung im Wald (CSA) berücksichtigen. Die hohe Sensibilität und Anfälligkeit der Wälder gegenüber Verschlechterungen der Ökosystembedingungen legen nahe, dass die Erhaltung des komplexen Gefüges und von intakten Wechselbeziehungen, insbesondere unter der gegebenen Herausforderung des Klimawandels, sorgfältig angepasste Schutzmaßnahmen, Anstrengungen bei der Identifizierung von CSA sowie die Erhaltung und Wiederherstellung der hydrologischen Kontinuität in Waldbeständen erfordern.
This dissertation includes three research articles on the portfolio risks of private investors. In the first article, we analyze a large data set of private banking portfolios in Switzerland of a major bank with the unique feature that parts of the portfolios were managed by the bank, and parts were advisory portfolios. To correct the heterogeneity of individual investors, we apply a mixture model and a cluster analysis. Our results suggest that there is indeed a substantial group of advised individual investors that outperform the bank managed portfolios, at least after fees. However, a simple passive strategy that invests in the MSCI World and a risk-free asset significantly outperforms both the better advisory and the bank managed portfolios. The new regulation of the EU for financial products (UCITS IV) prescribes Value at Risk (VaR) as the benchmark for assessing the risk of structured products. The second article discusses the limitations of this approach and shows that, in theory, the expected return of structured products can be unbounded while the VaR requirement for the lowest risk class can still be satisfied. Real-life examples of large returns within the lowest risk class are then provided. The results demonstrate that the new regulation could lead to new seemingly safe products that hide large risks. Behavioral investors who choose products based only on their official risk classes and their expected returns will, therefore, invest into suboptimal products. To overcome these limitations, we suggest a new risk-return measure for financial products based on the martingale measure that could erase such loopholes. Under the mean-VaR framework, the third article discusses the impacts of the underlying's first four moments on the structured product. By expanding the expected return and the VaR of a structured product with its underlying moments, it is possible to investigate each moment's impact on them, simultaneously. Results are tested by Monte Carlo simulation and historical simulation. The findings show that for the majority of structured products, underlyings with large positive skewness are preferred. The preferences for variance and for kurtosis are ambiguous.
Zu den klassischen Verteilungen der mathematischen Statistik zählen die zentralen F- und t-Verteilungen. Die vorliegende Arbeit untersucht Verallgemeinerungen dieser Verteilungen, die sogenannten doppelt nichtzentralen F- und t-Verteilungen, welche in der statistischen Testtheorie von Bedeutung sind. Die Tatsache, dass die zugehörigen Wahrscheinlichkeitsdichten nur in Form von Parameterintegral- bzw. Doppelreihendarstellungen gegeben sind, stellt eine große Herausforderung bei der Untersuchung analytischer Eigenschaften dar. Unter Verwendung von Techniken aus der Theorie der vorzeichenregulären Funktionen gelingt es, die bisher vermutete, jedoch lediglich aus Approximationen abgeleitete, strikt unimodale Gestalt der Dichtefunktion für eine große Klasse doppelt nichtzentraler Verteilungen zu zeigen. Dieses Resultat gestattet die Untersuchung des eindeutig bestimmten Modus als Funktion gewisser Nichtzentralitätsparameter. Hier erweist sich die Theorie der vorzeichenregulären Funktionen als wichtiges Hilfsmittel, um monotone Abhängigkeiten nachzuweisen.