Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (836) (entfernen)
Sprache
- Deutsch (490)
- Englisch (335)
- Mehrsprachig (7)
- Französisch (4)
Schlagworte
- Stress (37)
- Deutschland (33)
- Modellierung (18)
- Optimierung (18)
- Fernerkundung (17)
- Hydrocortison (16)
- stress (15)
- Motivation (12)
- Stressreaktion (12)
- cortisol (12)
Institut
- Psychologie (181)
- Raum- und Umweltwissenschaften (148)
- Mathematik (62)
- Wirtschaftswissenschaften (61)
- Fachbereich 4 (56)
- Fachbereich 1 (29)
- Geschichte, mittlere und neuere (28)
- Germanistik (26)
- Informatik (26)
- Kunstgeschichte (22)
Automata theory is the study of abstract machines. It is a theory in theoretical computer science and discrete mathematics (a subject of study in mathematics and computer science). The word automata (the plural of automaton) comes from a Greek word which means "self-acting". Automata theory is closely related to formal language theory [99, 101]. The theory of formal languages constitutes the backbone of the field of science now generally known as theoretical computer science. This thesis aims to introduce a few types of automata and studies then class of languages recognized by them. Chapter 1 is the road map with introduction and preliminaries. In Chapter 2 we consider few formal languages associated to graphs that has Eulerian trails. We place few languages in the Chomsky hierarchy that has some other properties together with the Eulerian property. In Chapter 3 we consider jumping finite automata, i. e., finite automata in which input head after reading and consuming a symbol, can jump to an arbitrary position of the remaining input. We characterize the class of languages described by jumping finite automata in terms of special shuffle expressions and survey other equivalent notions from the existing literature. We could also characterize some super classes of this language class. In Chapter 4 we introduce boustrophedon finite automata, i. e., finite automata working on rectangular shaped arrays (i. e., pictures) in a boustrophedon mode and we also introduce returning finite automata that reads the input, line after line, does not alters the direction like boustrophedon finite automata i. e., reads always from left to right, line after line. We provide close relationships with the well-established class of regular matrix (array) languages. We sketch possible applications to character recognition and kolam patterns. Chapter 5 deals with general boustrophedon finite automata, general returning finite automata that read with different scanning strategies. We show that all 32 different variants only describe two different classes of array languages. We also introduce Mealy machines working on pictures and show how these can be used in a modular design of picture processing devices. In Chapter 6 we compare three different types of regular grammars of array languages introduced in the literature, regular matrix grammars, (regular : regular) array grammars, isometric regular array grammars, and variants thereof, focusing on hierarchical questions. We also refine the presentation of (regular : regular) array grammars in order to clarify the interrelations. In Chapter 7 we provide further directions of research with respect to the study that we have done in each of the chapters.
Im März 196 v. Chr. erließ eine in Memphis versammelte Synode von Priestern aus den Tempeln Ägyptens ein Ehrendekret in drei verschiedenen Sprachen für den amtierenden Herrscher Ptolemaios V. Epiphanes: Der klassischen Sprache des pharaonischen Ägypten, geschrieben in altägyptischen Hieroglyphen, dem Demotischen, der damals gesprochenen Sprachstufe des Altägyptischen und dem hellenistischen Griechisch des 2 Jh.. Von dieser Textsorte sind bisher insgesamt nur vier relativ vollständig erhaltene Beispiele auf uns gekommen. Diese folgen sämtlich in ihrem Formular in hohem Maße der im griechischen Bereich ubiquitären Psephismata und setzen alle im jeweiligen Beschlussteil Ehrungen fest, die die Rolle des ptolemäisch-hellenistischen Herrschers im Kontext der altägyptischen Kulte betreffen. Die vorliegende Arbeit will zum einen in ihrem Kommentarteil eine Grundlage für die weitere Beschäftigung mit allen drei Sprachfassungen des Dekrets von Memphis durch die ptolemaistisch-althistorische Forschung leisten. Zum anderen möchte sie auf Grundlage des Textes die Rolle des Herrschers aus Sicht der beschließenden Priesterschaft beleuchten. Es kann gezeigt werden, dass das Dekret - anders als bisher angenommen - nicht zur eigentlichen Thronbesteigung, sondern anlässlich eines späteren Thronjubiläums erlassen wurde und gleichwohl die Fiktion eines innenpolitischen Neuanfangs (vermutlich im Sinne des Hofes) angesichts erster, bescheidener Erfolge gegen innere Aufstände der indigenen Bevölkerung in Unter- und Oberägypten inszeniert. Die kultische Herrscherverehrung hellenischer Provenienz erscheint in diesem Text ggü. den früheren Dekreten von Kanobos und Raphia relativ vollständig in den altägyptischen religiösen Kontext übersetzt, sodass hier durchaus von einem "ägyptischen Herrscherkult" gesprochen werden kann. Dabei wird der sehr junge fünfte Ptolemäerkönig sehr auffällig mit Kindformen des Gottes Horus (Harendotes, Harsiese) gleichgesetzt, was zum einen die legitime Machtübernahme durch den Sohn des verstorbenen Herrschers von einer im ägyptischen Kontext religiös definierten Sieghaftigkeit gegen die "Götterfeinde" abhängig erscheinen lässt, zum anderen den König in den Kontext der spätzeitlichen Verehrung von Kindgottheiten und Götterttriaden setzt. Alles in allem scheint die ägyptische Priesterschaft mittels einer für die eigenen Bedürfnisse flexibel adaptierten ursprünglich griechischen Textform den eigenen Anspruch auf Definition religiös legitimierter Königsmacht erhoben und im Diskurs um Privilegien und Unterstützung im ptolemäischen Ägypten kommuniziert zu haben.
The first part of this thesis offers a theoretical foundation for the analysis of Tolkien- texts. Each of the three fields of interest, nostalgia, utopia, and the pastoral tradition, are introduced in separate chapters. Special attention is given to the interrelations of the three fields. Their history, meaning, and functions are shortly elaborated and definitions applicable to their occurrences in fantasy texts are reached. In doing so, new categories and terms are proposed that enable a detailed analysis of the nostalgic, pastoral, and utopian properties of Tolkien- works. As nostalgia and utopia are important ingredients of pastoral writing, they are each introduced first and are finally related to a definition of the pastoral. The main part of this thesis applies the definitions and insights reached in the theoretical chapters to Tolkien- The Lord of the Rings and The Hobbit. This part is divided into three main sections. Again, the order of the chapters follows the line of argumentation. The first section contains the analysis of pastoral depictions in the two texts. Given the separation of the pastoral into different categories, which were outlined in the theoretical part, the chapters examine bucolic and georgic pastoral creatures and landscapes before turning to non-pastoral depictions, which are sub-divided into the antipastoral and the unpastoral. A separate chapter looks at the bucolic and georgic pastoral- positions and functions in the primary texts. This analysis is followed by a chapter on men- special position in Tolkien- mythology, as their depiction reveals their potential to be both pastoral and antipastoral. The second section of the analytical part is concerned with the role of nostalgia within pastoral culture. The focus is laid on the meaning and function of the different kinds of nostalgia, which were defined in the theoretical part, detectable in bucolic and georgic pastoral cultures. Finally, the analysis turns to the utopian potential of Tolkien- mythology. Again, the focus lies on the pastoral and non-pastoral creatures. Their utopian and dystopian visions are presented and contrasted. This way, different kinds of utopian vision are detected and set in relation to the overall dystopian fate of Tolkien- fictional universe. Drawing on the results of this thesis and on Terry Gifford- ecocritical work, the final chapter argues that Tolkien- texts can be defined as modern pastorals. The connection between Tolkien- work and pastoral literature made explicit in the analysis is thus cemented in generic terms. The conclusion presents a summary of the central findings of this thesis and introduces questions for further study.
Die Arbeit untersucht den Zusammenhang zwischen dem sprachlichen Zeichen und den Begriffen. Das Lexikon mit seinen Bedeutungsdefinitionen ist der augenscheinlichste Schnittpunkt zwischen dem Sprach- und dem Begriffssystem. Die Bedeutungsdefinition wird dabei als ein empirisches Datum betrachtet, das formal beschrieben werden kann. Die Bedeutungsanalyse überführt die Bedeutungsdefinition in eine komplexe Ordnungsstruktur. Die Methode wurde aus verschiedenen Begriffstheorien entwickelt, hauptsächlich aus Raili Kauppis Begriffstheorie und der Formalen Begriffsanalyse. Im Ergebnis erhält man aus den Bedeutungen eines Lexikons ein komplexes System von ein- bis n-stelligen Begriffen. Dieses Begriffssystem unterscheidet sich von den bekannten Semantischen Netzen durch einen völligen Verzicht auf von außen auf das System projizierte Relationen, wie den sogenannten semantischen Relationen. Die einzigen Relationen in diesem System sind begrifflich.
A phenomenon of recent decades is that digital marketplaces on the Internet are establishing themselves for a wide variety of products and services. Recently, it has become possible for private individuals to invest in young and innovative companies (so-called "start-ups"). Via Internet portals, potential investors can examine various start-ups and then directly invest in their chosen start-up. In return, investors receive a share in the firm- profit, while companies can use the raised capital to finance their projects. This new way of financing is called "Equity Crowdfunding" (ECF) or "Crowdinvesting". The aim of this dissertation is to provide empirical findings about the characteristics of ECF. In particular, the question of whether ECF is able to overcome geographic barriers, the interdependence of ECF and capital structure, and the risk of failure for funded start-ups and their chances of receiving follow-up funding by venture capitalists or business angels will be analyzed. The results of the first part of this dissertation show that investors in ECF prefer local companies. In particular, investors who invest larger amounts have a stronger tendency to invest in local start-ups. The second part of the dissertation provides first indications of the interdependencies between capital structure and ECF. The analysis makes clear that the capital structure is not a determinant for undertaking an ECF campaign. The third part of the dissertation analyzes the success of companies financed by ECF in a country comparison. The results show that after a successful ECF campaign German companies have a higher chance of receiving follow-up funding by venture capitalists compared to British companies. The probability of survival, however, is slightly lower for German companies. The results provide relevant implications for theory and practice. The existing literature in the area of entrepreneurial finance will be extended by insights into investor behavior, additions to the capital structure theory and a country comparison in ECF. In addition, implications are provided for various actors in practice.
Entrepreneurship is a process of discovering and exploiting opportunities, during which two crucial milestones emerge: in the very beginning when entrepreneurs start their businesses, and in the end when they determine the future of the business. This dissertation examines the establishment and exit of newly created as well as of acquired firms, in particular the behavior and performance of entrepreneurs at these two important stages of entrepreneurship. The first part of the dissertation investigates the impact of characteristics at the individual and at the firm level on an entrepreneur- selection of entry modes across new venture start-up and business takeover. The second part of the dissertation compares firm performance across different entrepreneurship entry modes and then examines management succession issues that family firm owners have to confront. This study has four main findings. First, previous work experience in small firms, same sector experience, and management experience affect an entrepreneur- choice of entry modes. Second, the choice of entry mode for hybrid entrepreneurs is associated with their characteristics, such as occupational experience, level of education, and gender, as well as with the characteristics of their firms, such as location. Third, business takeovers survive longer than new venture start-ups, and both entry modes have different survival determinants. Fourth, the family firm- decision of recruiting a family or a nonfamily manager is not only determined by a manager- abilities, but also by the relationship between the firm- economic and non-economic goals and the measurability of these goals. The findings of this study extend our knowledge on entrepreneurship entry modes by showing that new venture start-ups and business takeovers are two distinct entrepreneurship entry modes in terms of their founders" profiles, their survival rates and survival determinants. Moreover, this study contributes to the literature on top management hiring in family firms: it establishes family firm- non-economic goals as another factor that impacts the family firm- hiring decision between a family and a nonfamily manager.
Why do some people become entrepreneurs while others stay in paid employment? Searching for a distinctive set of entrepreneurial skills that matches the profile of the entrepreneurial task, Lazear introduced a theoretical model featuring skill variety for entrepreneurs. He argues that because entrepreneurs perform many different tasks, they should be multi-skilled in various areas. First, this dissertation provides the reader with an overview of previous relevant research results on skill variety with regard to entrepreneurship. The majority of the studies discussed focus on the effects of skill variety. Most studies come to the conclusion that skill variety mainly affects the decision to become self-employed. Skill variety also favors entrepreneurial intentions. Less clear are the results with regard to the influence of skill variety on the entrepreneurial success. Measured on the basis of income and survival of the company, a negative or U-shaped correlation is shown. Within the empirical part of this dissertation three research goals are tackled. First, this dissertation investigates whether a variety of early interests and activities in adolescence predicts subsequent variety in skills and knowledge. Second, the determinants of skill variety and variety of early interests and activities are investigated. Third, skill variety is tested as a mediator of the gender gap in entrepreneurial intentions. This dissertation employs structural equation modeling (SEM) using longitudinal data collected over ten years from Finnish secondary school students aged 16 to 26. As indicator for skill variety the number of functional areas in which the participant had prior educational or work experience is used. The results of the study suggest that a variety of early interests and activities lead to skill variety, which in turn leads to entrepreneurial intentions. Furthermore, the study shows that an early variety is predicted by openness and an entrepreneurial personality profile. Skill variety is also encouraged by an entrepreneurial personality profile. From a gender perspective, there is indeed a gap in entrepreneurial intentions. While a positive correlation has been found between the early variety of subjects and being female, there are negative correlations between the other two variables, education and work related Skill variety, and being female. The negative effect of work-related skill variety is the strongest. The results of this dissertation are relevant for research, politics, educational institutions and special entrepreneurship education programs. The results are also important for self-employed parents that plan the succession of the family business. Educational programs promoting entrepreneurship can be optimized on the basis of the results of this dissertation by making the transmission of a variety of skills a central goal. A focus on teenagers could also increase the success as well as a preselection based on the personality profile of the participants. Regarding the gender gap, state policies should aim to provide women with more incentives to acquire skill variety. For this purpose, education programs can be tailored specifically to women and self-employment can be presented as an attractive alternative to dependent employment.
This study aims to estimate the cotton yield at the field and regional level via the APSIM/OZCOT crop model, using an optimization-based recalibration approach based on the state variable of the cotton canopy - the leaf area index (LAI), derived from atmospherically corrected Landsat-8 OLI remote sensing images in 2014. First, a local sensitivity and global analysis approach was employed to test the sensitivity of cultivar, soil and agronomic parameters to the dynamics of the LAI. After sensitivity analyses, a series of sensitive parameters were obtained. Then, the APSIM/OZCOT crop model was calibrated by observations over a two-year span (2006-2007) at the Aksu station, combined with these sensitive cultivar parameters and the current understanding of cotton cultivar parameters. Third, the relationship between the observed in-situ LAI and synchronous perpendicular vegetation indices derived from six Landsat-8 OLI images covering the entire growth stage was modelled to generate LAI maps in time and space. Finally, the Particle Swarm Optimization (PSO) and general-purpose optimization approach (based on Nelder-Mead algorithm) were used to recalibrate four sensitive agronomic parameters (row spacing, sowing density per row, irrigation amount and total fertilization) according to the minimization of the root-mean-square deviation (RMSE) between the simulated LAI from the APSIM/OZCOT model and retrieved LAI from Landsat-8 OLI remote sensing images. After the recalibration, the best simulated results compared with observed cotton yield were obtained. The results showed that: (1) FRUDD, FLAI and DDISQ were the major cultivar parameters suitable for calibrating the cotton cultivar. (2) After the calibration, the simulated LAI performed well with an RMSE and mean absolute error (MAE) of 0.45 and 0.33, respectively, in 2006 and 0.46 and 0.41, respectively, in 2007. The coefficient of determination between the observed and simulated LAI was 0.83 and 0.97, respectively, in 2006 and 2007. The Pearson- correlation coefficient was 0.913 and 0.988 in 2006 and 2007, respectively, with a significant positive correlation between the simulated and observed LAI. The difference between the observed and simulated yield was 776.72 kg/ha and 259.98 kg/ha in 2006 and 2007, respectively. (3) Cotton cultivation in 2014 was obtained using three Landsat-8 OLI images - DOY136 (May), DOY 168 (June) and DOY 200 (July) - based on the phenological differences in cotton and other vegetation types. (4) The yield estimation after the assimilation closely approximated the field-observed values, and the coefficient of determination was as high as 0.82, after recalibration of the APSIM/OZCOT model for ten cotton fields. The difference between the observed and assimilated yields for the ten fields ranged from 18.2 to 939.7 kg/ha. The RMSE and MAE between the assimilated and observed yield was 417.5 and 303.1 kg/ha, respectively. These findings provide scientific evidence for the feasibility of coupled remote sensing and APSIM/OZCOT model at the field level. (5) Upscaling from field level to regional level, the assimilation algorithm and scheme are both especially important. Although the PSO method is very efficient, the computational efficiency is also the shortcoming of the assimilation strategy on a regional scale. Comparisons between the PSO and general-purpose optimization method (based on the Nelder-Mead algorithm) were implemented from the RSME, LAI curve and computational time. The general-purpose optimization method (based on the Nelder-Mead algorithm) was used for the regional assimilation between remote sensing and the APSIM/OZCOT model. Meanwhile, the basic unit for regional assimilation was also determined as cotton field rather than pixel. Moreover, the crop growth simulation was also divided into two phases (vegetative growth and reproductive growth) for regional assimilation. (6) The regional assimilation at the vegetative growth stage between the remote sensing derived and APSIM/OZCOT model-simulated LAI was implemented by adjusting two parameters: row spacing and sowing density per row. The results showed that the sowing density of cotton was higher in the southern part than in the northern part of the study area. The spatial pattern of cotton density was also consistent with the reclamation from 2001 to 2013. Cotton fields after early reclamation were mainly located in the southern part while the recent reclamation was located in the northern part. Poor soil quality, lack of irrigation facilities and woodland belts of cotton fields in the northern part caused the low density of cotton. Regarding the row spacing, the northern part was larger than the southern part due to the variation of two agronomic modes from military and private companies. (7) The irrigation and fertilization amount were both used as key parameters to be adjusted for regional assimilation during the reproductive growth period. The result showed that the irrigation per time ranged from 58.14 to 89.99 mm in the study area. The spatial distribution of the irrigation amount is higher in the northern part while lower in southern study area. The application of urea fertilization ranged from 500.35 to 1598.59 kg/ha in the study area. The spatial distribution of fertilization was lower in the northern part and higher in the southern part. More fertilization applied in the southern study area aims to increase the boll weight and number for pursuing higher yields of cotton. The frequency of the RSME during the second assimilation was mainly located in the range of 0.4-0.6 m2/m2. The estimated cotton yield ranged from 1489 to 8895 kg/ha. The spatial distribution of the estimated yield is also higher in the southern part than the northern study area.
Die Zielsetzung der vorliegenden Dissertation lag in der ausführlichen und systematischen Exploration, Deskription und Analyse von relational bedingten sozio-medialen Ungleichheiten zwischen jugendlichen Nutzern sozialer Netzwerkplattformen (WhatsApp, Facebook, Snapchat etc.). Im Rahmen der qualitativen Untersuchung wurden insgesamt sechs problemzentrierte Einzelinterviews und drei problemzentrierte Gruppendiskussionen mit Jugendlichen im Alter von 15 bis 20 Jahren sowie eine Gruppendiskussion mit pädagogischen Fachkräften durchgeführt und inhaltsanalytisch ausgewertet. Die vorliegende Arbeit konzentriert sich auf die Bedingungen und Wechselwirkungen zwischen den Individualmerkmalen von jugendlichen Nutzern (Interessen, Motive, Nutzungsweisen, Kompetenzen) und ihren relationalen Merkmalen (Beziehungen in sozialen Onlinenetzwerken) sowie den daraus resultierenden sozialen Ressourcen und Risiken. Die relationalen Merkmale sind laut den Ergebnissen der Dissertation gleich in zweifacher Hinsicht an der Reproduktion sozialer Ungleichheitsstrukturen beteiligt: Erstens nehmen sie Einfluss auf den Zugang zu und die Bewertung von medienvermittelten Informationen, da Informationen auf den Plattformen vorwiegend innerhalb des mediatisierten Beziehungsnetzwerkes kreisen. Zweitens bestimmen die relationalen Merkmale maßgeblich mit, welche Kompetenzen und Präferenzen Jugendliche im Umgang mit sozialen Netzwerkplattformen erwerben. Bezüglich der Mediennutzung und -wirkung können bei den Jugendlichen mit niedrigem Bildungsniveau folgende ungleichheitsrelevante Befunde konstatiert werden: verzögerte Adaption neuer Plattformen, intensivere Nutzung, geringere Nutzungskompetenzen, vermehrte Aufmerksamkeitserzeugung sowie eine primär unterhaltungsorientierte Nutzung. Zudem weisen sie überwiegend homogene Netzwerkstrukturen auf, was sich nachteilig auf ihren Zugang zu medienvermittelten Informationen und deren Bewertung auswirkt. Für Jugendliche mit hohem Bildungsniveau lassen sich hingegen deutlich positivere Verstärkungseffekte durch die Mediennutzung feststellen.
DNA methylation, through 5-methyl- and 5-hydroxymethylcytosine (5mC and 5hmC) is considered to be one of the principal interfaces between the genome and our environment and it helps explain phenotypic variations in human populations. Initial reports of large differences in methylation level in genomic regulatory regions, coupled with clear gene expression data in both imprinted genes and malignant diseases provided easily dissected molecular mechanisms for switching genes on or off. However, a more subtle process is becoming evident, where small (<10%) changes to intermediate methylation levels were associated with complex disease phenotypes. This has resulted in two clear methylation paradigms. The latter "subtle change" paradigm is rapidly becoming the epigenetic hallmark of complex disease phenotypes, although we were currently hampered by a lack of data addressing the true biological significance and meaning of these small differences. The initial expectation of rapidly identifying mechanisms linking environmental exposure to a disease phenotype led to numerous observational/association studies being performed. Although this expectation remains unmet, there is now a growing body of literature on specific genes, suggesting wide ranging transcriptional and translational consequences of such subtle methylation changes. Data from the glucocorticoid receptor (NR3C1) has shown that a complex interplay between DNA methylation, extensive 5"UTR splicing and microvariability gives rise to the overall level and relative distribution of total and N-terminal protein isoforms generated. Additionally, the presence of multiple AUG translation initiation codons throughout the complete, processed, mRNA enables translation variability, hereby enhancing the translational isoforms and the resulting protein isoform diversity; providing a clear link between small changes in DNA methylation and significant changes in protein isoforms and cellular locations. Methylation changes in the NR3C1 CpG island, alters the NR3C1 transcription and eventually protein isoforms in the tissues, resulting in subtle but visible physiological variability. Implying external environmental stimuli act through subtle methylation changes, with transcriptional microvariability as the underlying mechanism, to fine-tune the total NR3C1 protein levels. The ubiquitous distribution of genes with similar structure as NR3C1, combined with an increasing number of studies linking subtle methylation changes in specific genes with wide ranging transcriptional and translational consequences, suggested a more genome-wide spread of subtle DNA methylation changes and transcription variability. The subtle methylation paradigm and the biological relevance of such changes were supported by two epigenetic animal models, which linked small methylation changes to either psychopathological or immunological effects. The first model, rats subjected to maternal deprivation, showed long term behavioural and stress response changes. A second model, exposing mice to early life infection with H1N1, illustrated long-term immunological effects. Both models displayed subtle changes within the methylome. Suggesting/Indicating that early life adversity and early life viral infection "programmed" the CNS and innate immune response respectively, via subtle DNA methylation changes genome-wide. The research presented in this thesis investigated the ever-growing roles of DNA methylation; the physiological and functional relevance of subtle small DNA methylation changes genome-wide, in particular for the CNS (MD model) and the immune system (early life viral infection model) ; and the evidence available, particularly from the glucocorticoid of the cascade of events initiated by such subtle methylation changes, as well as addressing the underlying question as to what represents a genuine biologically significant difference in methylation.
Die Beschäftigung mit dem Luxemburgischen unter phraseologischem Gesichtspunkt ist ein Phänomen der jüngsten Forschungen, das erst im Laufe der letzten beiden Jahrzehnte vermehrt Aufmerksam gefunden hat. Trotz einer bereits soliden Grundsteinlegung bietet die Phraseologie des Luxemburgischen noch reichlich Untersuchungsfläche. Die Dissertation "Formelhafte Sprache in der Chambre des Députés: Eine empirische Untersuchung der Phrasemverwendung im Luxemburgischen anhand der öffentlichen Sitzungsprotokolle der Abgeordnetenkammer" befasst sich mit dem Gebrauch des Luxemburgischen in politischen Reden, mit Schwerpunkt auf formelhafter Sprache, sogenannten Phraseologismen, wie etwa Routineformeln (z. B.: Dir Dammen an Dir Hären…; wéi scho gesot…), Sprichwörter (z. B.: Déi aarm Leit kache mat Waasser; Wie schnell geet, geet duebel), Paarformeln (z. B.: de Sënn an den Zweck; ëmmer an iwwerall), komparative Phraseologismen (z. B.: eppes läit engem um Mo wéi eng Zill) und andere vorgefertigte Sprachelemente, die meistens in einer verfestigten Form vorkommen und häufig dazu dienen, bestimmte Kommunikationssituationen zu bewältigen. In diesen Reden spielen Phraseologismen unbestreitbar eine wichtige Rolle, seien es bewusst eingesetzte Wortverbindungen, die rhetorisch überzeugen sollen oder unbewusst vorkommende Phraseologismen, die den Redefluss und die Formulierung erleichtern. Zudem zeigt die Formelhaftigkeit sich in dieser Textsorte umso stärker, weil es in den Sitzungen der Abgeordnetenkammer, ebenso wie in anderen Parlamenten auch, eine Fülle von fest vorgeschriebenen Abläufen und festgelegte Rollen mit eigenen ritualisierten Redeanteilen gibt. Die in den stenographischen Protokollen aufgezeichneten Reden und Debatten aus dem luxemburgischen Parlament bilden also die Grundlage der Untersuchung. Im Vorfeld wurde ein Untersuchungkorpus zusammengestellt, indem die betreffenden Sprachelemente (Phraseme) manuell exzerpiert wurden. Diese wurden in eine Datenbank eingetragen, nach mehreren Kriterien klassifiziert und mit zusätzlichen Metainformationen angereichert. Der Hauptteil der Untersuchung besteht in der Analyse der im Textkorpus vorkommenden Phraseme innerhalb ihres Kontextes in den Abgeordnetenreden, um die unterschiedlichen (stilistischen, rhetorischen, etc.) Funktionen und Effekte herauszuarbeiten, die sie in den jeweiligen Redestellen erfüllen. Dieses Vorgehen ist von großer Bedeutung, um zu erkennen, wie wichtig solche verfestigten Ausdrücke und formelhaften Elemente für die Sprache sind und welche zentrale Rolle sie in den untersuchten Reden und im Luxemburgischen im Allgemeinen spielen. Daneben werden auch quantitative Aspekte untersucht (z. B. allgemeine Phraseologismenfrequenz; Verteilung auf unterschiedliche Phraseologismusklassen; Phrasemvorkommen in unterschiedlichen Zeitschnitten), damit die ausgewählten Texte auch mit anderen Textsorten oder mit Parlamentsreden aus anderen Sprachen vergleichbar sind hinsichtlich des Gebrauchs von formelhaften/phraseologischen Elementen.
Numerous RCTs demonstrate that cognitive behavioral therapy (CBT) for depression is effective. However, these findings are not necessarily representative of CBT under routine care conditions. Routine care studies are not usually subjected to comparable standardizations, e.g. often therapists may not follow treatment manuals and patients are less homogeneous with regard to their diagnoses and sociodemographic variables. Results on the transferability of findings from clinical trials to routine care are sparse and point in different directions. As RCT samples are selective due to a stringent application of inclusion/exclusion criteria, comparisons between routine care and clinical trials must be based on a consistent analytic strategy. The present work demonstrates the merits of propensity score matching (PSM), which offers solutions to reduce bias by balancing two samples based on a range of pretreatment differences. The objective of this dissertation is the investigation of the transferability of findings from RCTs to routine care settings.
Die organische Bodensubstanz (OBS) ist eine fundamentale Steuergröße aller biogeochemischen Prozesse und steht in engem Zusammenhang zu Kohlenstoffkreisläufen und globalem Klima. Die derzeitige Herausforderung der Ökosystemforschung ist die Identifizierung der für die Bodenqualität relevanten Bioindikatoren und deren Erfassung mit Methoden, die eine nachhaltige Nutzung der OBS in großem Maßstab überwachen und damit zu globalen Erderkundungsprogrammen beitragen können. Die fernerkundliche Technik der Vis-NIR Spektroskopie ist eine bewährte Methode für die Beurteilung und das Monitoring von Böden, wobei ihr Potential bezüglich der Erfassung biologischer und mikrobieller Bodenparameter bisher umstritten ist. Das Ziel der vorgestellten Arbeit war die quantitative und qualitative Untersuchung der OBS von Ackeroberböden mit unterschiedlichen Methoden und variierender raumzeitlicher Auflösung sowie die anschließende Bewertung des Potentials non-invasiver, spektroskopischer Methoden zur Erfassung ausgewählter Parameter dieser OBS. Dafür wurde zunächst eine umfassende lokale Datenbank aus chemischen, physikalischen und biologischen Bodenparametern und dazugehörigen Bodenspektren einer sehr heterogenen geologischen Region mit gemäßigten Klima im Südwesten Deutschlands erstellt. Auf dieser Grundlage wurde dann das Potential der Bodenspektroskopie zur Erfassung und Schätzung von Feld- und Geländedaten ausgewählter OBS Parameter untersucht. Zusätzlich wurde das Optimierungspotential der Vorhersagemodelle durch statistische Vorverarbeitung der spektralen Daten getestet. Die Güte der Vorhersagewahrscheinlichkeit gebräuchlicher fernerkundlicher Bodenparameter (OC, N) konnte für im Labor erhobene Hyperspektralmessungen durch statistische Optimierungstechniken wie Variablenselektion und Wavelet-Transformation verbessert werden. Ein zusätzliches Datenset mit mikrobiellen/labilen OBS Parametern und Felddaten wurde untersucht um zu beurteilen, ob Bodenspektren zur Vorhersage genutzt werden können. Hierzu wurden mikrobieller Kohlenstoff (MBC), gelöster organischer Kohlenstoff (DOC), heißwasserlöslicher Kohlenstoff (HWEC), Chlorophyll α (Chl α) und Phospholipid-Fettsäuren (PLFAs) herangezogen. Für MBC und DOC konnte abhängig von Tiefe und Jahreszeit eine mittlere Güte der Vorhersagewahrscheinlichkeit erreicht werden, wobei zwischen hohen und niedrigen Konzentration unterschieden werden konnte. Vorhersagen für OC und PLFAs (Gesamt-PLFA-Gehalt sowie die mikrobiellen Gruppen der Bakterien, Pilze und Algen) waren nicht möglich. Die beste Prognosewahrscheinlichkeit konnte für das Chlorophyll der Grünalgen an der Bodenoberfläche (0-1cm Bodentiefe) erzielt werden, welches durch Korrelation mit MBC vermutlich auch für dessen gute Vorhersagewahrscheinlichkeit verantwortlich war. Schätzungen des Gesamtgehaltes der OBS, abgeleitet durch OC, waren hingegen nicht möglich, was der hohen Dynamik der mikrobiellen OBS Parameter an der Bodenoberfläche zuzuschreiben ist. Das schränkt die Repräsentativität der spektralen Messung der Bodenoberfläche zeitlich ein. Die statistische Optimierungstechnik der Variablenselektion konnte für die Felddaten nur zu einer geringen Verbesserung der Vorhersagemodelle führen. Die Untersuchung zur Herkunft der organischen Bestandteile und ihrer Auswirkungen auf die Quantität und Qualität der OBS konnte die mikrobielle Nekromasse und die Gruppe der Bodenalgen als zwei mögliche weitere signifikante Quellen für die Entstehung und Beständigkeit der OBS identifizieren. Insgesamt wird der mikrobielle Beitrag zur OBS höher als gemeinhin angenommen eingestuft. Der Einfluss mikrobieller Bestandteile konnte für die OBS Menge, speziell in der mineralassoziierten Fraktion der OBS in Ackeroberböden, sowie für die OBS Qualität hinsichtlich der Korrelation von mikrobiellen Kohlenhydraten und OBS Stabilität gezeigt werden. Die genaue Quantifizierung dieser OBS Parameter und ihre Bedeutung für die OBS Dynamik sowie ihre Prognostizierbarkeit mittels spektroskopischer Methoden ist noch nicht vollständig geklärt. Für eine abschließende Beurteilung sind deshalb weitere Studien notwendig.
Studien zeigen, dass sowohl die genetische Prädisposition als auch Umweltfaktoren zu häufigen Erkrankungen - wie Schmerzerkrankungen oder psychiatrischen Störungen - beitragen. Molekulargenetische Studien legen nahe, dass ein Teil der Erblichkeit in häufigen genetischen Varianten zu finden ist. Die Untersuchung des Zusammenwirkens dieser Faktoren kann das Verständnis der Ätiologie dieser Erkrankungen erweitern, und neue Präventions- und Behandlungsansätze hervorbringen. In der vorliegenden Arbeit werden vier Studien präsentiert, in denen Umwelt- und genetische Risikofaktoren für psychische Erkrankungen und Schmerz untersucht wurden: In der ersten Studie (Kapitel II) wurden mögliche Wirkmechanismen von etablierten Risikofaktoren für psychiatrische Störungen " das Aufwachsen und Leben in städtischer Umgebung " mit bildgebenden Verfahren untersucht. Einen möglichen Mechanismus stellt der erhöhte soziale Stress in städtischer Umgebung dar. In dieser Studie unterliefen zwei Stichproben von gesunden Probanden zwei verschiedene soziale Stressparadigmen für die Anwendung im fMRT, wovon eines im Rahmen dieser Doktorarbeit entwickelt wurde (ScanSTRESS). Hierbei zeigte sich eine erhöhte Amygdalaaktivität bei Probanden, welche aktuell in der Stadt lebten, während die Aktivität des perigenualen anterioren Cingulums mit dem Aufwachsen in der Stadt assoziiert war. Diese Befunde legen nahe, dass die akute Stressverarbeitung durch Umweltfaktoren in sensiblen Phasen der Entwicklung des Nervensystems beeinflusst wird. In der zweiten Studie (Kapitel III), wurde die Modulierung des Einflusses der städtischen Umwelt auf die Stressverarbeitung durch eine Einzelnukleotid-Polymorphismus (SNP; rs324981) im Gen, welches für den Neuropeptid S (NPS) Rezeptor kodiert (NPSR1), untersucht. In einer Stichprobe, welche das ScanSTRESS-Paradigma absolvierte, konnte gezeigt werden, dass rs324981 " in Interaktion mit städtischem Aufwachsen " die Aktivität der rechten Amygdala beeinflusste. Diese Resultate legen nahe, dass das NPS-System in der menschlichen Stressreaktion involviert ist, und diese in Interaktion mit Umweltfaktoren beeinflusst. In der dritten Studie (Kapitel IV), wurde der Effekt der genetischen Variation von NPSR1 auf die zentralnervöse und endokrine Stressverarbeitung weitergehend untersucht. Da sowohl die Stressregulation, als auch psychiatrische Störungen stark geschlechtsspezifische Ausprägungen aufweisen, wurde die Interaktion von genetischer Variation in NPSR1 mit dem Geschlecht berücksichtigt. Hierfür wurde eine Stichprobe von 277 Probanden mit dem Trierer Sozialen Stresstest (TSST) und eine Stichprobe von 65 Probanden mit dem ScanSTRESS-Paradigma untersucht. Die Analyse zeigte die geschlechtsspezifische Assoziation einer Allel-Kombination (Haplotyp) von drei funktionalen SNPs (rs2530547, rs324981 und rs727162) mit der Cortisolantwort auf den TSST, und einen geschlechtsspezifischen Effekt von rs324981 auf die zentralnervösen Aktivierungsmuster. Diese Ergebnisse legen nahe, dass das Geschlecht die Effekte von genetischer Variation im NPS-System auf die Stressregulation moduliert. In der vierten Studie (Kapitel V), wurde der Einfluss der genetischen Prädisposition und Umweltfaktoren auf chronischen Schmerz nach einer Amputation untersucht. Hierfür wurde eine Studie an 122 Individuen durchgeführt, bei welchen zwei Gliedmaßen amputiert wurden. Das Auftreten und die Intensität von sowohl Phantom- als auch Stumpfschmerzen zeigten einen starken Zusammenhang mit der Ausprägung des selben Schmerztyps zwischen den beiden amputierten Körpergliedern, es waren aber nur moderate Zusammenhänge zwischen den beiden Schmerzarten zu beobachten. Dieses Ergebnis legt den Einfluss von sowohl spezifischen, als auch gemeinsamen (potentiell genetischen) Risikofaktoren für beide Schmerztypen nahe.
Flexibility and spatial mobility of labour are central characteristics of modern societies which contribute not only to higher overall economic growth but also to a reduction of interregional employment disparities. For these reasons, there is the political will in many countries to expand labour market areas, resulting especially in an overall increase in commuting. The picture of the various, unintended long-term consequences of commuting on individuals is, however, relatively unclear. Therefore, in recent years, the journey to work has gained high attention especially in the study of health and well-being. Empirical analyses based on longitudinal as well as European data on how commuting may affect health and well-being are nevertheless rare. The principle aim of this thesis is, thus, to address this question with regard to Germany using data from the Socio-Economic Panel. Chapter 2 empirically investigates the causal impact of commuting on absence from work due to sickness-related reasons. Whereas an exogenous change in commuting distance does not affect the number of absence days of those individuals who commute short distances to work, it increases the number of absence days of those employees who commute middle (25 " 49 kilometres) or long distances (50 kilometres and more). Moreover, our results highlight that commuting may deteriorate an individual- health. However, this effect is not sufficient to explain the observed impact of commuting on absence from work. Chapter 3 explores the relationship between commuting distance and height-adjusted weight and sheds some light on the mechanisms through which commuting might affect individual body weight. We find no evidence that commuting leads to excess weight. Compensating health behaviour of commuters, especially healthy dietary habits, could explain the non-relationship of commuting and height-adjusted weight. In Chapter 4, a multivariate probit approach is used to estimate recursive systems of equations for commuting and health-related behaviours. Controlling for potential endogeneity of commuting, the results show that long distance commutes significantly decrease the propensity to engage in health-related activities. Furthermore, unobservable individual heterogeneity can influence both the decision to commute and healthy lifestyle choices. Chapter 5 investigates the relationship between commuting and several cognitive and affective components of subjective well-being. The results suggest that commuting is related to lower levels of satisfaction with family life and leisure time which can largely be ascribed to changes in daily time use patterns, influenced by the work commute.
Erosion durch Regen und Wind schädigt fruchtbare Bodensubstanz irreversibel, verursacht weltweit riesige ökologische und sozio-ökonomische Schäden und ist eines der Hauptanliegen bezüglich Ökosystemdienstleistungen und Nahrungsmittelsicherheit. Die Quantifizierung von Abtragsraten ist immer noch höchst spekulativ, und fehlende empirische Daten führen zu großen Unsicherheiten von Risikoanalysemodellen. Als ein wesentlicher Grund für diese Unsicherheiten wird in dieser Arbeit die Prozesse der Beeinflussung von Wassererosion durch Wind und, im Speziellen, die Erosionsleistung von windbeeinflussten Regentropfen im Gegensatz zu windlosen Tropfen inklusive unterschiedlicher Oberflächenparameter beleuchtet. Der Forschungsansatz war experimentell-empirisch und beinhaltete die Entwicklung und Formulierung der Forschungshypothesen, die Konzeption und Durchführung von Experimenten mit einem mobilen Wind-Regenkanal, die Probenverarbeitung und Analyse sowie Interpretation der Daten. Die Arbeit gliedert sich in die Teile 1. "Bodenerosionsexperimente zu windbeeinflusstem Regen auf autochthonen und naturähnlichen Böden", 2. "Experimente zu Substratpartikeltransport durch windbeeinflussten Tropfenschlag" und 3. "Zusammenführung der Freiland- und Labortests". 1. Tests auf autochthonen degradierten Böden im semiariden Südspanien sowie auf kohäsionslosem sandigen Substrat wurden durchgeführt, um die relativen Auswirkungen von windbeeinflusstem Regen auf Oberflächenabflussbildung und Erosion zu untersuchen und zu quantifizieren. In der überwiegenden Anzahl der Versuche wurde klar eine Erhöhung der Erosionsraten festgestellt, was die Forschungshypothese, windbeeinflusster Regen sei erosiver als windloser Regen, deutlich bestätigte. Neben den stark erhöhten wurden auch niedrigere Abtragswerte gemessen, was zum einen die ausnehmende Relevanz der Oberflächenstrukturen und damit von in-situ- Experimenten belegte, zum anderen auf eine Erhöhung der Variabilität der Erosionsprozesse deutete. Diese Variabilität scheint zuzunehmen mit der Erhöhung der beteiligten Faktoren. 2. Ein sehr spezialisiertes Versuchsdesign wurde entwickelt und eingesetzt, um explizite Messungen der Tropfenschlagprozesse mit und ohne Windeinfluss durchzuführen. Getestet wurden die Erosionsagenzien Regen, Wind und windbeeinflusster Regen sowie drei Neigungen, drei Rauheiten und zwei Substrate. Alle Messergebnisse zeigten eine klare windinduzierte Erhöhung der Erosion um bis zu zwei Größenordnungen gegenüber windlosem Tropfenschlag und Wind. Windbeeinflusster Regen wird durch die gesteigerte Transportmenge und Weite als wesentlicher Erosionsfaktor bestätigt und ist damit ein Schlüsselparameter bei der Quantifizierung von globaler Bodenerosion, Erstellung von Sedimentbudgets und bei der Erforschung von Connectivity. Die Daten sind von hervorragender Qualität und sowohl für anspruchsvollere Analysemethoden (multivariate Statistik) als auch für Modellierungsansätze geeignet. 3. Eine Synthese aus Feld- und Laborversuchen (darunter auch ein bis dato unveröffentlichtes Versuchsset) inklusive einer statistischen Analyse bestätigt WDR als den herausragenden Faktor, der alle anderen Faktoren überlagert. Die Zusammenführung der beiden komplementären Experimentgruppen bringt die Forschungsreihe zu windbeeinflusstem Regen auf eine weiterführende Ebene, indem die Messergebnisse in einen ökologischen Zusammenhang gesetzt werden. Eine vorsichtige Projektion auf Landschaftsebene ermöglicht einen Einblick in die Risikobewertung von Bodenerosion durch windbeeinflussten Regen. Es wird deutlich, dass er sich gerade auch im Zusammenhang mit den durch den Klimawandel verstärkt auftretenden Regensturmereignissen katastrophal auf Bodenerosionsraten auszuwirken kann und dringend in die Bodenerosionsmodellierung integriert werden muss.
Epistemologische Überzeugungen sind Annahmen über die Struktur und Richtigkeit von Wissen sowie den Prozess des Wissenserwerbs. Der Autor stellt diesbezüglich Zusammenhänge von psychologischen und philosophischen Konzepten her und argumentiert dabei vom Standpunkt des kritischen Realismus. Außerdem werden, aufgrund empirisch gewonnener Hinweise, die Variabilität wissenschaftstheoretischer und epistemologischer Überzeugungen sowie deren Zusammenhänge zu Leistungsmotivation, Lernzielen und Lernstrategien bei Studenten beschrieben.
In recent decades, the Arctic has been undergoing a wide range of fast environmental changes. The sea ice covering the Arctic Ocean not only reacts rapidly to these changes, but also influences and alters the physical properties of the atmospheric boundary layer and the underlying ocean on various scales. In that regard, polynyas, i.e. regions of open water and thin ice within thernclosed pack ice, play a key role as being regions of enhanced atmosphere-ice-ocean interactions and extensive new ice formation during winter. A precise long-term monitoring and increased efforts to employ long-term and high-resolution satellite data is therefore of high interest for the polar scientific community. The retrieval of thin-ice thickness (TIT) fields from thermal infrared satellite data and atmospheric reanalysis, utilizing a one-dimensional energy balance model, allows for the estimation of the heat loss to the atmosphere and hence, ice-production rates. However, an extended application of this approach is inherently connected with severe challenges that originate predominantly from the disturbing influence of clouds and necessary simplifications in the model set-up, which all need to be carefully considered and compensated for. The presented thesis addresses these challenges and demonstrates the applicability of thermal infrared TIT distributions for a long-term polynya monitoring, as well as an accurate estimation of ice production in Arctic polynyas at a relatively high spatial resolution. Being written in a cumulative style, the thesis is subdivided into three parts that show the consequent evolution and improvement of the TIT retrieval, based on two regional studies (Storfjorden and North Water (NOW) polynya) and a final large-scale, pan-Arctic study. The first study on the Storfjorden polynya, situated in the Svalbard archipelago, represents the first long-term investigation on spatial and temporal polynya characteristics that is solely based on daily TIT fields derived from MODIS thermal infrared satellite data and ECMWF ERA-Interim atmospheric reanalysis data. Typical quantities such as polynya area (POLA), the TIT distribution, frequencies of polynya events as well as the total ice production are derived and compared to previous remote sensing and modeling studies. The study includes a first basic approach that aims for a compensation of cloud-induced gaps in daily TIT composites. This coverage-correction (CC) is a mathematically simple upscaling procedure that depends solely on the daily percentage of available MODIS coverage and yields daily POLA with an error-margin of 5 to 6 %. The NOW polynya in northern Baffin Bay is the main focus region of the second study, which follows two main goals. First, a new statistics-based cloud interpolation scheme (Spatial Feature Reconstruction - SFR) as well as additional cloud-screening procedures are successfully adapted and implemented in the TIT retrieval for usage in Arctic polynya regions. For a 13-yr period, results on polynya characteristics are compared to the CC approach. Furthermore, an investigation on highly variable ice-bridge dynamics in Nares Strait is presented. Second, an analysis of decadal changes of the NOW polynya is carried out, as the additional use of a suite of passive microwave sensors leads to an extended record of 37 consecutive winter seasons, thereby enabling detailed inter-sensor comparisons. In the final study, the SFR-interpolated daily TIT composites are used to infer spatial and temporal characteristics of 17 circumpolar polynya regions in the Arctic for 2002/2003 to 2014/2015. All polynya regions combined cover an average thin-ice area of 226.6 -± 36.1 x 10-³ km-² during winter (November to March) and yield an average total wintertime accumulated ice production of about 1811 -± 293 km-³. Regional differences in derived ice production trends are noticeable. The Laptev Sea on the Siberian shelf is presented as a focus region, as frequently appearing polynyas along the fast-ice edge promote high rates of new ice production. New affirming results on a distinct relation to sea-ice area export rates and hence, the Transpolar Drift, are shown. This new high-resolution pan-Arctic data set can be further utilized and build upon in a variety of atmospheric and oceanographic applications, while still offering room for further improvements such as incorporating high-resolution atmospheric data sets and an optimized lead-detection.
Die Dissertation beschäftigt sich mit der Wahrnehmung ländlicher Armut als räumlichem Phänomen und untersucht die Maßnahmen der Agrar-, Sozial- und Raumordnungspolitik, die als strukturpolitisch wirksam zur Bekämpfung sowie Vermeidung ländlicher Armut in den zeitgenössischen Diskursen angenommen wurden. Im Mittelpunkt der Analyse stehen dabei die traditionell landwirtschaftlich geprägten Bundesländer Rheinland-Pfalz und Baden-Württemberg. Untersucht wird, wie das ländliche Armutsproblem in Aussagen von Agrar- und Sozialpolitikern sowie Experten definiert und beschrieben wurde und welche Maßnahmen aufgrund dieser Annahmen als geeignet erschienen, Armut in den agrarwirtschaftlich geprägten Regionen zu bekämpfen. Die Forschungsarbeit basiert auf der Analyse und Bewertung von Förderprogrammen und Förderungshilfen von Bund, Ländern und Kommunen und untersucht diese auf ihre Wirksamkeit hinsichtlich der Existenzsicherung landwirtschaftlicher Betriebe im südwestdeutschen Raum zwischen 1949 und 1974. Ländliche Armut wird so als vor allem bäuerliche Armut beschrieben, die in den zeitgenössischen Diskursen als räumlich abgrenzbare Existenzgefährdung in sogenannten "strukturschwachen" Räumen konstruiert wurde. Im Zusammenhang mit der Untersuchung wirtschaftspolitischer Debatten werden die sozialpolitischen Probleme diskutiert, gesetzliche Durchführungsbestimmungen der Sozialpolitik auf ihre konkreten Ziele hinsichtlich Armutsbekämpfung auf dem Land untersucht sowie die Verflechtungen von Wirtschafts- und Sozialpolitik analysiert.
Im Zentrum der Dissertation steht der in Augsburg geborene Maler Joseph Heintz d.J. (1600-1678), der Anfang der 1620er Jahre nach Venedig auswanderte, wo er über fünfzig Jahre bis zu seinem Tod lebte und arbeitete, und zum Hauptvertreter der venezianischen Festmalerei des 17. Jahrhunderts avancierte. Der erste Teil widmet sich der Rekonstruktion der bisher nahezu unbekannten Biographie Joseph Heintz' d.J., sowie seines Kunden- und Auftraggeberkreises, und somit der sozialen Verortung des Künstlers in Venedig. Im zweiten Teil erfolgt die Analyse der Festmalerei Joseph Heintz' d.J. unter besonderer Berücksichtigung der venezianischen Festkultur als Manifestation der Staatsidentität. Heintz d.J. stellte in seinen Gemälden festliche Prozessionen und die Investiturzeremonien des Dogen ebenso dar wie weltliche Spektakel und volkstümliche Wettkämpfe. Durch die quellenbasierte Recherche, sowie die Kontextualisierung der Festgemälde, konnte eine Neubewertung Joseph Heintz" d.J. als bedeutender, gut vernetzter Künstler erfolgen, dessen Werke einen nicht zu unterschätzenden Einfluss auf die venezianischen Vedutisten des 18. Jahrhunderts hatten.
Earth observation (EO) is a prerequisite for sustainable land use management, and the open-data Landsat mission is at the forefront of this development. However, increasing data volumes have led to a "digital-divide", and consequently, it is key to develop methods that account for the most data-intensive processing steps, then used for the generation and provision of analysis-ready, standardized, higher-level (Level 2 and Level 3) baseline products for enhanced uptake in environmental monitoring systems. Accordingly, the overarching research task of this dissertation was to develop such a framework with a special emphasis on the yet under-researched drylands of Southern Africa. A fully automatic and memory-resident radiometric preprocessing streamline (Level 2) was implemented. The method was applied to the complete Angolan, Zambian, Zimbabwean, Botswanan, and Namibian Landsat record, amounting 58,731 images with a total data volume of nearly 15 TB. Cloud/shadow detection capabilities were improved for drylands. An integrated correction of atmospheric, topographic and bidirectional effects was implemented, based on radiative theory with corrections for multiple scatterings, and adjacency effects, as well as including a multilayered toolset for estimating aerosol optical depth over persistent dark targets or by falling back on a spatio-temporal climatology. Topographic and bidirectional effects were reduced with a semi-empirical C-correction and a global set of correction parameters, respectively. Gridding and reprojection were already included to facilitate easy and efficient further processing. The selection of phenologically similar observations is a key monitoring requirement for multi-temporal analyses, and hence, the generation of Level 3 products that realize phenological normalization on the pixel-level was pursued. As a prerequisite, coarse resolution Land Surface Phenology (LSP) was derived in a first step, then spatially refined by fusing it with a small number of Level 2 images. For this purpose, a novel data fusion technique was developed, wherein a focal filter based approach employs multi-scale and source prediction proxies. Phenologically normalized composites (Level 3) were generated by coupling the target day (i.e. the main compositing criterion) to the input LSP. The approach was demonstrated by generating peak, end and minimum of season composites, and by comparing these with static composites (fixed target day). It was shown that the phenological normalization accounts for terrain- and land cover class-induced LSP differences, and the use of Level 2 inputs enables a wide range of monitoring options, among them the detection of within state processes like forest degradation. In summary, the developed preprocessing framework is capable of generating several analysis-ready baseline EO satellite products. These datasets can be used for regional case studies, but may also be directly integrated into more operational monitoring systems " e.g. in support of the Reducing Emissions from Deforestation and Forest Degradation (REDD) incentive. In reference to IEEE copyrighted material which is used with permission in this thesis, the IEEE does not endorse any of Trier University's products or services. Internal or personal use of this material is permitted. If interested in reprinting/republishing IEEE copyrighted material for advertising or promotional purposes or for creating new collective works for resale or redistribution, please go to http://www.ieee.org/publications_standards/publications/rights/rights_link.html to learn how to obtain a License from RightsLink.
In dieser Arbeit untersuchen wir das Optimierungsproblem der optimalen Materialausrichtung orthotroper Materialien in der Hülle von dreidimensionalen Schalenkonstruktionen. Ziel der Optimierung ist dabei die Minimierung der Gesamtnachgiebigkeit der Konstruktion, was der Suche nach einem möglichst steifen Design entspricht. Sowohl die mathematischen als auch die mechanischen Grundlagen werden in kompakter Form zusammengetragen und basierend darauf werden sowohl gradientenbasierte als auch auf mechanischen Prinzipien beruhende, neue Erweiterungen punktweise formulierter Optimierungsverfahren entwickelt und implementiert. Die vorgestellten Verfahren werden anhand des Beispiels des Modells einer Flugzeugtragfläche mit praxisrelevanter Problemgröße getestet und verglichen. Schließlich werden die untersuchten Methoden in ihrer Koppelung mit einem Verfahren zur Topologieoptimierung, basierend auf dem topologischen Gradienten untersucht.
Monetary Policy During Times of Crisis - Frictions and Non-Linearities in the Transmission Mechanism
(2017)
For a long time it was believed that monetary policy would be able to maintain price stability and foster economic growth during all phases of the business cycle. The era of the Great Moderation, often also called the Volcker-Greenspan period, beginning in the mid 1980s was characterized by a decline in volatility of output growth and inflation among the industrialized countries. The term itself is first used by Stock and Watson (2003). Economist have long studied what triggered the decline in volatility and pointed out several main factors. An important research strand points out structural changes in the economy, such as a decline of volatility in the goods producing sector through better inventory controls and developments in the financial sector and government spending (McConnell2000, Blanchard2001, Stock2003, Kim2004, Davis2008). While many believed that monetary policy was only 'lucky' in terms of their reaction towards inflation and exogenous shocks (Stock2003, Primiceri2005, Sims2006, Gambetti2008), others reveal a more complex picture of the story. Rule based monetary policy (Taylor1993) that incorporates inflation targeting (Svensson1999) has been identified as a major source of inflation stabilization by increasing transparency (Clarida2000, Davis2008, Benati2009, Coibion2011). Apart from that, the mechanics of monetary policy transmission have changed. Giannone et al. (2008) compare the pre-Great Moderation era with the Great Modertation and find that the economies reaction towards monetary shocks has decreased. This finding is supported by Boivin et al. (2011). Similar to this, Herrera and Pesavento (2009) show that monetary policy during the Volcker-Greenspan period was very effective in dampening the effects of exogenous oil price shocks on the economy, while this cannot be found for the period thereafter. Yet, the subprime crisis unexpectedly hit worldwide economies and ended the era of Great Moderation. Financial deregulation and innovation has given banks opportunities for excessive risk taking, weakened financial stability (Crotty2009, Calomiris2009) and led to the build-up of credit-driven asset price bubbles (SchularickTaylor2012). The Federal Reserve (FED), that was thought to be the omnipotent conductor of price stability and economic growth during the Great Moderation, failed at preventing a harsh crisis. Even more, it did intensify the bubble with low interest rates following the Dotcom crisis of the early 2000s and misjudged the impact of its interventions (Taylor2009, Obstfeld2009). New results give a more detailed explanation on the question of latitude for monetary policy raised by Bernanke and suggest the existence of non-linearities in the transmission of monetary policy. Weise (1999), Garcia and Schaller (2002), Lo and Piger (2005), Mishkin (2009), Neuenkirch (2013) and Jannsen et al. (2015) find that monetary policy is more potent during times of financial distress and recessions. Its effectiveness during 'normal times' is much weaker or even insignificant. This prompts the question if these non-linearities limit central banks ability to lean against bubbles and financial imbalances (White2009, Walsh2009, Boivin2010, Mishkin2011).
This dissertation looked at both design-based and model-based estimation for rare and clustered populations using the idea of the ACS design. The ACS design (Thompson, 2012, p. 319) starts with an initial sample that is selected by a probability sampling method. If any of the selected units meets a pre-specified condition, its neighboring units are added to the sample and observed. If any of the added units meets the pre-specified condition, its neighboring units are further added to the sample and observed. The procedure continues until there are no more units that meet the pre-specified condition. In this dissertation, the pre-specified condition is the detection of at least one animal in a selected unit. In the design-based estimation, three estimators were proposed under three specific design setting. The first design was stratified strip ACS design that is suitable for aerial or ship surveys. This was a case study in estimating population totals of African elephants. In this case, units/quadrant were observed only once during an aerial survey. The Des Raj estimator (Raj, 1956) was modified to obtain an unbiased estimate of the population total. The design was evaluated using simulated data with different levels of rarity and clusteredness. The design was also evaluated on real data of African elephants that was obtained from an aerial census conducted in parts of Kenya and Tanzania in October (dry season) 2013. In this study, the order in which the samples were observed was maintained. Re-ordering the samples by making use of the Murthy's estimator (Murthy, 1957) can produce more efficient estimates. Hence a possible extension of this study. The computation cost resulting from the n! permutations in the Murthy's estimator however, needs to be put into consideration. The second setting was when there exists an auxiliary variable that is negatively correlated with the study variable. The Murthy's estimator (Murthy, 1964) was modified. Situations when the modified estimator is preferable was given both in theory and simulations using simulated and two real data sets. The study variable for the real data sets was the distribution and counts of oryx and wildbeest. This was obtained from an aerial census that was conducted in parts of Kenya and Tanzania in October (dry season) 2013. Temperature was the auxiliary variable for two study variables. Temperature data was obtained from R package raster. The modified estimator provided more efficient estimates with lower bias compared to the original Murthy's estimator (Murthy, 1964). The modified estimator was also more efficient compared to the modified HH and the modified HT estimators of (Thompson, 2012, p. 319). In this study, one auxiliary variable is considered. A fruitful area for future research would be to incorporate multi-auxiliary information at the estimation phase of an ACS design. This could, in principle, be done by using for instance a multivariate extension of the product estimator (Singh, 1967) or by using the generalized regression estimator (Särndal et al., 1992). The third case under design-based estimation, studied the conjoint use of the stopping rule (Gattone and Di Battista, 2011) and the use of the without replacement of clusters (Dryver and Thompson, 2007). Each of these two methods was proposed to reduce the sampling cost though the use of the stopping rule results in biased estimates. Despite this bias, the new estimator resulted in higher efficiency gain in comparison to the without replacement of cluster design. It was also more efficient compared to the stratified design which is known to reduce final sample size when networks are truncated at stratum boundaries. The above evaluation was based on simulated and real data. The real data was the distribution and counts of hartebeest, elephants and oryx obtained in the same census as above. The bias attributed by the stopping rule has not been evaluated analytically. This may not be direct since the truncated network formed depends on the initial unit sampled (Gattone et al., 2016a). This and the order of the bias however, deserves further investigation as it may help in understanding the effect of the increase in the initial sample size together with the population characteristics on the efficiency of the proposed estimator. Chapter four modeled data that was obtained using the stratified strip ACS (as described in sub-section (3.1)). This was an extension of the model of Rapley and Welsh (2008) by modeling data that was obtained from a different design, the introduction of an auxiliary variable and the use of the without replacement of clusters mechanism. Ideally, model-based estimation does not depend on the design or rather how the sample was obtained. This is however, not the case if the design is informative; such as the ACS design. In this case, the procedure that was used to obtain the sample was incorporated in the model. Both model-based and design-based simulations were conducted using artificial and real data. The study and the auxiliary variable for the real data was the distribution and counts of elephants collected during an aerial census in parts of Kenya and Tanzania in October (dry season) and April (wet season) 2013 respectively. Areas of possible future research include predicting the population total of African elephants in all parks in Kenya. This can be achieved in an economical and reliable way by using the theory of SAE. Chapter five compared the different proposed strategies using the elephant data. Again the study variable was the elephant data from October (dry season) 2013 and the auxiliary variable was the elephant data from April (wet season) 2013. The results show that the choice of particular strategy to use depends on the characteristic of the population under study and the level and the direction of the correlation between the study and the auxiliary variable (if present). One general area of the ACS design that is still behind, is the implementation of the design in the field especially on animal populations. This is partly attributed by the challenges associated with the field implementation, some of which were discussed in section 2.3. Green et al. (2010) however, provides new insights in undertaking the ACS design during an aerial survey such as how the aircraft should turn while surveying neighboring units. A key point throughout the dissertation is the reduction of cost during a survey which can be seen by the reduction in the number of units in the final sample (through the use of stopping rule, use of stratification and truncating networks at stratum boundaries) and ensuring that units are observed only once (by using the without replacement of cluster sampling technique). The cost of surveying an edge unit(s) is assumed to be low in which case the efficiency of the ACS design relative to the non-adaptive design is achieved (Thompson and Collins, 2002). This is however not the case in aerial surveys as the aircraft flies at constant speed and height (Norton-Griffiths, 1978). Hence the cost of surveying an edge unit is the same as the cost of surveying a unit that meets the condition of interest. The without replacement of cluster technique plays a greater role of reducing the cost of sampling in such surveys. Other key points that motivated the sections in the dissertation include gains in efficiency (in all sections) and practicability of the designs in the specific setting. Even though the dissertation focused on animal populations, the methods can as well be implemented in any population that is rare and clustered such as in the study of forestry, plants, pollution, minerals and so on.
The development of our society contributed to increased occurrence of emerging substances (pesticides, pharmaceuticals, personal care products, etc.) in wastewater. Because of their potential hazard on ecosystems and humans, Wastewater Treatment Plants (WWTPs) need to adapt to better remove these compounds. Technology or policy development should however comply with sustainable development, e.g. based on Life Cycle Assessment (LCA) metrics. Nevertheless, the reliability or consistency of LCA results can sometimes be debatable. The main objective of this work was to explore how LCA can better support the implementation of innovative wastewater treatment options, in particular including removal benefits. The method was applied to support solutions for pharmaceuticals elimination from wastewater, regarding: (i) UV technology design, (ii) choice of advanced technology and (iii) centralized or decentralized treatment policy. The assessment approach followed by previous authors based on net impacts calculation seemed very promising to consider both environmental effects induced by treatment plant operation and environmental benefits obtained from pollutants removal. It was therefore applied to compare UV configuration types. LCA outcomes were consistent with degradation kinetics analysis. For the comparison of advanced technologies and policy scenarios, the common practice (net impacts based on EDIP method) was compared to other assessments, to better consider elimination benefits. First, USEtox consensus was applied for the avoided (eco)toxicity impacts, in combination with the recent method ReCiPe for generated impacts. Then, an eco-efficiency indicator (EFI) was developed to weigh the treatment efforts (generated impacts based on EDIP and ReCiPe methods) by the average removal efficiency (overcoming (eco)toxicity uncertainty issues). In total, the four types of comparative assessment showed the same trends: (i) ozonation and activated carbon perform better than UV irradiation, and (ii) no clear advantage distinguished between policy scenarios. It cannot be however concluded that advanced treatment of pharmaceuticals is not necessary because other criteria should be considered (risk assessment, bacterial resistance, etc.) and large uncertainties were embedded in calculations. Indeed, a significant part of this work was dedicated to the discussion of uncertainty and limitations of the LCA outcomes. At the inventory level, it was difficult to model technology operation at development stage. For impact assessment, the newly developed characterization factors for pharmaceuticals (eco)toxicity showed large uncertainties, mainly due to the lack of data and quality for toxicity tests. The use of information made available under REACH framework to develop CFs for detergent ingredients tried to cope with this issue but the benefits were limited due to the mismatch of information between REACH and USEtox method. The highlighted uncertainties were treated with sensitivity analyses to understand their effects on LCA results. This research work finally presents perspectives on the use of transparently generated data (technology inventory and (eco)toxicity factors) and further development of EFI indicator. Also, an accent is made on increasing the reliability of LCA outcomes, in particular through the implementation of advanced techniques for uncertainty management. To conclude, innovative technology/product development (e.g. based on circular economy approach) needs the involvement of all types of actors and the support from sustainability metrics.
Educational assessment tends to rely on more or less standardized tests, teacher judgments, and observations. Although teachers spend approximately half of their professional conduct in assessment-related activities, most of them enter their professional life unprepared, as classroom assessment is often not part of their educational training. Since teacher judgments matter for the educational development of students, the judgments should be up to a high standard. The present dissertation comprises three studies focusing on accuracy of teacher judgments (Study 1), consequences of (mis-)judgment regarding teacher nomination for gifted programming (Study 2) and teacher recommendations for secondary school tracks (Study 3), and individual student characteristics that impact and potentially bias teacher judgment (Studies 1 through 3). All studies were designed to contribute to a further understanding of classroom assessment skills of teachers. Overall, the results implied that, teacher judgment of cognitive ability was an important constant for teacher nominations and recommendations but lacked accuracy. Furthermore, teacher judgments of various traits and school achievement were substantially related to social background variables, especially the parents" educational background. However, multivariate analysis showed social background variables to impact nomination and recommendation only marginally if at all. All results indicated differentiated but potentially biased teacher judgments to impact their far-reaching referral decisions directly, while the influence of social background on the referral decisions itself seems mediated. Implications regarding further research practices and educational assessment strategies are discussed. The implications on the needs of teachers to be educated on judgment and educational assessment are of particular interest and importance.
The main achievement of this thesis is an analysis of the accuracy of computations with Loader's algorithm for the binomial density. This analysis in later progress of work could be used for a theorem about the numerical accuracy of algorithms that compute rectangle probabilities for scan statistics of a multinomially distributed random variable. An example that shall illustrate the practical use of probabilities for scan statistics is the following, which arises in epidemiology: Let n patients arrive at a clinic in d = 365 days, each of the patients with probability 1/d at each of these d days and all patients independently from each other. The knowledge of the probability, that there exist 3 adjacent days, in which together more than k patients arrive, helps deciding, after observing data, if there is a cluster which we would not suspect to have occurred randomly but for which we suspect there must be a reason. Formally, this epidemiological example can be described by a multinomial model. As multinomially distributed random variables are examples of Markov increments, which is a fact already used implicitly by Corrado (2011) to compute the distribution function of the multinomial maximum, we can use a generalized version of Corrado's Algorithm to compute the probability described in our example. To compute its result, the algorithm for rectangle probabilities for Markov increments always uses transition probabilities of the corresponding Markov Chain. In the multinomial case, the transition probabilities of the corresponding Markov Chain are binomial probabilities. Therefore, we start an analysis of accuracy of Loader's algorithm for the binomial density, which for example the statistical software R uses. With the help of accuracy bounds for the binomial density we would be able to derive accuracy bounds for the computation of rectangle probabilities for scan statistics of multinomially distributed random variables. To figure out how sharp derived accuracy bounds are, in examples these can be compared to rigorous upper bounds and rigorous lower bounds which we obtain by interval-arithmetical computations.
Unternehmen aus güterproduzierenden Industrien und Sektoren entdecken in immer stärkerem Maße das Differenzierungs- und Erlöspotenzial des Angebots ergänzender Dienstleistungen zur Erlangung von strategischen Wettbewerbsvorteilen. In vielen Branchen ist dies bereits ein notwendiger Bestandteil im Angebotsportfolios der Hersteller um sich zu positionieren und wettbewerbsfähig zu bleiben. Ein besonders prägnantes Beispiel stellt die Automobilbranche dar, die schon vor Jahren begonnen hat in ihr Geschäftsmodell um das Kernprodukt "Automobil" auch sog. produktbegleitende Dienstleistungen (wie beispielsweise Finanzierungsdienstleistungen) zu integrieren, um sich durch Erhöhung des Kundennutzens von den Angeboten der Mitbewerber zu differenzieren. Vor dem Hintergrund, dass Marketingkonstrukte, wie Marke, Reputation, Kundenloyalität, aber auch technische Spezifikationen wie Motorisierung, Ausstattung und Zubehör die Fahrzeugwahl beeinflussen, stellt sich die Autorin die Frage, inwiefern ein Zusatzangebot von reinen produktbegleitenden Dienstleistungen einen Einfluss auf die Marken- und Fahrzeugwahl beim Autokauf hat. In diesem Zusammenhang ist ein Forschungsziel der vorliegenden Untersuchung die Konzeption einer branchenunabhängigen Wertschöpfungskette für produktbegleitende Dienstleistungen, um eine Identifikation des strategischen Differenzierungspotenzials produktbegleitender Dienstleistungen zu ermöglichen. Den Bezugsrahmen der Forschungsarbeit wird dabei aus Perspektive des Endkonsumenten bei der Automobilkaufentscheidung konstruiert, um Aussagen zur Wahrnehmung existierender Angebote produktbegleitender Dienstleistungen den individuellen Phasen der Kaufentscheidung zuordnen zu können. Dies bildet das methodische Fundament dieses empirisch geprägten Forschungsbeitrags, um die folgende Frage der Untersuchung beantworten zu können: "Haben produktbegleitende Dienstleistungen einen Einfluss auf die Kaufwahrscheinlichkeit beim konsumentenseitigen Kaufentscheidungsprozess bei Automobilen im Segment des Privat-PKW?" Als Forschungsstrategie wird die Anwendung der Kausalanalyse gewählt, um anhand zwei aufeinander aufbauenden Primärerhebungen (quantitative Datenerhebung anhand eines Online-Fragebogens) potenzielle Autokäufer hinsichtlich ihres Wissens und ihrer Wahrnehmung bezüglich produktbegleitender Dienstleistungen der einzelnen Automobilherstellermarken zu untersuchen. Die Ergebnisse der Datenauswertung lassen die Schlussfolgerung zu, dass produktbegleitende Dienstleistungen zwar einen positiven Einfluss auf die Kaufentscheidung beim potentiellen Automobilkäufer ausüben, jedoch aufseiten der Automobilhersteller und -händler durchaus großes Verbesserungspotenzial bezüglich der Kommunikation von solchen Value-Added-Leistungen vorliegt. Die vorliegende Dissertationsschrift wurde am Lehrstuhl für Organisation und Strategisches Dienstleistungsmanagement verfasst und beim Fachbereich IV der Universität Trier eingereicht.
Psychotherapie hat sich in der Behandlung psychischer Störungen als wirksam erwiesen. Im Rahmen der klinisch-psychologischen Forschung und der Psychotherapieforschung sind die Erforschung von Ursachen und Mechanismen psychischer Störungen sowie die Identifikation von Wirkmechanismen von Psychotherapie von zentraler Bedeutung. Wichtiges Element in der Psychotherapie ist die Sprache, sodass die Betrachtung von Sprache bereits sehr früh Eingang in die Forschung fand. Beschäftigten sich frühe Forschungsarbeiten jedoch hauptsächlich mit der sehr zeitaufwendigen qualitativen Auswertung von Sprache, ermöglichen Entwicklungen im Bereich der Computer neue Ansätze wie beispielsweise die quantitative Sprachanalyse mittels Programmen wie dem Linguistic Inquiry and Word Count (LIWC). Dieses wörterbuchbasierte Auswertungsprogramm fand Anwendung in den unterschiedlichsten Bereichen wie beispielsweise der Erforschung von Motiven, Gruppenprozessen, Sprache in sozialen Netzwerken und ersten subklinischen Untersuchungen psychischer Störungen. Eine systematische Anwendung auf die Sprache von Patienten und Therapeuten im Rahmen vollständiger Therapiesitzung ist bislang jedoch nicht bekannt. Ziel der vorliegenden Arbeit war es deshalb in drei Projekten die Anwendbarkeit des Programmes in der klinisch-psychologischen Forschung und Psychotherapieforschung zu untersuchen. Das erste Projekt beschäftigte sich mit der Psychometrie von mittels LIWC ausgewerteter Sprache und fand, dass die Erkennungsraten des Wörterbuchs für die Sprache in Therapiesitzungen über den in der Literatur für das deutsche LIWC berichteten Erkennungsraten jedoch unter denen der aktuellsten englischen Versionen lag. Außerdem wurde angenommen, dass Sprache sowohl eine zeitlich stabile Komponente im Sinne eines Persönlichkeitsmerkmals als auch eine situative Komponente besitzt. Dies ist insbesondere vor dem Hintergrund relevant in der Psychotherapieforschung sowohl Patientenmerkmale als auch Veränderungen abbilden zu wollen. Die Arbeit ging davon aus, dass insbesondere Funktionsworte, also Worte, die Sprache strukturieren jedoch keine inhaltliche Bedeutung besitzen, eher individuell stabil sind, als Inhaltsworte. Entsprechend konnten für einige Wortkategorien ein Bifaktor-Modell mit einem Personen- sowie einem Zeitfaktor und adäquate Omega-Werte als Maß der Messgenauigkeit gefunden werden, für andere Kategorien zeigte sich dies nicht. Hypothesenkonform zeigten die Modelle bessere Passungen für Funktionsworte. Bezüglich der Frage nach der benötigten Länge von Sprachausschnitten aus Therapiesitzung erwies sich die Verwendung der gesamten Sitzung als beste Lösung. Im zweiten Projekt wurden Unterschiede in der Verwendung von Sprache zwischen depressiven Patienten, Patienten mit Angststörung und solchen mit beiden Störungsbildern untersucht. Es zeigten sich Unterschiede in Bezug auf Worte im Zusammenhang mit Traurigkeit und Worte im Zusammenhang mit Angst. Die Unterschiede zeigten sich derart, dass Depressive vermehrt mit Traurigkeit assoziierte Worte verwendeten, wohingegen Angstpatienten verstärkt Worte aus dem Bereich Angst verwendeten. Dies spricht für eine unterschiedliche inhaltliche Orientierung der beiden Störungsbilder. Darüber hinaus zeigten sich bei dimensionaler Betrachtung negative Zusammenhänge zwischen der Gesamtbelastung und Optimismus, positive Zusammenhänge Depression und Pronomengebrauch sowie negative Zusammenhänge zwischen Angst und unterschiedlichen Kategorien sozialer Worte. Im dritten Projekt wurden unterschiedliche weitere Fragestellungen der Psychotherapieforschung wie beispielsweise die Prädiktion von Therapieerfolgt mittels Sprache oder Zusammenhänge zwischen sprachlicher Synchronizität und der therapeutischen Beziehung untersucht. Es zeigten sich einzelne Zusammenhänge allerdings ergab sich kein einheitliches Muster. Die vorliegende Arbeit kommt zusammenfassend zu dem Schluss, dass quantitative Sprachanalyse eine Bereicherung der Psychotherapieforschung darstellt und Sprache als Datenquelle Berücksichtigung finden sollte. Allerdings bedarf es der Weiterentwicklung des LIWC sowie der Erprobung weiterer Verfahren und eine routinemäßige Erhebung von Sprache wird voraussichtlich erst im Zuge neuerer Entwicklungen im Bereich der automatischen Spracherkennung möglich werden.
Phase-amplitude cross-frequency coupling is a mechanism thought to facilitate communication between neuronal ensembles. The mechanism could underlie the implementation of complex cognitive processes, like executive functions, in the brain. This thesis contributes to answering the question, whether phase-amplitude cross-frequency coupling - assessed via electroencephalography (EEG) - is a mechanism by which executive functioning is implemented in the brain and whether an assumed performance effect of stress on executive functioning is reflected in phase-amplitude coupling strength. A huge body of studies shows that stress can influence executive functioning, in essence having detrimental effects. In two independent studies, each being comprised of two core executive function tasks (flexibility and behavioural inhibition as well as cognitive inhibition and working memory), beta-gamma phase-amplitude coupling was robustly detected in the left and right prefrontal hemispheres. No systematic pattern of coupling strength modulation by either task demands or acute stress was detected. Beta-gamma coupling might also be present in more basic attention processes. This is the first investigation of the relationship between stress, executive functions and phase-amplitude coupling. Therefore, many aspects have not been explored yet. For example, studying phase precision instead of coupling strength as an indicator for phase-amplitude coupling modulations. Furthermore, data was analysed in source space (independent component analysis); comparability to sensor space has still to be determined. These as well as other aspects should be investigated, due to the promising finding of very robust and strong beta-gamma coupling for all executive functions. Additionally, this thesis tested the performance of two widely used phase-amplitude coupling measures (mean vector length and modulation index). Both measures are specific and sensitive to coupling strength and coupling width. The simulation study also drew attention to several confounding factors, which influence phase-amplitude coupling measures (e. g. data length, multimodality).
Die sich entwickelnden mittelalterlichen Städte waren Triebfedern für vielfältige sprachliche Entwicklungen. Der in dieser Arbeit gewählte Untersuchungszeitraum von 1388 bis 1500 beleuchtet eine Zeit, in der sich in vielen Städten ein völlig neues System der Namengebung entwickelte. Dies wurde nötig, weil es in einer heterogenen Gesellschaft zunehmend schwieriger wurde, Individuen über ihren Rufnamen eindeutig zu identifizieren, was vor allem im Bereich des Rechts und der Verwaltung zu Problemen führte. Somit mussten neue Wege gefunden werden, um einen Namen in einem schriftlich verfassten und rechtsgültigen Dokument eindeutig einer Person zuordnen zu können. Basis dieser Untersuchung sind die Rechnungsbücher der Stadt Luxemburg, die in jährlichen Berichten penibel die Einnahmen und Ausgaben der Stadt verzeichnen. Tätigkeiten im Dienst der Stadtgemeinschaft wurde entlohnt und die Kosten für jeden einzelnen Arbeiter in den Büchern vermerkt. Somit sind Rechnungsbücher ein reicher Fundus für namenkundliche Analysen. Sie werfen ein Licht auf eine Zeit, in der sich im Bereich der Personennamen ein grundlegend neues System der Namengebung beginnt herauszubilden, dessen Auswirkungen uns bis heute prägen. Die Arbeit besteht aus einem nach verschiedenen Gesichtspunkten gegliederten und kommentierten Namenbuch sowie einer onomastischen Analyse des Bestands.
Die vorliegende Arbeit geht von der These aus, dass die Zeitthematik in ihren unterschiedlichen Aspekten eine konstitutive Rolle in Strauß" bis dato erschienenem Werk spielt und dass Strauß frühzeitig beginnt, einen eigenständigen Zugang zu dieser Problematik zu erkunden, der, ausgehend von der Alltagserfahrung, vor allem die Bereiche der Naturwissenschaften und Ästhetik einschließt. Die Kernphase dieser Aneignung wird dabei in einer über zehnjährigen Schaffensperiode in Strauß" früherem Werk verortet, in der Begrifflichkeiten aus diesem Komplex stark gehäuft auftreten. Sie lässt sich anhand von vier zentralen Werken umreißen: "Paare, Passanten", "Der junge Mann", "Die Zeit und das Zimmer" und "Beginnlosigkeit". Dabei liegt ein Hauptaugenmerk darauf, den oft tastenden, experimentellen Charakter der oft fragmentarischen Texte in einen Gesamtzusammenhang zu stellen und der chronologischen Entwicklung von Strauß" Zeitbegriff zu folgen. Als Ausgangspunkt wird ein fundamentales Ungenügen identifiziert, das der Autor in "Paare, Passanten" schrittweise anhand von Alltagsbeobachtungen konkretisiert. Strauß zeichnet hier das Bild des "Gegenwartsnarren", der in seiner beschleunigten, medial dominierten Umgebung zunehmend in die Rolle des passiven Konsument eines Informationsüberangebotes gedrängt wird. Er zieht den flüchtigen Reiz der wechselnden Bilder dem Ergründen von Sinnzusammenhängen vor und verliert dabei letztlich seinen Bezug zur Geschichte. Sowohl zu seiner eigenen, individuellen Herkunft als auch zum gemeinschaftlichen Narrativ, das zwischen den Schrecken von Holocaust und drohender atomarer Vernichtung eh bereits einen großen Teil seines sinnstiftenden Potenzials eingebüßt hat. "Der junge Mann" baut auf diesen Befund auf und verschreibt sich der Erkundung eines "neuen Zeitempfindens", das es ermöglichen soll, unsere moderne Lebenswelt in ihrer Beschleunigung und oberflächlichen Divergenz wieder als sinnerfüllt wahrzunehmen. Die Analyse der Einleitung und ersten Romankapitel zeigt, wie Strauß dazu zunächst tradierte Zeitbegriffe radikal hinterfragt und letztlich in Auseinandersetzung mit den Naturwissenschaften ein eigenes Konzept entwickelt, das er in der Folge erprobt. Anknüpfend an die Syntheseansätze von Arthur Eddington verbindet Strauß Erkenntnisse aus der Relativitätstheorie, der Thermodynamik, der Komplexitätstheorie und Kybernetik zu einem Ganzen, das der als zu eng empfundenen linearen Progression ein vielschichtiges Modell entgegensetzt, das auch Stillstand, zyklische Wiederkehr sowie zeitweilige Verjüngung und Rückläufigkeit als Konstituenten zeitlicher Abläufe begreift. Die spezielle Relativitätstheorie räumt dabei mit der Vorstellung einer absoluten physikalischen Zeit auf, die gleich einem universellen, transzendenten Uhrwerk der Welt ihren Takt und ihre Richtung aufzwänge. Sie begreift Zeit und Raum als Verhältnisse, in denen die Ereignisse zueinander stehen und die letztendlich den Dingen selbst entwachsen. Einen kontinuierlichen, gerichteten Fluss der Zeit kann die Relativitätstheorie nicht verbürgen; diese Lücke versuchen Physiker in Anschluss an Eddington mit dem Hinweis auf die Thermodynamik zu schließen. Nach deren zweiten Hauptsatz müsste das Universum als geschlossenes System einer stetigen Entropiezunahme unterliegen, die letztlich den Strom der Zeit konstituiere. In diesem globalen Fluss, und hier beruft Strauß sich auf die Komplexitätstheorie, gibt es jedoch immer wieder lokale Abweichungen und gegenläufige Entwicklungen. Strauß baut auf diesen Überlegungen auf und integriert sie tief in seine eigene Ästhetik. So greift der "Junge Mann" in seinen Erzählstimmen und in der Figurenrede nicht nur häufig Gedanken und Bilder aus der wissenschaftlichen Debatte auf, die ganze Struktur des Romans lässt sich als ein solcher Wechsel zwischen linear-gerichteten Rahmenstrukturen und divergenten Binnenelementen verstehen. Dieses Verfahren, naturwissenschaftliche Aspekte der Zeitthematik in der künstlerischen Form aufgehen zu lassen, baut Strauß in den nächsten Jahren weiter aus, wie die Arbeit exemplarisch an zwei weiteren Werken zeigt. "Die Zeit und das Zimmer" etwa zeugt in seiner ganzen Anlage von einer Auseinandersetzung mit der Quantentheorie und dem "Viele-Welten-Modell". Hier wird im fiktionalen Raum eine Welt erforscht, in der die Entscheidung zwischen mehreren Möglichkeiten keinen ausschließlichen Charakter mehr hat, sondern mehrere Alternativversionen eines Lebenswegs parallel zueinander koexistieren. "Beginnlosigkeit" schließlich entwirft analog zur "Steady-State-Theorie" eine Ästhetik, die ohne Anfang und Ende auskommt und deren "Botschaft" letztlich in die Textgestalt eingeschrieben ist. An Stelle einer linear-diskursiv aufgebauten Erzählung tritt ein Verbund von fragmentarischen Textblöcken, der zunächst inkohärent wirkt, aber durch lose thematische Bezüge, vor allem aber auch durch assoziative Anklänge und leitmotivisch wiederkehrende Bilder immer wieder auf sich selbst vor- und rückverweist. Dem Leser, der sich auf diese Textbewegung einlässt, offenbart sich im Vor- und Zurückblättern die gewünschte Leseerfahrung: Sinnkonstitution erschöpft sich nicht in einer linear-progressiven Verkettung von Vorher und Nachher, von Ursache und Wirkung. Erst wenn die "Linie" durch den "Fleck" ergänzt wird, d.h. durch Elemente des Richtungslos-Assoziativen, des Zyklus und selbst der Stase, ist eine Erkenntnishaltung erreicht, die der Vielschichtigkeit unserer Lebenswelt gerecht wird. Strauß" Projekt eines "neuen Zeitempfindens" ist damit zu einem vorläufigen Abschluss gekommen. Die Naturwissenschaften dienten dabei als zentrale Inspirationsquelle und gaben einen Erkenntnisstand vor, hinter den der Autor nicht zurückfallen wollte; letztlich gehen sie jedoch weitestgehend in ästhetischer Form auf.
Mechanisch-biologisch behandelte Abfälle zeigen im Vergleich mit unbehandelten Siedlungsabfällen völlig veränderte geomechanische Eigenschaften auf. Das Emissionspotenzial ist weitgehend reduziert. Dies erforderte eine Anpassung der Deponietechnik bezüglich Materialeinbau und Deponiebetrieb. Um sowohl das Deponieverhalten der mechanisch-biologisch behandelten Abfälle sowie das verbleibende Emissionspotenzial beurteilen zu können, wurde in dieser Arbeit ein breit angelegtes Untersuchungsprogramm im Deponiefeld umgesetzt, welches zum Ziel hat, das Langzeitverhalten des mechanisch-biologisch behandelten Abfalls im Deponiefeld zu beschreiben. Hieraus wurden Empfehlungen für Deponiebetreiber abgeleitet, die eine langfristige Sicherung der gesetzlichen Anforderungen an das Ablagern von MBA-Material gewährleisten. Somit wird der Forderung nach einem nachhaltigen Schutz der Umwelt Rechnung getragen. Eine solche Sicherung ermöglicht einen langfristig ökonomisch und ökologisch tragbaren Deponiebetrieb und somit die nötige Planungssicherheit für Deponiebetreiber. rnDie bisherigen Erfahrungen haben gezeigt, dass MBA-Deponien unter den beschriebenen Bedingungen ohne größere Probleme betrieben werden können. Durch die mechanisch-biologische Behandlung wurde jedoch der gesamte Bereich der Ablagerung neu definiert. rnSchwerpunkt des Untersuchungsprogramms war die Untersuchung der Temperatur- und Feuchtigkeitsentwicklung im Deponiekörper, der daraus resultierenden Auswirkungen auf die Zusammensetzung und Menge des Deponiegases sowie die Beurteilung der geotechnischen Erfordernisse an das abzulagernde Material und das Deponiefeld. Hierbei stand die Untersuchung von Porenwasserdrücken im Vordergrund. Die Ergebnisse haben gezeigt, dass die Temperaturniveaus im Deponiekörper mit ca. 16-25-°C etwas unter den von DSR lagen. Die Deponiegaszusammensetzung weicht ebenfalls etwas von den Ergebnissen aus DSR ab. Die Deponiegasmenge liegt im erwarteten Bereich und lässt Rückschlüsse auf das Gasphasenmodell zu. An den Zuordnungskriterien konnten keine wesentlichen Veränderungen oder Abbauraten bezogen auf das Ursprungsmaterial beobachtet werden. Die Anforderungen an den Einbau von mechanisch-biologisch behandelten Abfällen sollten weiterhin unter der Maßgabe: verdichteter Dünnschichteinbau, Profilierung mit 5-10% Gefälle, Einbauwassergehalt 30-35 %, geringstmögliche Einbaufläche und einer arbeitstägigen Abdeckung des Deponiefeldes mit wasserundurchlässigem Material in regenintensiven Monaten und im Winter erfolgen. Ein Deponiebetrieb nach den Vorgaben des Anhanges 5, Nr. 6 der Deponieverord-nung, nach dem ein Deponiebetreiber den Anfall von Sickerwasser so gering zu halten hat, wie dies nach dem Stand der Technik möglich ist, ist somit umsetzbar. Aufgrund der geringen Sickerwassermengen und des verdichteten Materialeinbaus stellt der Deponiekörper mit MBA-Material kein umweltrelevantes Gefährdungspotenzial bezogen auf die Deponiegasemissionen dar, insofern nach Abschluss des Deponiekörpers eine Methanoxidationsschicht als Oberflächenabdichtung aufgebracht wird.
Zum Einfluss von Transformationen schiefer Verteilungen auf die Analyse mit imputierten Daten
(2015)
Die korrekte Behandlung fehlender Daten in empirischen Untersuchungen spielt zunehmend eine wichtige Rolle in der anwendungsorientierten, quantitativen Forschung. Als zentrales flexibles Instrument wurde von Rubin (1987) die multiple Imputation entwickelt, welche unter regulären Bedingungen eine korrekte Inferenz der eigentlichen Schätzungen ermöglicht. Eine Reihe von Imputationsmethoden beruht im Wesentlichen auf der Normalverteilungsannahme. In der Empirie wird diese Annahme normalverteilter Daten zunehmend kritisiert. So erweisen sich Variablen auf Grund ihrer sehr schiefen Verteilungen für die Imputation als besonders problematisch. In dieser Arbeit steht die korrekte Behandlung fehlender Werte mit der Intention einer validen Inferenz der eigentlichen Schätzung im Vordergrund. Ein Instrument ist die Transformation schiefer Verteilungen, um mit Hilfe der transformierten und approximativ normalverteilten Daten Imputationen unter regulären Bedingungen durchzuführen. In der Arbeit wird ein multivariater Ansatz eingeführt. Anschließend wird im Rahmen mehrerer Monte-Carlo-Simulationsstudien gezeigt, dass der neue Ansatz bereits bekannte Verfahren dominiert und sich die Transformation positiv auf die Analyse mit imputierten Daten auswirkt.
Besides well-known positive aspects of conservation tillage combined with mulching, a drawback may be the survival of phytopathogenic fungi like Fusarium species on plant residues. This may endanger the health of the following crop by increasing the infection risk for specific plant diseases. In infected plant organs, these pathogens are able to produce mycotoxins like deoxynivalenol (DON). Mycotoxins like DON persist during storage, are heat resistant and of major concern for human and animal health after consumption of contaminated food and feed, respectively. Among fungivorous soil organisms, there are representatives of the soil fauna which are obviously antagonistic to a Fusarium infection and the contamination with mycotoxins. Earthworms (Lumbricus terrestris), collembolans (Folsomia candida) and nematodes (Aphelenchoides saprophilus) provide a wide range of ecosystem services including the stimulation of decomposition processes which may result in the regulation of plant pathogens and the degradation of environmental contaminants. Several investigations under laboratory conditions and in the field were conducted to test the following hypotheses: (1) Fusarium-infected and DON-contaminated wheat straw provides a more attractive food substrate than non-infected control straw (2) the introduced soil fauna reduce the biomass of F. culmorum and the content of DON in infected wheat straw under laboratory and field conditions (3) the species interaction of the introduced soil fauna enhances the degradation of Fusarium biomass and DON concentration in wheat straw; (4) the degradation efficiency of soil fauna is affected by soil texture. The results of the present thesis pointed out that the degradation performance of the introduced soil fauna must be considered as an important contribution to the biological control of plant diseases and environmental pollutants. As in particular L. terrestris revealed to be the driver of the degradation process, earthworms contribute to a sustainable control of fungal pathogens like Fusarium and its mycotoxins in wheat straw, thus reducing the risk of plant diseases and environmental pollution as ecosystem services.
Shape optimization is of interest in many fields of application. In particular, shape optimization problems arise frequently in technological processes which are modelled by partial differential equations (PDEs). In a lot of practical circumstances, the shape under investigation is parametrized by a finite number of parameters, which, on the one hand, allows the application of standard optimization approaches, but, on the other hand, unnecessarily limits the space of reachable shapes. Shape calculus presents a way to circumvent this dilemma. However, so far shape optimization based on shape calculus is mainly performed using gradient descent methods. One reason for this is the lack of symmetry of second order shape derivatives or shape Hessians. A major difference between shape optimization and the standard PDE constrained optimization framework is the lack of a linear space structure on shape spaces. If one cannot use a linear space structure, then the next best structure is a Riemannian manifold structure, in which one works with Riemannian shape Hessians. They possess the often sought property of symmetry, characterize well-posedness of optimization problems and define sufficient optimality conditions. In general, shape Hessians are used to accelerate gradient-based shape optimization methods. This thesis deals with shape optimization problems constrained by PDEs and embeds these problems in the framework of optimization on Riemannian manifolds to provide efficient techniques for PDE constrained shape optimization problems on shape spaces. A Lagrange-Newton and a quasi-Newton technique in shape spaces for PDE constrained shape optimization problems are formulated. These techniques are based on the Hadamard-form of shape derivatives, i.e., on the form of integrals over the surface of the shape under investigation. It is often a very tedious, not to say painful, process to derive such surface expressions. Along the way, volume formulations in the form of integrals over the entire domain appear as an intermediate step. This thesis couples volume integral formulations of shape derivatives with optimization strategies on shape spaces in order to establish efficient shape algorithms reducing analytical effort and programming work. In this context, a novel shape space is proposed.
Exposure to fine and ultra-fine environmental particles is still a problem of concern in many industrialized parts of the world and the intensified use of nanotechnology may further increase exposure to small particles. Since many years air pollution is recognized as a critical problem in western countries, which led to rigorous regulation of air quality and the introduction of strict guidelines. However, the upper thresholds for particulates in ambient air recommended by the world health organization are often exceeded several times in newly industrialized countries. Such high levels of air pollution have the potential to induce adverse effects on human health. The response triggered by air pollutants is not limited to local effects of the respiratory system but is often systemic, resulting in endothelial dysfunction or atherosclerotic malady. The link between air pollution and cardiovascular disease is now accepted by the scientific community but the underlying mechanisms responsible for the pro-atherogenic potential still need to be unraveled in detail. Based on the results from in- vivo and in vitro studies the production of reactive oxygen species due to exposure to particles is the most important mechanism to explain the observed adverse effects. However, the doses that were applied in many in vivo and in vitro studies are far beyond the range of what humans are exposed to and there is the need for more realistic exposure studies. Complex in vitro coculture systems may be valuable tools to study particle-induced processes and to extrapolate effects of particles on the lung. One of the objectives of this PhD thesis was the establishment and further improvement of a complex coculture system initially described by Alfaro-Moreno et al. [1]. The system is composed of an alveolar type-II cell line (A549), differentiated macrophage-like cells (THP-1), mast cells (HMC-1) and endothelial cells (EA.hy 926), seeded in a 3D-orientation on a microporous membrane to mimic the cell response of the alveolar surface in vitro in conjunction with native aerosol exposure (VitrocellTM chamber). The tetraculture system was carefully characterized to ensure its performance and repeatability of results. The spatial distribution of the cells in the tetraculture was analyzed by confocal laser scanning microscopy (CLSM), showing a confluent layer of endothelial and epithelial cells on both sides of the Transwellâ„¢. Macrophage-like cells and mast cells can be found on top of the epithelial cells. The latter cells formed colonies under submerged conditions, which disappeared at the air-liquid-interface (ALI). The VitrocellTM aerosol exposure system was not significantly influencing the viability. Using this system, cells were exposed to an aerosol of 50 nm SiO2-Rhodamine nanoparticles (NPs) in PBS. The distribution of the NPs in the tetraculture after exposure was evaluated by CLSM. Fluorescence from internalized particles was detected in CD11b-positive THP-1 cells only. Furthermore, all cell lines were found to be able to respond to xenobiotic model compounds, such as benzo[a]pyrene (B[a]P) or 2,3,7,8-tetrachlorodibenzo-p-dioxin (TCDD) with the upregulation of CYP1 mRNA. With this tetraculture system the response of the endothelial part of the alveolar barrier was studied in- vitro in a still realistic exposure scenario representing the conditions for a polluted situation without direct exposure of endothelial cells. After exposure to diesel exhaust particulate matter (DEPM) the expression of different anti-oxidant target genes and inflammatory genes such as NAD(P)H dehydrogenase quinone 1 (NQO1), superoxide dismutase 1 (SOD1) and heme oxygenase 1 (HMOX1), as well as the nuclear translocation nuclear factor erythroid-derived 2 (Nrf2) was evaluated. In addition, the potential of DEPM to induce the upregulation of CYP1A1 mRNA in the endothelium was analyzed. DEPM exposure led not to an upregulation of the anti-oxidant or inflammatory target genes, but to clear nuclear translocation of Nrf2. The endothelial cells responded to the DEPM treatment also with the upregulation of CYP1A1 mRNA and nuclear translocation of the aryl hydrocarbon receptor (AhR). Overall, DEPM triggered a response in the endothelial cells after indirect exposure of the tetraculture system to low doses of DEPM, underlining the sensitivity of ALI exposure systems. The use of the tetraculture together with the native aerosol exposure equipment may finally lead to a more realistic judgment regarding the hazard of new compounds and/or new nano-scaled materials in the future. For the first time, it was possible to study the response of the endothelial cells of the alveolar barrier in vitro in a realistic exposure scenario avoiding direct exposure of endothelial cells to high amounts of particulates.
Im Fokus der Ursachenanalyse der zunehmenden Homogenisierung von Biozönosen und des weltweiten Artenverlustes steht neben dem Flächennutzungs- und Klimawandel vorrangig auch die durch den Menschen verursachte Einbringung gebietsfremder, invasiver Arten. Aufgrund ihrer Charakteristika bilden diese Arten einen wichtigen Schnittpunkt von Ökologie, Ökonomie und Soziologie in Theorie und Praxis und erfahren folglich im Zuge der weltweit steigenden Anzahl von biologischen Invasionen zunehmend eine rechtliche Regulierung. Eine grundsätzliche Herausforderung in der Invasionsforschung liegt in der Identifikation von Faktoren, die Verbreitung, Dynamik und Erfolg der Arten erklären, um anhand dieses Wissens ihr Risiko für das Ökosystem als auch hinsichtlich ökonomischer und gesundheitlicher Aspekte abschätzen zu können. Eine Einschätzung der Invasivität der Art zur Ableitung von Handlungsstrategien und zur rechtlichen Einstufung erfolgt anhand von Risikoanalysen, deren kriterienbasierte Bewertung eine Reihe wissenschaftlicher Fakten voraussetzen. Um mögliche Ausbreitungswege- und barrieren zu identifiziert und Faktoren herauszustellen, welche die erfolgreiche Etablierung und Ausbreitung des Nordamerikanischen Waschbären in Deutschland und Europa erklären, wird in dieser Dissertation unter Verwendung populationsgenetischer Methoden die Ausbreitung der Art rekonstruiert. Darüberhinaus wird in dieser Arbeit die Bedeutung von Verbreitungsmodellen als Analyse- und Präventions-Instrument in der naturschutzfachlichen Risikoabschätzung verdeutlicht und zudem die Problematik einer Risikoabschätzung auf Grundlage einer lückenhaften Wissensbasis erläutert. Der rechtliche Schwerpunkt der Dissertation widmet sich der Regulierung der Haltung von IAS, die als ein aktiver und dominanter Einbringungsweg insbesonders für gebietsfremde Wirbeltierarten zählt und für die hier betrachtete Modellart nachweislich von hoher Bedeutung ist. Die gewonnenen Erkenntnisse geben Hilfestellung zur Einstufung der Invasivität der Art und zur Beurteilung eines Handlungsbedarfes.
Aufgrund der enormen Menge an Informationen, die wir in jedem einzelnen Moment erleben, sind zuverlässige und funktionale Mechanismen, die uns durch die Informationsflut leiten, unerlässlich. Um effizient und sinnvoll einzelne Informationen für die weitere Verarbeitung auszuwählen, sollten die Aufmerksamkeit und kognitive Kapazitäten auf persönlich relevante Inhalte fokussieren. Eine dazu nötige, angemessene Definition von persönlicher Relevanz könnte auf einer stabilen Selbstrepräsentation beruhen, die zum einem spezifisch und zum anderen flexibel bei Veränderungen sein sollte. In Anbetracht einer Vielzahl von Forschungsergebnissen in Bezug auf die noch ungeklärte Frage, inwiefern Selbstrelevanz als allgemeiner Selektionsmechanismus begriffen werden kann, liefert die hier vorliegende Dissertation ein genaueres Verständnis von der Entstehung und Anpassung einer Selbstrepräsentation. Es werden fünf Artikel vorgestellt, die ein relativ neues Paradigma, das sogenannte Matching-Paradigma (Sui, He, & Humphreys, 2012) verwenden und die empirische Evidenz dafür liefern, wie Selbstrepräsentationen kognitive Prozesse beeinflussen. Genauer wird in einem ersten Artikel eine Zusammenschau von Experimenten geliefert, die die Tauglichkeit des Matching-Paradigmas zur Messung von Selbstrelevanzeffekten beurteilt (und bestätigt). In einem zweiten Artikel wird eine Studie vorgestellt, in der die Entstehung von Selbstrepräsentationen untersucht wurde, was zu einem genaueren Verständnis der an der Entstehung von Selbstrepräsentation beteiligten kognitiven Prozesse führt. An diese erste Beschreibung von Selbstrepräsentationen anknüpfend, beschreiben der dritte und vierte Artikel konkrete Charakteristika von Inhalten, die in die Selbstrepräsentation integriert werden können. Schließlich werden in dem fünften Artikel zwei Studien erläutert, in denen Effekte von Selbstrelevanz mit Effekten von negativer Valenz (die als genereller Selektionsmechanismus angesehen wird) verglichen werden, was zu einer Spezifikation des Einflusses von Selbstrelevanz auf Reizverarbeitung beiträgt. Insgesamt kann aufgrund der empirischen Befunde, die in der vorliegenden Dissertation erläutert werden, schlussgefolgert werden, dass das Selbst verstanden werden kann als ein spezifisches, komplexes Netzwerk von Assoziationen zwischen Konzepten und dass Selbstrelevanz die Integration von Inhalten begünstigt, nicht aber die Aufmerksamkeit automatisch lenkt.
Zu Beginn der Frühen Neuzeit stand die Verehrung der hl. Anna, der Anna Selbdritt und der Hl. Sippe in höchster Blüte; der Großmutter Christi wurden sogar die positiven Eigenschaften der Gottesmutter Maria zugeordnet. Meine Dissertation untersucht ca. dreitausend Artefakte unter interdisziplinären Aspekten und verschiedenen Ansätzen und erbringt so eine kulturelle Disposition der Zeit, auch unter Berüksichtigung einer breiten Quellenlage der damaligen Literatur. Die Kontinuität erweist sich bei Anna Selbdritt in erster Linie durch die angewandte Attributformation, was bis weit in den Barock hinein ein eindeutiges Identifizierungspotential für Anna Selbdritt darstellt; bei den traditionellen Kunstwerken mit der Hl. Sippe ist die Verwendung des Motives des Hortus conclusus obligat. Der Wandel erfolgte bereits um 1475, bei welchem eine horizontale Dreierstruktur an Stelle der vordem pyramidalen Anordnung nach Masaccio tritt; somit konnte in prägnanter Weise eine Gegenüberstellung der himmlischen, vertikalen Trias der Hl. Dreifaltigkeit und der irdischen, horizontal aufgefassten Trias der Anna Selbdritt erfolgen. Diese neue Konstellation mit Realitätsnähe durch Lebendigkeit verbreitete sich rasch im gesamten Alten Reich. Eine Zäsur als Indiz der Änderung der familiären Verhältnisse lässt sich bereits vorreformatorisch mit Kunstwerken von Cranach und Dürer belegen, die Verbreitung durch Kupferstiche erfuhren: Es lässt sich eine männliche Dominanz ausmachen. Daneben fällt aber ein überaus harmonisches Familiengefüge ins Auge, das die Relation der Personen durch Kommunikation und Interaktion visualisiert, womit die vordem additive Reihung nun durch eine Symbolik des psychologischen Verhaltens aufgehoben wird: Einheit durch Harmonie. Dies beruht nicht zuletzt auf der psychologischen Selbstdefinition des Menschen, der in der Frühen Neuzeit sein Selbstbewußtsein entdeckt und dieses durch Zugehörigkeit zu einem Kollektiv verstärkt. Durch zeitgenössische Aspekte und durch die Verwendung von Landschafts- und Architekturelementen werden die Artefakte nicht nur dem neuen kunsthistorischen Focus der Ästhetik gerecht, sondern wirken auch affektiv auf den Rezipienten, eine Forderung, die ebenso von der Musiktheorie gestellt wurde. Das Kultbild wird zum Andachtsbild, zum Kulturobjekt, zum Narrativ, zum Historienbild. In der Verkörperung von Vergangenheit, Gegenwart und Zukunft bieten Anna Selbdritt und die Hl. Sippe eine gegenwarts- und zukunftsorientierte soziologische wie soteriologische Perspektive an; sie bilden mithin ein mediales Spektrum ab, das interdisziplinär die Kultur des Spätmittelalters und der Frühen Neuzeit reflektiert und einen von Theologie und Gesellschaft determiniterten Handlungskanon in konventioneller wie innovativer Art bereitstellt.
Die Studie Writing (Against) Postmodernism: The Urban Experience in Contemporary North American Fiction- stützt sich auf drei Hauptthesen. Zunächst wird dargelegt, dass sich postmoderne theoretische Positionen hinsichtlich des Verlusts menschlicher Handlungsfähigkeit und der Unzuverlässigkeit der Sprache trotz ihrer Umstrittenheit dazu eignen, ein Zeitgeistphänomen der nordamerikanischen urbanen Mittel- und Oberklasse um die Jahrtausendwende zu beschreiben. Wie Writing (Against) Postmodernism zeigt, korrespondieren die Leben der Figuren in den untersuchten Romanen "- The Savage Girl- (Alex Shakar, 2001),- Look At Me- (Jennifer Egan, 2001),- Noise- (Russell Smith, 1998),- Glamorama- (Bret Easton Ellis, 1998),- Ditch (Hal Niedzviecki, 2001),- Manhattan Loverboy, and- Suicide Casanova- (Arthur Nersesian, 2000, 2002) " mit Ideen, wie sie von zeitgenössischen Theoretikern wie Frederic Jameson, Paul de Man, Jean Baudrillard oder Jacques Derrida vertreten oder hergeleitet werden. Die Studie nimmt zudem ausführlich zu theoretischen Debatten rund um die Postmoderne Stellung. Sie zeigt die argumentativen Unzulänglichkeiten postmoderner Positionen und ihrer Anwendungen auf und arbeitet Argumente für einen maßvollen Realismusbegriff sowie gegen die Tendenz heraus, "that extra edge of consciousness" (Raymond Williams), welches Menschen zum selbstbestimmten Handeln befähigt, allzu schnell zu verwerfen. In einem weiteren Schritt argumentiert die vorliegende Studie, dass die oben genannten Texte und ihre Figuren nicht nur Unzufriedenheit mit dem postmodernen Leben und dem postmodernen Text beschreiben, sondern dass sie einen Weg aus postmodernen Aporien andeuten, die anfangs als gegebene Realität erscheinen. In der Bewegung weg von postmodernen theoretischen Positionen und deren praktischen Konsequenzen können die Bücher als Reflex eines 'post-postmodernen' Diskurses in der kulturellen Produktion Nordamerikas gelesen werden.
Fehlende Werte und deren Kompensation über Imputation stellen eine große Herausforderung für die Varianzschätzung eines Punktschätzers dar. Dies gilt auch in der Amtlichen Statistik. Um eine unverzerrte Varianzschätzung zu gewährleisten, müssen alle Komponenten der Varianz berücksichtigt werden. Hierzu wird häufig eine Zerlegung der Gesamtvarianz durchgeführt mit dem Ziel, detaillierte Informationen über ihre Komponenten zu erhalten und diese vollständig zu erfassen. In dieser Arbeit stehen Resampling-Methoden im Vordergrund. Es wird ein Ansatz entwickelt, wie neuere Resampling-Methoden, welche alle Elemente der ursprünglichen Stichprobe berücksichtigen, hinsichtlich der Anwendung von Imputation übertragen werden können. Zum Vergleich verschiedener Varianzschätzer wird eine Monte-Carlo-Simulationsstudie durchgeführt. Mit Hilfe einer Monte-Carlo-Simulation findet zudem eine Zerlegung der Gesamtvarianz unter verschiedenen Parameterkonstellationen statt.
Ausgehend von einem multifaktoriellen biopsychosozialen Modell zur Entstehung und Aufrechterhaltung primärer Kopfschmerzen bei Kindern und Jugendlichen wurden n= 170 Mädchen im Alter von 12-17 Jahren hinsichtlich verschiedener stressbezogener Determinanten untersucht. Es wurde davon ausgegangen, dass sich Mädchen mit wiederkehrenden Kopfschmerzen sowohl in einem kontrollierten, messwiederholten Laborexperiment hinsichtlich ihrer physiologischen Reaktionen (Muskelspannung, Cortisolausschüttung) auf akuten Stress hin wie auch in der Cortisolaufwachreaktion im häuslichen Setting von einer gesunden Kontrollgruppe unterscheiden. Diese Annahmen konnten nach statistischer Auswertung der Studienergebnisse unter Kontrolle der familiären Schmerzbelastung und psychischen Stressbelastung jedoch nicht bestätigt werden. Somit kann nicht von einer dysregulierten Aktivität der Hypothalamus-Hypophysen-Nebennierenrinden-Achse ausgegangen werden, die eine zentrale Rolle in der biologischen Stressantwort spielt und auch die Schmerzverarbeitung mit beeinflusst. Ebenso wenig liegt bei Mädchen mit Kopfschmerzen eine erhöhte basale oder stressbedingte Muskelspannung im Kopf- und Schulterbereich vor. Lediglich auf subjektiver Ebene deutete sich ein tendenziell höheres Empfinden von Anspannung in Ruhephasen an. Auf psychologischer Ebene hingegen zeigte sich erwartungskonform eine höhere Stress-vulnerabilität bei den Mädchen mit Kopfschmerzen. Außerdem wurde bei ihnen der vermehrte Einsatz emotionsregulierender Stressbewältigungsstrategien, wie Ruhe und Entspannung, aber auch destruktiv-ärgerbezogenes Verhalten und Denken, bezogen auf soziale und leistungsbezogene Stresssituationen beobachtet. Auch unterschieden sie sich hinsichtlich der familiären Schmerzbelastung, körperlichen und psychischen Stress-symptomatik und Depressivität sowie Ängstlichkeit von der Kontrollgruppe. Sie zeigten durchweg höhere Ausprägungen auf diesen Variablen, die sich als signifikante Prädiktoren für Kopfschmerzen herausstellten. Die Verknüpfung von physiologischen Reaktionsmaßen mit der Stressverarbeitung zeigte, dass die Nutzung von konstruktiv-palliativer Emotionsregulation umso stärker ist, je höher der stressbedingte Anstieg der Cortisolausschüttung und der Muskelaktivität in der Frontalisregion ausfällt. Je stärker also die körperliche Reaktion auf Stress, umso mehr versuchen jugendliche Mädchen sich zu entspannen und auszuruhen.
The present work considers the normal approximation of the binomial distribution and yields estimations of the supremum distance of the distribution functions of the binomial- and the corresponding standardized normal distribution. The type of the estimations correspond to the classical Berry-Esseen theorem, in the special case that all random variables are identically Bernoulli distributed. In this case we state the optimal constant for the Berry-Esseen theorem. In the proof of these estimations several inequalities regarding the density as well as the distribution function of the binomial distribution are presented. Furthermore in the estimations mentioned above the distribution function is replaced by the probability of arbitrary, not only unlimited intervals and in this new situation we also present an upper bound.
Weibliches Publikum, Programmgestaltung und Rezeptionshaltung im frühen deutschen Kino (1906-1918)
(2009)
Die vorliegende Dissertation analysiert die wechselseitigen Einflussnahmen von weiblichem Publikum und der Kino-Programmgestaltung in der Zeit von der Gründung erster ortsfester Kinos um 1906 bis zum Ende des 1. Weltkrieges. Dabei bilden der Kinobesuch von Frauen, die Konstruktion von Geschlechteridentität im und durch das Kinoprogramm und der wechselseitige Einfluss von weiblichem Publikum und Programmgestaltung, sowie die Veränderung von Filmgenres und -längen und die Veränderung des Rezeptionsverhaltens das Paradigma der Analyse. Der Fokus auf das weibliche Publikum ist bewusst gewählt, da Frauen auch zu Beginn des 20. Jahrhunderts einen großen Anteil am Kino-Publikum ausmachten. Dies ist besonders bemerkenswert unter der Prämisse, dass Frauen traditionell aufgrund der bürgerlichen Trennung zwischen privater und öffentlicher Sphäre nicht Teil eines öffentlichen Publikums waren. Daher liegt es nahe zu vermuten, dass das Auftreten dieses völlig neuen Publikumssegments nicht spurlos am Kino vorbeigegangen ist. Es hat Einfluss genommen auf die Filme, aber auch auf das Kino als Ort und die Programmierung seiner Filme. Das Aufkommen eines weiblichen Publikums bewirkte, so die Leitthese der vorliegenden Dissertation, eine Veränderung der Kinoprogrammstruktur weg vom diversen Nummerprogramm des "cinema of attractions", das kürzere Slapstick-Filme, Trickfilme sowie kurze Filme mit Spielhandlungen mit dokumentarischem Material verband hin zu einem Programm, dessen Hauptattraktion ein, oder maximal zwei lange Filme mit fiktionalem Inhalt waren. Auf der Grundlage zweier Lokalstudien zum Kinoprogramm zweier mittelgroßer deutscher Städte analysiert die vorliegende Arbeit den Prozess, in dem das von klassen- und geschlechtsspezifischer sowie kultureller Diversität geprägte frühe Kino, dem Heide Schlüpmann eine heimliche Komplizenschaft mit der weiblichen Emanzipationsbewegung des Wilhelminischen Deutschlands zuspricht, abgelöst wird durch ein stabilisiertes, institutionalisiertes, nationalisiertes deutsches Kino. Eingeführt und ergänzt wird die tiefergehende Analyse der Kinoprogramme der untersuchten Städte durch eine auf historischen Quellen beruhende Untersuchung der Struktur und Wahrnehmung des weiblichen Publikums und der Programm- und Aufführungsmodalitäten in der Zeit zwischen 1906 und 1913 sowie während des Ersten Weltkriegs.
Die vorliegende Meta-Analyse zeigt eindeutig, dass von Familienmitgliedern geführte Familienunternehmen eine schlechtere Performance aufweisen als Unternehmen, die von Managern geleitet werden, die der Inhaberfamilie nicht angehören. Basierend auf uni- und multivariaten Analysen von 270 wissenschaftlichen Publikationen aus 42 verschiedenen Ländern, wurde die Performance von Familienunternehmen im Vergleich zu Nicht-Familienunternehmen untersucht. Das erste robuste Ergebnis zeigt eindeutig, dass Familienunternehmen hinsichtlich der Performance Nicht-Familienunternehmen übertreffen. Dieses Ergebnis ist im Einklang mit den meisten Primärstudien und früheren Meta-Analysen. Das zweite Ergebnis dieser Arbeit kann dem "Finance"-Forschungszweig zugeordnet werden und basiert auf der Unterscheidung von Markt- und Accounting-Performance-Kennzahlen. Markt-Performance-Kennzahlen, welche durch Analysten errechnet werden, zeigen, dass Familienunternehmen Nicht-Familienunternehmen hinsichtlich der Performance unterlegen sind. Dieses Ergebnis steht im Gegensatz zu den Accounting-Performance-Kennzahlen, welche von den Familienunternehmen selbst in ihren von Wirtschaftsprüfern freigegebenen Bilanzen veröffentlicht wurden. Die dritte Forschungsfrage untersucht im Detail, ob die Zusammensetzung des Datensatzes in Primärstudien das Gesamtergebnis in eine bestimmte Richtung verzerrt. Das Ergebnis wird nicht durch Datensätzen mit Unternehmen, welche öffentlich gelistet, im produzieren Gewerbe tätig oder Technologie getriebene Unternehmen, sind getrieben. Kleine und Mittlere Unternehmen (KMU) veröffentlichen kleinere Kennzahlen und reduzieren somit die Höhe der abhängigen Variable. Das vierte Ergebnis gibt eine Übersicht über die Art und Weise der Beteiligung der Familie an der Aufsicht oder dem operativen Geschäft des Unternehmens. Dieses Ergebnis zeigt klar, dass Manager aus Familien einen signifikanten negativen Einfluss auf die Performance des Unternehmens haben. Dies kann auf die Erhaltung des Wohlstandes der Familienmitglieder zurückzuführen sein und somit spielen finanzielle Kennzahlen keine vordergründige Rolle. Die letzte Forschungsfrage untersucht, ob die Performance von Familienunternehmen im Vergleich zu Nicht-Familienunternehmen auch durch institutionelle Faktoren beeinflusst wird. In Europa zeigen die Familienunternehmen im Vergleich zu Nordamerika eine geringere Performance hinsichtlich der Kennzahlen. Das ist darauf zurückzuführen, dass europäische Unternehmen im Vergleich zu nordamerikanischen unterbewertet sind (Caldwell, 07.06.2014). Darüber hinaus zeigen Familienunternehmen im Vergleich zu Nicht-Familienunternehmen eine bessere Performance in eher maskulin geprägten Kulturen. Maskulinität, ist nach Hofstede, gekennzeichnet durch höhere Wettbewerbsorientierung, Selbstbewusstsein, Streben nach Wohlstand und klar differenzierte Geschlechterrollen. Rechtsregime hingegen (Common- oder Civil-Law) spielen im Performance-Zusammenhang von Familienunternehmen keine Rolle. Die Durchsetzbarkeit der Gesetze hat jedoch einen signifikanten positiven Einfluss auf die Performance von Familienunternehmen im Vergleich zu Nicht-Familienunternehmen. Dies ist damit zu begründen, dass die Kosten für Kredite in Länder mit einer sehr guten Durchsetzbarkeit von Gesetzen für Familienunternehmen geringer sind.
The equity premium (Mehra and Prescott, 1985) is still a puzzle in the sense that there are still no convincing explanations for the size of the equity premium. In this dissertation, we study this long-standing puzzle and several possible behavioral explanations. First, we apply the IRR methodology proposed by Fama and French (1999) to achieve large firm level data on the equity premia for N = 28,256 companies in 54 countries around the world. Second, by using preferences data from the INTRA study (Rieger et. al., 2014), we could test the relevant risk factors together with time cognition to explain the equity premium. We document the failure of the Myopic Loss Aversion hypothesis by Benartzi and Thaler (1995) but provides rigorous empirical evidence to support the behavioral theory of ambiguity aversion to account for the equity premium. The observations shed some light on the new approach of integrating risk and ambiguity (together with time preferences) into a more general model of uncertainty, in which both risk premium and ambiguity premium play roles in asset pricing models.
Das Triple-X-Syndrom ist die häufigste Chromosomenstörung im weiblichen Geschlecht und dennoch wenig bekannt und erforscht. Um die wissenschaftliche Datenlage für die Betroffenen, werdenden Eltern und genetischen Berater zu verbessern wurde die vorliegende Studie durchgeführt. Ziel der Studie war es zu untersuchen, ob bei Mädchen und Frauen mit Triple-X-Karyotyp häufiger psychische Probleme und Verhaltensauffälligkeiten auftreten als bei Mädchen und Frauen mit einem regelrechten Chromosomensatz. Insgesamt konnten 72 Mädchen und Frauen mit Triple-X und 69 mit einem regelrechten Chromosomensatz in die Studie eingeschlossen werden. Durch drei in Altersgruppen aufgeteilte Kohorten konnte verglichen werden, ob mögliche Auffälligkeiten altersabhängig auftreten, wie sich der Entwicklungsverlauf vom Kind zur erwachsenen Frau darstellt und ob dabei Zusammenhänge erkennbar sind. Bei den Mädchen im Alter von vier bis sieben Jahren zeigten sich im Vergleich zur Kontrollgruppe bereits signifikante Unterschiede in Bezug auf schulische Kompetenzen, soziale Probleme und Aufmerksamkeitsprobleme. In der Altersgruppe der Mädchen von acht bis 17 Jahren haben sich diese Auffälligkeiten noch verstärkt und die Ergebnisse aus dem Fragebogen "Child Behavior Checklist" weisen über alle Skalen hinweg einen deutlichen Unterschied zwischen der Triple-X-Gruppe und der Kontrollgruppe auf. Dies betrifft insbesondere die Bereiche "Schulische Kompetenzen", "Internalisierende Auffälligkeiten", "Sozialer Rückzug", "Soziale Probleme" und "Aufmerksamkeits-probleme". In der Gesamtintensität der Auffälligkeiten haben die Triple-X-Mädchen im Mittel signifikant schlechtere Werte als die Mädchen der Kontrollgruppe. Auch ist der Anteil der Mädchen, die in den klinisch auffälligen Bereich fallen, in der Triple-X-Gruppe signifikant erhöht. Die Untersuchungen zum Selbstwertgefühl machen deutlich, dass Mädchen mit Triple-X-Karyotyp ein vermindertes Selbstwertgefühl im Vergleich zur Kontrollgruppe aufweisen. Auch unterscheiden sich Triple-X-Mädchen in Bezug auf ihr Emotionsregulationsverhalten. Sie haben eine Tendenz zu eher maladaptiven Bewältigungsstrategien und sie zeigen insbesondere beim "Problemorientierten Handeln" und auch in Bezug auf die Emotion "Angst" signifikante Unterschiede zur Kontrollgruppe. Für die Gruppe der Erwachsenen konnte nachgewiesen werden, dass sich Triple-X-Frauen in ihren Persönlichkeitsmerkmalen von Frauen mit einem regelrechten Chromosomensatz unterscheiden. Die Ergebnisse lassen darauf schließen, dass Triple-X-Frauen häufiger emotional labil und ängstlich reagieren und auch eher zurückhaltend und introvertiert und weniger leistungsorientiert sind. Sie haben eine geringere Lebenszufriedenheit und neigen dazu weniger sozial verantwortlich zu handeln. Triple-X-Frauen sind in ihrem täglichen Leben stärker durch körperliche und psychische Symptome beeinträchtigt, wenngleich diese Beeinträchtigungen nicht so stark sind, dass sie in den klinisch auffälligen Bereich fallen.
Cognitive performance is contingent upon multiple factors. Beyond the impact of en-vironmental circumstances, the bodily state may hinder or promote cognitive processing. Af-ferent transmission from the viscera, for instance, is crucial not only for the genesis of affect and emotion, but further exerts significant influences on memory and attention. In particular, afferent cardiovascular feedback from baroreceptors demonstrated subcortical and cortical inhibition. Consequences for human cognition and behavior are the impairment of simple perception and sensorimotor functioning. Four studies are presented that investigate the mod-ulatory impact of baro-afferent feedback on selective attention. The first study demonstrates that the modulation of sensory processing by baroreceptor activity applies to the processing of complex stimulus configurations. By the use of a visual masking task in which a target had to be selected against a visual mask, perceptual interference was reduced when target and mask were presented during the ventricular systole compared to the diastole. In study two, selection efficiency was systematically manipulated in a visual selection task in which a target letter was flanked by distracting stimuli. By comparing participants" performance under homogene-ous and heterogeneous stimulus conditions, selection efficiency was assessed as a function of the cardiac cycle phase in which the targets and distractors were presented. The susceptibility of selection performance to the stimulus condition at hand was less pronounced during the ventricular systole compared to the diastole. Study one and two therefore indicate that inter-ference from irrelevant sensory input, resulting from temporally overlapping processing traces or from the simultaneous presentation of distractor stimuli, is reduced during phases of in-creased baro-afferent feedback. Study three experimentally manipulated baroreceptor activity by systematically varying the participant- body position while a sequential distractor priming task was completed. In this study, negative priming and distractor-response binding effects were obtained as indices of controlled and automatic distractor processing, respectively. It was found that only controlled distractor processing was affected by tonic increases in baro-receptor activity. In line with study one and two these results indicate that controlled selection processes are more efficient during enhanced baro-afferent feedback, observable in dimin-ished aftereffects of controlled distractor processing. Due to previous findings that indicated baro-afferent transmission to affect central, rather than response-related processing stages, study four measured lateralized-readiness potentials (LRPs) and reaction times (RTs), while participants, again, had to selectively respond to target stimuli that were surrounded by dis-tractors. The impact of distractor inhibition on stimulus-related, but not on response-related LRPs suggests that in a sequential distractor priming task, the sensory representations of dis-tractors, rather than motor responses are targeted by inhibition. Together with the results from studies one through three and the finding of baroreceptor-mediated behavioral inhibition tar-geting central processing stages, study four corroborates the presumption of baro-afferent signal transmission to modulate controlled processes involved in selective attention. In sum, the work presented shows that visual selective attention benefits from in-creased baro-afferent feedback as its effects are not confined to simple perception, but may facilitate the active suppression of neural activity related to sensory input from distractors. Hence, due to noise reduction, baroreceptor-mediated inhibition may promote effective selec-tion in vision.
The efficacy and effectiveness of psychotherapeutic interventions have been proven time and again. We therefore know that, in general, evidence-based treatments work for the average patient. However, it has also repeatedly been shown that some patients do not profit from or even deteriorate during treatment. Patient-focused psychotherapy research takes these differences between patients into account by focusing on the individual patient. The aim of this research approach is to analyze individual treatment courses in order to evaluate when and under which circumstances a generally effective treatment works for an individual patient. The goal is to identify evidence based clinical decision rules for the adaptation of treatment to prevent treatment failure. Patient-focused research has illustrated how different intake indicators and early change patterns predict the individual course of treatment, but they leave a lot of variance unexplained. The thesis at hand analyzed whether Ecological Momentary Assessment (EMA) strategies could be integrated into patient-focused psychotherapy research in order to improve treatment response prediction models. EMA is an electronically supported diary approach, in which multiple real-time assessments are conducted in participants" everyday lives. We applied EMA over a two-week period before treatment onset in a mixed sample of patients seeking outpatient treatment. The four daily measurements in the patients" everyday environment focused on assessing momentary affect and levels of rumination, perceived self-efficacy, social support and positive or negative life events since the previous assessment. The aim of this thesis project was threefold: First, to test the feasibility of EMA in a routine care outpatient setting. Second, to analyze the interrelation of different psychological processes within patients" everyday lives. Third and last, to test whether individual indicators of psychological processes during everyday life, which were assessed before treatment onset, could be used to improve prediction models of early treatment response. Results from Study I indicate good feasibility of EMA application during the waiting period for outpatient treatment. High average compliance rates over the entire assessment period and low average burdens perceived by the patients support good applicability. Technical challenges and the results of in-depth missing analyses are reported to guide future EMA applications in outpatient settings. Results from Study II shed further light on the rumination-affect link. We replicated results from earlier studies, which identified a negative association between state rumination and affect on a within-person level and additionally showed a) that this finding holds for the majority but not every individual in a diverse patient sample with mixed Axis-I disorders, b) that rumination is linked to negative but also to positive affect and c) that dispositional rumination significantly affects the state rumination-affect association. The results provide exploratory evidence that rumination might be considered a transdiagnostic mechanism of psychological functioning and well-being. Results from Study III finally suggest that the integration of indicators derived from EMA applications before treatment onset can improve prediction models of early treatment response. Positive-negative affect ratios as well as fluctuations in negative affect measured during patients" daily lives allow the prediction of early treatment response. Our results indicate that the combination of commonly applied intake predictors and EMA indicators of individual patients" daily experiences can improve treatment response predictions models. We therefore conclude that EMA can successfully be integrated into patient-focused research approaches in routine care settings to ameliorate or optimize individual care.