Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (845) (entfernen)
Sprache
- Deutsch (493)
- Englisch (341)
- Mehrsprachig (7)
- Französisch (4)
Schlagworte
- Stress (37)
- Deutschland (33)
- Modellierung (19)
- Optimierung (18)
- Fernerkundung (17)
- Hydrocortison (16)
- stress (15)
- Motivation (12)
- Stressreaktion (12)
- cortisol (12)
Institut
- Psychologie (181)
- Raum- und Umweltwissenschaften (148)
- Mathematik (62)
- Wirtschaftswissenschaften (61)
- Fachbereich 4 (60)
- Fachbereich 1 (31)
- Geschichte, mittlere und neuere (28)
- Germanistik (26)
- Informatik (26)
- Kunstgeschichte (22)
- Politikwissenschaft (18)
- Anglistik (17)
- Soziologie (16)
- Fachbereich 2 (14)
- Fachbereich 6 (14)
- Fachbereich 3 (9)
- Philosophie (9)
- Romanistik (9)
- Computerlinguistik und Digital Humanities (7)
- Medienwissenschaft (6)
- Geschichte, alte (5)
- Allgemeine Sprach- und Literaturwissenschaft (4)
- Fachbereich 5 (4)
- Klassische Philologie (4)
- Pädagogik (4)
- Ethnologie (3)
- Japanologie (3)
- Sinologie (3)
- Archäologie (2)
- Rechtswissenschaft (2)
- Phonetik (1)
- Slavistik (1)
- Universitätsbibliothek (1)
This study focuses on the representation of British South Asian identities in contemporary British audiovisual media. It attempts to answer the question, whether these identities are represented as hybrid, heterogeneous and ambivalent, or whether these contemporary representations follow in the tradition of colonial and postcolonial racialism. Racialised depictions of British South Asians have been the norm not only in the colonial but also in the postcolonial era until the rise of the Black British movement, whose successes have been also acknowledged in the field of representation. However these achievements have to be scrutinized again, especially in the context of the post 9/11 world, rising Islamophobia, and new forms of institutionalized discrimination on the basis of religion. Since the majority of British Muslims are of South Asian origin, this study tries to answer the question whether the marker of religious origin is racial belonging, i.e. skin colour, and old stereotypes associated with the racialised representation are being perpetuated into current depictions through an examination of the varied genre of popular audio visual media texts.
Die globale Vernetzung, der Flächennutungs- und Klimawandel sind zentrale Aspekte bei der Ursachenanalyse der zunehmenden Homogenisierung von Biozönosen und dem weltweiten Verlust von Biodiversität. Von großer Bedeutung sind dabei Arten, die in sich ein weiträumiges Verbreitungspotential mit einem hohen ökologischen, zum Teil in Verbindung mit einem hohen ökonomischen, Schadpotential vereinen " so genannte invasive Arten. Aufgrund ihrer Eigenschaften bilden sie einen wichtigen Schnittpunkt von Ökologie, Ökonomie und Soziologie in Theorie und Praxis. Im Zuge der steigenden Anzahl von biologischen Invasionen weltweit und dem interessanten, interdisziplinären Charakter des Forschungsfeldes, ist dessen Analyse ein bedeutendes Top-Thema internationaler Forschung geworden. Die durch invasive Arten verursachten Schäden sind enorm: So werden die jährlichen Schäden für die USA, Südafrika, das Vereinigte Königreich, Brasilien und Indien auf insgesamt 336 Milliarden US Dollar geschätzt. Nach einem Bericht der EU Kommissionrnbeläuft sich für die Europäische Union die Summe aller Schäden die durch invasive Arten verursacht werden auf jährlich 12 Mrd. Euro. Folglich stellen invasive Arten zugleich einen zunehmend wichtigeren, rechtlichen Regelungsgegenstand auf den unterschiedlichsten Ebenen (international, europäisch, national) dar. In dieser Dissertation wird die Bedeutung von Verbreitungsmodellen als Analyseund Präventions-Instrument in der naturschutzfachlichen Risikoabschätzung verdeutlicht. Ferner wird die Einsatzmöglichkeit von Modellen für die rechtliche Einstufung von Arten und als Ermessensgrundlage bei der Bewilligung von Kostenersatzansprüchen nach entstandenen Schäden aufgezeigt. Zwei ökonomisch bedeutsame Käferarten wurden zur Veranschaulichung als Modellorganismen ausgewählt: Der für die biologische Schädlingsbekämpfung absichtlich eingeführte Asiatische Marienkäfer Harmonia axyridis und der vorwiegend mit Holzverpackungsmaterialien global verschleppte AsiatischernLaubholzbockkäfer Anoplophora glabripennis. Beide Organismen sind in der EU alsrngebietsfremde Arten mit einem hohen Schadpotential einzustufen, haben jedoch einen sehr unterschiedlichen rechtlichen Status inne. Harmonia axyridis wird in Europa kommerziell vermarktet und darf in Deutschland mit Genehmigungsvorbehalt im Freiland ausgebracht werden, wohingegen Anoplophora glabripennis in der EU als zu bekämpfender Quarantäneschadorganismus geführt wird. Für beide Insekten gibt es derzeit keinen praktikablen Rechtsanspruch auf Schadenshaftung bzw. Entschädigungen. Neben der Erstellung von Verbreitungsmodellen nach naturwissenschaftlichen Kriterien, wird dieser Tatbestand erörtert und entsprechende Verbesserungsansätze für die Normsetzung und -anwendung präsentiert.
Evapotranspiration (ET) is one of the most important variables in hydrological studies. In the ET process, energy exchange and water transfer are involved. ET consists of transpiration and evaporation. The amount of plants transpiration dominates in ET. Especially in the forest regions, the ratio of transpiration to ET is in general 80-90 %. Meteorological variables, vegetation properties, precipitation and soil moisture are critical influence factors for ET generation. The study area is located in the forest area of Nahe catchment (Rhineland-Palatinate, Germany). The Nahe catchment is highly wooded. About 54.6 % of this area is covered by forest, with deciduous forest and coniferous forest are two primary types. A hydrological model, WaSiM-ETH, was employed for a long-term simulation from 1971-2003 in the Nahe catchment. In WaSiM-ETH, the potential evapotranspiration (ETP) was firstly calculated by the Penman-Monteith equation, and subsequently reduced according to the soil water content to obtain the actual evapotranspiration (ETA). The Penman-Monteith equation has been widely used and recommended for ETP estimation. The difficulties in applying this equation are the high demand of ground-measured meteorological data and the determination of surface resistance. A method combined remote sensing images with ground-measured meteorological data was also used to retrieve the ETA. This method is based on the surface properties such as surface albedo, fractional vegetation cover (FVC) and land surface temperature (LST) to obtain the latent heat flux (LE, corresponding to ETA) through the surface energy balance equation. LST is a critical variable for surface energy components estimation. It was retrieved from the TM/ETM+ thermal infrared (TIR) band. Due to the high-quality and cloudy-free requirements for TM/ETM+ data selection as well as the overlapping cycle of TM/ETM+ sensor is 16 days, images on only five dates are available during 1971-2003 (model ran) " May 15, 2000, July 05, 2001, July 19, August 04 and September 21 in 2003. It is found that the climate conditions of 2000, 2001 and 2003 are wet, medium wet and dry, respectively. Therefore, the remote sensing-retrieved observations are noncontinuous in a limited number over time but contain multiple climate conditions. Aerodynamic resistance and surface resistance are two most important parameters in the Penman-Monteith equation. However, for forest area, the aerodynamic resistance is calculated by a function of wind speed in the model. Since transpiration and evaporation are separately calculated by the Penman-Monteith equation in the model, the surface resistance was divided into canopy surface resistance rsc and soil surface resistance rse. rsc is related to the plants transpiration and rse is related to the bare soil evaporation. The interception evaporation was not taken into account due to its negligible contribution to ET rate under a dry-canopy (no rainfall) condition. Based on the remote sensing-retrieved observations, rsc and rse were calibrated in the WaSiM-ETH model for both forest types: for deciduous forest, rsc = 150 sm−1, rse = 250 sm−1; for coniferous forest, rsc = 300 sm−1, rse = 650 sm−1. We also carried out sensitivity analysis on rsc and rse. The appropriate value ranges of rsc and rse were determined as (annual maximum): for deciduous forest, [100,225] sm−1 for rsc and [50,450] sm−1 for rse; for coniferous forest, [225,375] sm−1 for rsc and [350,1200] sm−1 for rse. Due to the features of the observations that are in a limited number but contain multiple climate conditions, the statistical indices for model performance evaluation are required to be sensitive to extreme values. In this study, boxplots were found to well exhibit the model performance at both spatial and temporal scale. Nush-Sutcliffe efficiency (NSE), RMSE-observations standard deviation ratio (RSR), percent bias (PBIAS), mean bias error (MBE), mean variance of error distribution (S2d), index of agreement (d), root mean square error (RMSE) were found as appropriate statistical indices to provide additional evaluation information to the boxplots. The model performance can be judged as satisfactory if NSE > 0.5, RSR ≤ 0.7, PBIAS < -±12, MBE < -±0.45, S2d < 1.11, d > 0.79, RMSE < 0.97. rsc played a more important role than rse in ETP and ETA estimation by the Penman-Monteith equation, which is attributed to the fact that transpiration dominates in ET. The ETP estimation was found the most correlated to the relative humidity (RH), followed by air temperature (T), relative sunshine duration (SSD) and wind speed (WS). Under wet or medium wet climate conditions, ETA estimation was found the most correlated to T, followed by RH, SSD and WS. Under a water-stress condition, there were very small correlations between ETA and each meteorological variable.
In Deutschland fallen bei der Wasseraufbereitung, der Verarbeitung von Gesteinen, Recyclingprozessen und in der Industrie etliche mineralische Zwangs-, Koppel-, Neben- oder Abfallprodukte an, die aufgrund ihrer Inhaltsstoffe als Puffersubstanzen oder Nährstofflieferanten im Wald eingesetzt werden könnten. In diesem Projekt wurde die Wirksamkeit und Ökosystemverträglichkeit von Mischungen potentieller Sekundärrohstoffe in Gefäßversuchen, Lysimeterversuchen, Freilandversuchen, Perkolationsversuchen und Keim- und Wachstumsversuchen untersucht. Die Mischungen bestehen aus Enthärterkalk und Magnesitstaub. Eingesetzte Enthärterkalke waren zwei Reaktorkornvarianten und ein Enthärterschlamm, dem zur besseren Händelbarkeit und als Kaliumquelle Bimsmehl bzw. Perlitstaub beigemischt wurde. Zur Anregung der biologischen Aktivität mit Phosphor wurden zwei Enthärterschlammmischungen mit Tiermehlasche aus der Monoverbrennung von Tierkörpermehl versetzt. Als Puffersubstanzen oder Nährstofflieferanten bewährten sich die Reaktorkörner, Magnesitstaub und Bimsmehl. Die Reaktorkornkalke wirken ähnlich dem herkömmlich eingesetzten Dolomit mit hoher oberflächennaher Säurepufferkapazität, verbesserter Basensättigung des Mineralbodens, Reduktion der Schwermetallmobilität und Aluminiumbelegung an den Austauscher sowie Erhöhung der Stickstoffspeicherkapazität. Unter dem Einfluss von Magnesitstaubs erhöhte sich der Magnesiumgehalt der Bodenlösung bis in den Hauptwurzelraum und Magnesiummangel in Pflanzen wurde signifikant behoben. Pflanzenvitalitätskennwerte verbesserten sich deutlich. Der Kaliumgehalt der Bodenlösung verbesserte sich bei Perlitstaub und Bimsmehl, in den Pflanzen nur bei Bimsmehl. Unter Einfluss der Tiermehlasche erhöhte sich weder der Gehalt der Bodenlösung noch die biologische Aktivität. Der enthaltene Phosphor liegt als schwerlösliches Hydroxylapatit vor, leichter lösliches Phosphat wurde als Calciumphosphat festgelegt. Durch geringe Anteile von Kalkmilch im Enthärterschlamm wurden initiale Nitrat- und Protonenschübe initiiert, die in stickstoffgesättigten Systemen problematisch werden können. Auf der Basis der Untersuchungsergebnisse wurden die positiv bewerteten Sekundärrohstoffe in die 2003 neugefasste Düngemittelverordnung aufgenommen.
The glucocorticoid (GC) cortisol, main mediator of the hypothalamic-pituitary-adrenal axis, has many implications in metabolism, stress response and the immune system. GC function is mediated mainly via the glucocorticoid receptor (GR) which binds as a transcription factor to glucocorticoid response elements (GREs). GCs are strong immunosuppressants and used to treat inflammatory and autoimmune diseases. Long-term usage can lead to several irreversible side effects which make improved understanding indispensable and warrant the adaptation of current drugs. Several large scale gene expression studies have been performed to gain insight into GC signalling. Nevertheless, studies at the proteomic level have not yet been made. The effects of cortisol on monocytes and macrophages were studied in the THP-1 cell line using 2D fluorescence difference gel electrophoresis (2D DIGE) combined with MALDI-TOF mass spectrometry. More than 50 cortisol-modulated proteins were identified which belonged to five functional groups: cytoskeleton, chaperones, immune response, metabolism, and transcription/translation. Multiple GREs were found in the promoters of their corresponding genes (+10 kb/-0.2 kb promoter regions including all alternative promoters available within the Database for Transcription Start Sites (DBTSS)). High quality GREs were observed mainly in cortisol modulated genes, corroborating the proteomics results. Differential regulation of selected immune response related proteins were confirmed by qPCR and immuno-blotting. All immune response related proteins (MX1, IFIT3, SYWC, STAT3, PMSE2, PRS7) which were induced by LPS were suppressed by cortisol and belong mainly to classical interferon target genes. Mx1 has been selected for detailed expression analysis since new isoforms have been identified by proteomics. FKBP51, known to be induced by cortisol, was identified as the strongest differentially expressed protein and contained the highest number of strict GREs. Genomic analysis of five alternative FKBP5 promoter regions suggested GC inducibility of all transcripts. 2D DIGE combined with 2D immunoblotting revealed the existence of several previously unknown FKBP51 isoforms, possibly resulting from these transcripts. Additionally multiple post-translational modifications were found, which could lead to different subcellular localization in monocytes and macrophages as seen by confocal microscopy. Similar results were obtained for the different cellular subsets of human peripheral blood mononuclear cells (PBMCs). FKBP51 was found to be constitutively phosphorylated with up to 8 phosphosites in CD19+ B lymphocytes. Differential Co-immunoprecipitation for cytoplasm and nucleus allowed us to identify new potential interaction partners. Nuclear FKBP51 was found to interact with myosin 9, whereas cytosolic FKBP51 with TRIM21 (synonym: Ro52, Sjögren`s syndrome antigen). The GR has been found to interact with THOC4 and YB1, two proteins implicated in mRNA processing and transcriptional regulation. We also applied proteomics to study rapid non-genomic effects of acute stress in a rat model. The nuclear proteome of the thymus was investigated after 15 min restraint stress and compared to the non-stressed control. Most of the identified proteins were transcriptional regulators found to be enriched in the nucleus probably to assist gene expression in an appropriate manner. The proteomic approach allowed us to further understand the cortisol mediated response in monocytes/macrophages. We identified several new target proteins, but we also found new protein variants and post-translational modifications which need further investigation. Detailed study of FKBP51 and GR indicated a complex regulation network which opened a new field of research. We identified new variants of the anti-viral response protein MX1, displaying differential expression and phosphorylation in the cellular compartments. Further, proteomics allowed us to follow the very early effects of acute stress, which happen prior to gene expression. The nuclear thymocyte proteome of restraint stressed rats revealed an active preparation for subsequent gene expression. Proteomics was successfully applied to study differential protein expression, to identify new protein variants and phosphorylation events as well as to follow translocation. New aspects for future research in the field of cortisol-mediated immune modulation have been added.
This work addresses the algorithmic tractability of hard combinatorial problems. Basically, we are considering \NP-hard problems. For those problems we can not find a polynomial time algorithm. Several algorithmic approaches already exist which deal with this dilemma. Among them we find (randomized) approximation algorithms and heuristics. Even though in practice they often work in reasonable time they usually do not return an optimal solution. If we constrain optimality then there are only two methods which suffice for this purpose: exponential time algorithms and parameterized algorithms. In the first approach we seek to design algorithms consuming exponentially many steps who are more clever than some trivial algorithm (who simply enumerates all solution candidates). Typically, the naive enumerative approach yields an algorithm with run time $\Oh^*(2^n)$. So, the general task is to construct algorithms obeying a run time of the form $\Oh^*(c^n)$ where $c<2$. The second approach considers an additional parameter $k$ besides the input size $n$. This parameter should provide more information about the problem and cover a typical characteristic. The standard parameterization is to see $k$ as an upper (lower, resp.) bound on the solution size in case of a minimization (maximization, resp.) problem. Then a parameterized algorithm should solve the problem in time $f(k)\cdot n^\beta$ where $\beta$ is a constant and $f$ is independent of $n$. In principle this method aims to restrict the combinatorial difficulty of the problem to the parameter $k$ (if possible). The basic hypothesis is that $k$ is small with respect to the overall input size. In both fields a frequent standard technique is the design of branching algorithms. These algorithms solve the problem by traversing the solution space in a clever way. They frequently select an entity of the input and create two new subproblems, one where this entity is considered as part of the future solution and another one where it is excluded from it. Then in both cases by fixing this entity possibly other entities will be fixed. If so then the traversed number of possible solution is smaller than the whole solution space. The visited solutions can be arranged like a search tree. To estimate the run time of such algorithms there is need for a method to obtain tight upper bounds on the size of the search trees. In the field of exponential time algorithms a powerful technique called Measure&Conquer has been developed for this purpose. It has been applied successfully to many problems, especially to problems where other algorithmic attacks could not break the trivial run time upper bound. On the other hand in the field of parameterized algorithms Measure&Conquer is almost not known. This piece of work will present examples where this technique can be used in this field. It also will point out what differences have to be made in order to successfully apply the technique. Further, exponential time algorithms for hard problems where Measure&Conquer is applied are presented. Another aspect is that a formalization (and generalization) of the notion of a search tree is given. It is shown that for certain problems such a formalization is extremely useful.
Vor dem Hintergrund eines fachlichen und gesellschaftlichen Interesses an psychologischen Forschungsthemen wurde der Einsatz von Topic Modeling zu deren automatisierten und validen Identifikation erprobt und mit einem traditionellen Ansatz verglichen, der auf Klassifikationskategorien von Fachdatenbanken beruht. Kern der Arbeit sind drei Studien mit unterschiedlichen Anwendungsszenarien: (1) Die Ermittlung psychologischer Brennpunktthemen, (2) das Verhältnis zwischen gesellschaftlichen Herausforderungen und Themen der psychologischen Fachliteratur sowie (3) die Forschungsinteressen von Psychologinnen und Psychologen. In jeder dieser Studien wurden sukzessive neue methodische Schwerpunkte gesetzt. Die Erkenntnisse daraus flossen in die Entwicklung einer nutzerfreundlichen App zur Exploration und Analyse von psychologischen Forschungsthemen ein. Im Vergleich mit dem klassifikationsbasierten Ansatz erwies sich Topic Modeling als Methode der Wahl zur automatisierten und differenzierten Identifikation psychologischer Forschungsthemen. Zur externen Validierung der Themeninhalte stellte sich ein Klassifikationssystem für psychologische Fachliteratur jedoch als geeignet heraus. Einschränkungen, Implikationen für weitere Forschung sowie Folgerungen für die Weiterentwicklung digitaler Produkte von forschungsbasierten Infrastruktureinrichtungen in der Psychologie werden diskutiert. Abschließend wird eine Entscheidungsheuristik zur Auswahl geeigneter Topic-Modeling-Varianten im Kontext von Forschungsthemen vorgelegt.
Attitudes are "the most distinctive and indispensable concept in contemporary social psychology" (Allport, 1935, p. 798). This outstanding position of the attitude concept in social cognitive research is not only reflected in the innumerous studies focusing on this concept but also in the huge number of theoretical approaches that have been put forth since then. Yet, it is still an open question, what attitudes actually are. That is, the question of how attitude objects are represented in memory cannot be unequivocally answered until now (e.g., Barsalou, 1999; Gawronski, 2007; Pratkanis, 1989, Chapter 4). In particular, researchers strongly differ with respect to their assumptions on the content, format and structural nature of attitude representations (Ferguson & Fukukura, 2012). This prevailing uncertainty on what actually constitutes our likes and dislikes is strongly dovetailed with the question of which processes result in the formation of these representations. In recent years, this issue has mainly been addressed in evaluative conditioning research (EC). In a standard EC-paradigm a neutral stimulus (conditioned stimulus, CS) is repeatedly paired with an affective stimulus (unconditioned stimulus, US). The pairing of stimuli then typically results in changes in the evaluation of the CS corresponding to the evaluative response of the US (De Houwer, Baeyens, & Field, 2005). This experimental approach on the formation of attitudes has primarily been concerned with the question of how the representations underlying our attitudes are formed. However, which processes operate on the formation of such an attitude representation is not yet understood (Jones, Olson, & Fazio, 2010; Walther, Nagengast, & Trasselli, 2005). Indeed, there are several ideas on how CS-US pairs might be encoded in memory. Notwithstanding the importance of these theoretical ideas, looking at the existing empirical work within the research area of EC (for reviews see Hofmann, De Houwer, Perugini, Baeyens, & Crombez, 2010; De Houwer, Thomas, & Baeyens, 2001) leaves one with the impression that scientists have skipped the basic processes. Basic processes hereby especially refer to the attentional processes being involved in the encoding of CSs and USs as well as the relation between them. Against the background of this huge gap in current research on attitude formation, the focus of this thesis will be to highlight the contribution of selective attention processes to a better understanding of the representation underlying our likes and dislikes. In particular, the present thesis considers the role of selective attention processes for the solution of the representation issue from three different perspectives. Before illustrating these different perspectives, Chapter 1 is meant to envision the omnipresence of the representation problem in current theoretical as well as empirical work on evaluative conditioning. Likewise, it emphasizes the critical role of selective attention processes for the representation question in classical conditioning and how this knowledge might be used to put forth the uniqueness of evaluative conditioning as compared to classical conditioning. Chapter 2 then considers the differential influence of attentional resources and goal-directed attention on attitude learning. The primary objective of the presented experiment was thereby to investigate whether attentional resources and goal-directed attention exert their influence on EC via changes in the encoding of CS-US relations in memory (i.e., contingency memory). Taking the findings from this experiment into account, Chapter 3 focuses on the selective processing of the US relative to the CS. In particular, the two experiments presented in this chapter were meant to explore the moderating influence of the selective processing of the US in its relation to the CS on EC. In Chapter 4 the important role of the encoding of the US in relation to the CS, as outlined in Chapter 3, is illuminated in the context of different retrieval processes. Against the background of the findings from the two presented experiments, the interplay between the encoding of CS-US contingencies and the moderation of EC via different retrieval processes will be discussed. Finally, a general discussion of the findings, their theoretical implications and future research lines will be outlined in Chapter 5.
The present thesis is devoted to a construction which defies generalisations about the prototypical English noun phrase (NP) to such an extent that it has been termed the Big Mess Construction (Berman 1974). As illustrated by the examples in (1) and (2), the NPs under study involve premodifying adjective phrases (APs) which precede the determiner (always realised in the form of the indefinite article a(n)) rather than following it.
(1) NoS had not been hijacked – that was too strong a word. (BNC: CHU 1766)
(2) He was prepared for a battle if the porter turned out to be as difficult a customer as his wife. (BNC: CJX 1755)
Previous research on the construction is largely limited to contributions from the realms of theoretical syntax and a number of cursory accounts in reference grammars. No comprehensive investigation of its realisations and uses has as yet been conducted. My thesis fills this gap by means of an exhaustive analysis of the construction on the basis of authentic language data retrieved from the British National Corpus (BNC). The corpus-based approach allows me to examine not only the possible but also the most typical uses of the construction. Moreover, while previous work has almost exclusively focused on the formal realisations of the construction, I investigate both its forms and functions.
It is demonstrated that, while the construction is remarkably flexible as concerns its possible realisations, its use is governed by probabilistic constraints. For example, some items occur much more frequently inside the degree item slot than others (as, too and so stand out for their particularly high frequency). Contrary to what is assumed in most previous descriptions, the slot is not restricted in its realisation to a fixed number of items. Rather than representing a specialised structure, the construction is furthermore shown to be distributed over a wide range of possible text types and syntactic functions. On the other hand, it is found to be much less typical of spontaneous conversation than of written language; Big Mess NPs further display a strong preference for the function of subject complement. Investigations of the internal structural complexity of the construction indicate that its obligatory components can optionally be enriched by a remarkably wide range of optional (if infrequent) elements. In an additional analysis of the realisations of the obligatory but lexically variable slots (head noun and head of AP), the construction is highlighted to represent a productive pattern. With the help of the methods of Collexeme Analysis (Stefanowitsch and Gries 2003) and Co-varying Collexeme Analysis (Gries and Stefanowitsch 2004b, Stefanowitsch and Gries 2005), the two slots are, however, revealed to be strongly associated with general nouns and ‘evaluative’ and ‘dimension’ adjectives, respectively. On the basis of an inspection of the most typical adjective-noun combinations, I identify the prototypical semantics of the Big Mess Construction.
The analyses of the constructional functions centre on two distinct functional areas. First, I investigate Bolinger’s (1972) hypothesis that the construction fulfils functions in line with the Principle of Rhythmic Alternation (e.g. Selkirk 1984: 11, Schlüter 2005). It is established that rhythmic preferences co-determine the use of the construction to some extent, but that they clearly do not suffice to explain the phenomenon under study. In a next step, the discourse-pragmatic functions of the construction are scrutinised. Big Mess NPs are demonstrated to perform distinct information-structural functions in that the non-canonical position of the AP serves to highlight focal information (compare De Mönnink 2000: 134-35). Additionally, the construction is shown to place emphasis on acts of evaluation. I conclude the construction to represent a contrastive focus construction.
My investigations of the formal and functional characteristics of Big Mess NPs each include analyses which compare individual versions of the construction to one another (e.g. the As Big a Mess, Too Big a Mess and So Big a Mess Constructions). It is revealed that the versions are united by a shared core of properties while differing from one another at more abstract levels of description. The question of the status of the constructional versions as separate constructions further receives special emphasis as part of a discussion in which I integrate my results into the framework of usage-based Construction Grammar (e.g. Goldberg 1995, 2006).
Diese Arbeit konzentriert sich auf die Darstellung gemeinsamer Projekte von Hotelunternehmen und Hochschulen mit hotelspezifischen Studienangeboten. Infolge der demografischen Entwicklungen sowie des Wertewandels gewinnen Personalgewinnung und Mitarbeiterloyalisierung zunehmend an Bedeutung und werden zu einem Wettbewerbsparameter der Hotellerie. Für diese essentielle Herausforderung sind Hotelbetriebe mit engagierter Mitarbeiterförderung gefragt. Viele Hochschulen haben neue Studiengänge im Tourismus, Event- oder Hotelmanagementbereich praxisorientiert aufgelegt, um der Skepsis der Hotellerie entgegen zu wirken und um zugleich den Erwartungen der Studenten gerecht zu werden. Viele der Studenten wären potenzielle Auszubildende, die sich bei der Abwägung allerdings für die Studienoption entschieden haben. Daher ist es wichtig, in enger Kooperation mit den hierzu passenden Institutionen und Bildungsträgern, vor allem praxisnahe Studienmodelle für sich verändernde Erwartungen der Bewerber mit modernen Lehrinhalten zu entwickeln und erfolgreich am Markt zu platzieren. Daher verfolgt diese Arbeit den Ansatz, adäquate Kriterien und Faktoren für den Erfolg vertraglich vereinbarter Kooperationen zwischen Hotelketten und Hochschulen zu analysieren und daraus Handlungsempfehlungen abzuleiten. Die große Anzahl an Kooperationen macht deutlich, dass die Notwendigkeit für die Hotellerie, sich im Bereich der Mitarbeitergewinnung, -bindung und -entwicklung mit akademischen Partnern zusammen zu schließen, bei einer ansteigenden Zahl von Hotelgruppen nachvollzogen wird. Durch die zurückhaltende Vermarktung vieler Kooperationsmodelle ist deren Bekanntheit jedoch begrenzt und dadurch auch deren positive Auswirkungen auf das Image der Hotellerie. Gleichwohl sind in der Bildungslandschaft steigende Studentenzahlen und eine Vermehrung der Studiengänge bei gleichzeitig gravierender Abnahme der Zahl berufsfachlich Ausgebildeter erkennbar. Die Kooperationsmodelle sind daher ein sinnvolles Instrument, um auf diese Marktentwicklungen zu reagieren, wobei ihre Bedeutung primär von Unternehmen mit strategischer Personalpolitik erkannt wird. Daraus wurde die "Typologie privilegierter Bildungspartnerschaften" mit einer Bandbreite von zehn Kooperationstypen entwickelt. Damit werden unterschiedliche Intensitäten der partnerschaftlichen Bildungselemente ebenso deutlich wie ein individualisiertes "Faktoren-Phasenmodell", dass die Prozessstruktur der Kooperationsentwicklung abbildet. Je nach Enge der Zusammenarbeit, nach Unternehmens- und Hochschulphilosophie und entsprechend der Erfahrungen mit Kooperationen entstehen vor allem Verpflichtungen und Herausforderungen in der aktiven Gestaltung und verlässlichen Kommunikation in einem Kooperationsmodell. Eine Schlüsselrolle nimmt der persönlich verantwortliche Koordinator ein, der als Garant für eine effiziente Organisation und Professionalität angesehen wird. Daraus ableitend sind die Erfolgsfaktoren im ASP-Modell herausgefiltert worden: Attraktivität, Sicherheit und Persönlichkeit machen den Erfolg einer privilegierten Bildungspartnerschaft aus. Bestätigt wurde zudem, dass die Erfahrung der beiden Partner einer Kooperation zueinander passen muss und eine klare Zielvereinbarung mit Fixierung der Pflichten und Aufgaben erforderlich ist. Ein hoher Qualitätsanspruch, Transparenz und Prozesseffizienz ergänzen dies und machen deutlich, dass der Bildungsbereich als Teil der Personalpolitik eines Unternehmens sensibel und anspruchsvoll zugleich ist. Die Verankerung auf der Führungsebene eines Unternehmens ist entscheidend, um durch ein Signal nach innen und außen den Stellenwert einer Bildungsallianz zu verdeutlichen. Wenn aus Lernen und Wissen wirtschaftliche Vorteile erarbeitet werden können, wird Bildung noch mehr als Markenkern eines guten Arbeitgebers interpretiert. Auf dieser Grundlage wird der Gedanke der Personalentwicklung durch den Ansatz fortwährender Mitarbeiterbildung perfektioniert und der Lösungsansatz einer "privilegierten Bildungspartnerschaft" legt den Grundstein dafür. Nachwuchskräfteförderung wird zum strategischen Mittel der Mitarbeiterbindung und zur Vermeidung kostenintensiver Vakanzen, zudem sichern Netzwerke Fachwissen und stärken das Unternehmensimage. Mit privilegierten Bildungspartnerschaften werden geeignete Modelle vorgestellt, um einsatzfreudige Mitarbeiter zu halten und sie gleichzeitig auf den nächsten Karriereschritt vorzubereiten. Die vorliegende Ausarbeitung liefert einen Diskussionsbeitrag zum besseren gegenseitigen Verständnis einer Symbiose aus Hotelkette und Hochschule im Bildungsbereich sowie erfolgreiche Konzeptideen für vielfältige Netzwerkstrukturen.
Mankind has dramatically influenced the nitrogen (N) fluxes between soil, vegetation, water and atmosphere " the global N cycle. Increasing intensification of agricultural land use, caused by the growing demand for agricultural products, has had major impacts on ecosystems worldwide. Particularly nitrogenous gases such as ammonia (NH3) have increased mainly due to industrial livestock farming. Countries with high N deposition rates require a variety of deposition measurements and effective N monitoring networks to assess N loads. Due to high costs, current "conventional"-deposition measurement stations are not widespread and therefore provide only a patchy picture of the real extent of the prevailing N deposition status over large areas. One tool that allows quantification of the exposure and the effects of atmospheric N impacts on an ecosystem is the use of bioindicators. Due to their specific physiology and ecology, especially lichens and mosses are suitable to reflect the atmospheric N input at ecosystem level. The present doctoral project began by investigating the general ability of epiphytic lichens to qualify and quantify N deposition by analysing both lichens and total N and δ15N along a gradient of different N emission sources and severity. The results showed that this was a viable monitoring method, and a grid-based monitoring system with nitrophytic lichens was set up in the western part of Germany. Finally, a critical appraisal of three different monitoring techniques (lichens, mosses and tree bark) was carried out to compare them with national relevant N deposition assessment programmes. In total 1057 lichen samples, 348 tree bark samples, 153 moss samples and 24 deposition water samples, were analysed in this dissertation at different investigation scales in Germany.The study identified species-specific ability and tolerance of various epiphytic lichens to accumulate N. Samples of tree bark were also collected and N accumulation ability was detected in connection with the increased intensity of agriculture, and according to the presence of reduced N compounds (NHx) in the atmosphere. Nitrophytic lichens (Xanthoria parietina, Physcia spp.) have the strongest correlations with high agriculture-related N deposition. In addition, the main N sources were revealed with the help of δ15N values along a gradient of altitude and areas affected by different types of land use (NH3 density classes, livestock units and various deposition types). Furthermore, in the first nationwide survey of Germany to compare lichens, mosses and tree bark samples as biomonitors for N deposition, it was revealed that lichens are clearly the most meaningful monitor organisms in highly N affected regions. Additionally, the study shows that dealing with different biomonitors is a difficult task due to their variety of N responses. The specific receptor surfaces of the indicators and therefore their different strategies of N uptake are responsible for the tissue N concentration of each organism group. It was also shown that the δ15N values depend on their N origin and the specific N transformations in each organism system, so that a direct comparison between atmosphere and ecosystems is not possible.In conclusion, biomonitors, and especially epiphytic lichens may serve as possible alternatives to get a spatially representative picture of the N deposition conditions. Furthermore, bioindication with lichens is a cost-efficient alternative to physico-chemical measurements to comprehensively assess different prevailing N doses and sources of N pools on a regional scale. They can at least support on-site deposition instruments by qualification and quantification of N deposition.
N-acetylation by N-acetyltransferase 1 (NAT1) is an important biotransformation pathway of the human skin and it is involved in the deactivation of the arylamine and well-known contact allergen para-phenylenediamine (PPD). Here, NAT1 expression and activity were analyzed in antigen presenting cells (monocyte-derived dendritic cells, MoDCs, a model for epidermal Langerhans cells) and human keratinocytes. The latter were used to study exogenous and endogenous NAT1 activity modulations. Within this thesis, MoDCs were found to express metabolically active NAT1. Activities were between 23.4 and 26.6 nmol/mg/min and thus comparable to peripheral blood mononuclear cells. These data suggest that epidermal Langerhans cells contribute to the cutaneous N-acetylation capacity. Keratinocytes, which are known for their efficient N-acetylation, were analyzed in a comparative study using primary keratinocytes (NHEK) and different shipments of the immortalized keratinocyte cell line HaCaT, in order to investigate the ability of the cell line to model epidermal biotransformation. N-acetylation of the substrate para-aminobenzoic acid (PABA) was 3.4-fold higher in HaCaT compared to NHEK and varied between the HaCaT shipments (range 12.0"44.5 nmol/mg/min). Since B[a]P induced cytochrome p450 1 (CYP1) activities were also higher in HaCaT compared to NHEK, the cell line can be considered as an in vitro tool to qualitatively model epidermal metabolism, regarding NAT1 and CYP1. The HaCaT shipment with the highest NAT1 activity showed only minimal reduction of cell viability after treatment with PPD and was subsequently used to study interactions between NAT1 and PPD in keratinocytes. Treatment with PPD induced expression of cyclooxygenases (COX) in HaCaT, but in parallel, PPD N-acetylation was found to saturate with increasing PPD concentration. This saturation explains the presence of the PPD induced COX induction despite the high N-acetylation capacities. A detailed analysis of the effect of PPD on NAT1 revealed that the saturation of PPD N-acetylation was caused by a PPD-induced decrease of NAT1 activity. This inhibition was found in HaCaT as well as in primary keratinocytes after treatment with PPD and PABA. Regarding the mechanism, reduced NAT1 protein level and unaffected NAT1 mRNA expression after PPD treatment adduced clear evidences for substrate-dependent NAT1 downregulation. These results expand the existing knowledge about substrate-dependent NAT1 downregulation to human epithelial skin cells and demonstrate that NAT1 activity in keratinocytes can be modulated by exogenous factors. Further analysis of HaCaT cells from different shipments revealed an accelerated progression through the cell cycle in HaCaT cells with high NAT1 activities. These findings suggest an association between NAT1 and proliferation in keratinocytes as it has been proposed earlier for tumor cells. In conclusion, N-acetylation capacity of MoDCs as well as keratinocytes contribute to the overall N-acetylation capacity of human skin. NAT1 activity of keratinocytes and consequently the detoxification capacities of human skin can be modulated by the presence of exogenous NAT1 substrates and endogenous by the cell proliferation status of keratinocytes.
Traumabewältigung
(2004)
Let K be a compact subset of the complex plane. Then the family of polynomials P is dense in A(K), the space of all continuous functions on K that are holomorphic on the interior of K, endowed with the uniform norm, if and only if the complement of K is connected. This is the statement of Mergelyan's celebrated theorem.
There are, however, situations where not all polynomials are required to approximate every f ϵ A(K) but where there are strict subspaces of P that are still dense in A(K). If, for example, K is a singleton, then the subspace of all constant polynomials is dense in A(K). On the other hand, if 0 is an interior point of K, then no strict subspace of P can be dense in A(K).
In between these extreme cases, the situation is much more complicated. It turns out that it is mostly determined by the geometry of K and its location in the complex plane which subspaces of P are dense in A(K). In Chapter 1, we give an overview of the known results.
Our first main theorem, which we will give in Chapter 3, deals with the case where the origin is not an interior point of K. We will show that if K is a compact set with connected complement and if 0 is not an interior point of K, then any subspace Q ⊂ P which contains the constant functions and all but finitely many monomials is dense in A(K).
There is a close connection between lacunary approximation and the theory of universality. At the end of Chapter 3, we will illustrate this connection by applying the above result to prove the existence of certain universal power series. To be specific, if K is a compact set with connected complement, if 0 is a boundary point of K and if A_0(K) denotes the subspace of A(K) of those functions that satisfy f(0) = 0, then there exists an A_0(K)-universal formal power series s, where A_0(K)-universal means that the family of partial sums of s forms a dense subset of A_0(K).
In addition, we will show that no formal power series is simultaneously universal for all such K.
The condition on the subspace Q in the main result of Chapter 3 is quite restrictive, but this should not be too surprising: The result applies to the largest possible class of compact sets.
In Chapter 4, we impose a further restriction on the compact sets under consideration, and this will allow us to weaken the condition on the subspace Q. The result that we are going to give is similar to one of those presented in the first chapter, namely the one due to Anderson. In his article “Müntz-Szasz type approximation and the angular growth of lacunary integral functions”, he gives a criterion for a subspace Q of P to be dense in A(K) where K is entirely contained in some closed sector with vertex at the origin.
We will consider compact sets with connected complement that are -- with the possible exception of the origin -- entirely contained in some open sector with vertex at the origin. What we are going to show is that if K\{0} is contained in an open sector of opening angle 2α and if Λ is some subset of the nonnegative integers, then the span of {z → z^λ : λ ϵ Λ} is dense in A(K) whenever 0 ϵ Λ and some Müntz-type condition is satisfied.
Conversely, we will show that if a similar condition is not satisfied, then we can always find a compact set K with connected complement such that K\{0} is contained in some open sector of opening angle 2α and such that the span of {z → z^λ : λ ϵ Λ} fails to be dense in A(K).
Kunstgeographie versucht, die räumlichen Beziehungen zwischen der (Bau-) Kunst und den sie bestimmenden Faktoren innerhalb ihres Entstehungsraumes aufzuzeigen. Dabei werden die örtliche Verbreitung von Stilformen und "typen, die Baumaterialien und die landschaftliche Differenzierung und regionale Ausprägung von Stilformen untersucht. Neben der Aufarbeitung des aktuellen Forschungsstandes wird in dieser Arbeit die kunstgeographische Analyse als Methode einer synthetisch-kulturgeographischen Raumdifferenzierung entwickelt und am Beispiel der Renaissancearchitektur in Deutschland aufgezeigt. Auf Basis von mehr als 3.100 Renaissancebauten konnten durch die kartographische Umsetzung und Interpretation der erhobenen Daten erstmals kunstgeographische Raumbilder als Konzentrationsräume des Baustils visualisiert werden. Dabei wurden Faktoren wie der Einfluss des Menschen, der Naturraum sowie die wirtschaftlichen, historischen und sozialen Bedingungen analysiert, die raumbildprägend sind. Neben der internationalen Entwicklung fließen die innerhalb Deutschlands wirksamen Innovationszentren und Schlüsselbauten der Renaissancearchitektur in die Betrachtung ein, sodass die Gemeinsamkeiten und Unterschiede innerhalb unserer Kulturumwelt im regionalen und überregionalen Zusammenhang verdeutlicht und in Bezug gesetzt werden. Es wird gezeigt, dass sich innerhalb des Zeitstils der Renaissance in Deutschland vor einem unterschiedlichen kunstgeographischen Hintergrund regionale Schwerpunkt räume formierten, die bis heute das Raumbild beeinflussen. Damit wird ein detaillierter, raumwissenschaftlich erklärender Überblick über die Verbreitung und Ausprägung des Zeitstils vorgestellt, der die Basis einer anwendungsorientierten humangeographischen Forschung in den Bereichen Kulturleben und Tourismusentwicklung bildet.
Statistical matching offers a way to broaden the scope of analysis without increasing respondent burden and costs. These would result from conducting a new survey or adding variables to an existing one. Statistical matching aims at combining two datasets A and B referring to the same target population in order to analyse variables, say Y and Z, together, that initially were not jointly observed. The matching is performed based on matching variables X that correspond to common variables present in both datasets A and B. Furthermore, Y is only observed in B and Z is only observed in A. To overcome the fact that no joint information on X, Y and Z is available, statistical matching procedures have to rely on suitable assumptions. Therefore, to yield a theoretical foundation for statistical matching, most procedures rely on the conditional independence assumption (CIA), i.e. given X, Y is independent of Z.
The goal of this thesis is to encompass both the statistical matching process and the analysis of the matched dataset. More specifically, the aim is to estimate a linear regression model for Z given Y and possibly other covariates in data A. Since the validity of the assumptions underlying the matching process determine the validity of the obtained matched file, the accuracy of statistical inference is determined by the suitability of the assumptions. By putting the focus on these assumptions, this work proposes a systematic categorisation of approaches to statistical matching by relying on graphical representations in form of directed acyclic graphs. These graphs are particularly useful in representing dependencies and independencies which are at the heart of the statistical matching problem. The proposed categorisation distinguishes between (a) joint modelling of the matching and the analysis (integrated approach), and (b) matching subsequently followed by statistical analysis of the matched dataset (classical approach). Whereas the classical approach relies on the CIA, implementations of the integrated approach are only valid if they converge, i.e. if the specified models are identifiable and, in the case of MCMC implementations, if the algorithm converges to a proper distribution.
In this thesis an implementation of the integrated approach is proposed, where the imputation step and the estimation step are jointly modelled through a fully Bayesian MCMC estimation. It is based on a linear regression model for Z given Y and accounts for both a linear regression model and a random effects model for Y. Furthermore, it yields its validity when the instrumental variable assumption (IVA) holds. The IVA corresponds to: (a) Z is independent of a subset X’ of X given Y and X*, where X* = X\X’ and (b) Y is correlated with X’ given X*. The proof, that the joint Bayesian modelling of both the model for Z and the model for Y through an MCMC simulation converges to a proper distribution is provided in this thesis. In a first model-based simulation study, the proposed integrated Bayesian procedure is assessed with regard to the data situation, convergence issues, and underlying assumptions. Special interest lies in the investigation of the interplay of the Y and the Z model within the imputation process. It turns out that failure scenarios can be distinguished by comparing the CIA and the IVA in the completely observed dataset.
Finally, both approaches to statistical matching, i.e. the classical approach and the integrated approach, are subject to an extensive comparison in (1) a model-based simulation study and (2) a simulation study based on the AMELIA dataset, which is an openly available very large synthetic dataset and, by construction, similar to the EU-SILC survey. As an additional integrated approach, a Bayesian additive regression trees (BART) model is considered for modelling Y. These integrated procedures are compared to the classical approach represented by predictive mean matching in the form of multiple imputations by chained equation. Suitably chosen, the first simulation framework offers the possibility to clarify aspects related to the underlying assumptions by comparing the IVA and the CIA and by evaluating the impact of the matching variables. Thus, within this simulation study two related aspects are of special interest: the assumptions underlying each method and the incorporation of additional matching variables. The simulation on the AMELIA dataset offers a close-to-reality framework with the advantage of knowing the whole setting, i.e. the whole data X, Y and Z. Special interest lies in investigating assumptions through adding and excluding auxiliary variables in order to enhance conditional independence and assess the sensitivity of the methods to this issue. Furthermore, the benefit of having an overlap of units in data A and B for which information on X, Y, Z is available is investigated. It turns out that the integrated approach yields better results than the classical approach when the CIA clearly does not hold. Moreover, even when the classical approach obtains unbiased results for the regression coefficient of Y in the model for Z, it is the method relying on BART that over all coefficients performs best.
Concluding, this work constitutes a major contribution to the clarification of assumptions essential to any statistical matching procedure. By introducing graphical models to identify existing approaches to statistical matching combined with the subsequent analysis of the matched dataset, it offers an extensive overview, categorisation and extension of theory and application. Furthermore, in a setting where none of the assumptions are testable (since X, Y and Z are not observed together), the integrated approach is a valuable asset by offering an alternative to the CIA.
This thesis deals with REITs, their capital structure and the effects on leverage that regulatory requirements might have. The data used results from a combination of Thomson Reuters data with hand-collected data regarding the REIT status, regulatory information and law variables. Overall, leverage is analysed across 20 countries in the years 2007 to 2018. Country specific data, manually extracted from yearly EPRA reportings, is merged with company data in order to analyse the influence of different REIT restrictions on a firm's leverage.
Observing statistically significant differences in means across NON-REITs and REITs, causes motivation for further investigations. My results show that variables beyond traditional capital structure determinants impact the leverage of REITs. I find that explicit restrictions on leverage and the distribution of profits have a significant effect on leverage decisions. This supports the notion that the restrictions from EPRA reportings are mandatory. I test for various combinations of regulatory variables that show both in isolation as well as in combination significant effects on leverage.
My main result is the following: Firms that operate under regulation that specifies a maximum leverage ratio, in addition to mandatory high dividend distributions, have on average lower leverage ratios. Further the existence of sanctions has a negative effect on REITs' leverage ratios, indicating that regulation is binding. The analysis clearly shows that traditional capital structure determinants are of second order relevance. This relationship highlights the impact on leverage and financing decisions caused by regulation. These effects are supported by further analysis. Results based on an event study show that REITs have statistically lower leverage ratios compared to NON-REITs. Based on a structural break model, the following effect becomes apparent: REITs increase their leverage ratios in years prior REIT status. As a consequence, the ex ante time frame is characterised by a bunker and adaption process, followed by the transformation in the event. Using an event study and a structural break model, the analysis highlights the dominance of country-specific regulation.
In recent years, the establishment of new makerspaces in Germany has increased significantly. The underlying phenomenon of the Maker Movement is a cultural and technological movement focused on making physical and digital products using open source principles, collaborative production, and individual empowerment. Because of its potential to democratize the innovation and production process, empower individuals and communities, and enable innovators to solve problems at the local level, the Maker Movement has received considerable attention in recent years. Despite numerous indicators, little is known about the phenomenon and its individual members, especially in Germany. Initial research suggests that the Maker Movement holds great potential for innovation and entrepreneurship. However, there is still a gap in understanding how Makers discover, evaluate and exploit entrepreneurial opportunities. Moreover, there is still controversy - both among policy makers and within the maker community itself - about the impact the maker movement has and can have on innovation and entrepreneurship in the future. This dissertation uses a mixed-methods approach to explore these questions. In addition to a quantitative analysis of maker characteristics, the results show that social impact, market size, and property rights have significant effects on the evaluation of entrepreneurial opportunities. The findings within this dissertation expand research in the field of the Maker Movement and offer multiple implications for practice. This dissertation provides the first quantitative data on makers in makerspaces in Germany, their characteristics and motivations. In particular, the relationship between the Maker Movement and entrepreneurship is explored in depth for the first time. This is complemented by the presentation of different identity profiles of the individuals involved. In this way, policy-makers can develop a better understanding of the movement, its personalities and values, and consider them in initiatives and formats.
Die Dissertation untersucht den Anteil der Armutsthematik an der Etablierung des Kinos in Deutschland. Der Untersuchungsschwerpunkt konzentriert sich auf die Jahre 1907 bis 1913, einer entscheidenden Zeitspanne für die Institutionalisierung des Kinos als Medium sui generis. Ziel der Untersuchung ist es, anhand von Filmanalysen wiederkehrende Muster medialer Praktiken der kinematographischen Artikulation der Sozialen Frage zu eruieren und ihre thematische Relevanz bzw. ihren Anteil für die Etablierung des Kinos in Deutschland zu bestimmen. Im Fokus stehen die Medienprodukte, ihre Motivgestaltung und Inszenierungspraktiken.
Seit seiner Unabhängigkeit erfreut sich Namibia als Reiseziel weltweit wachsender Beliebtheit, wodurch der Tourismus wirtschaftlich einen hohen Stellenwert hat. Zugleich lebt ein Großteil der Bevölkerung in Armut und ist zumeist noch immer von der Landwirtschaft abhängig. Diese dominiert flächenmäßig, zur Wertschöpfung und zur Entwicklung des Landes vermag sie allerdings nur wenig beizutragen. Kam im ariden Namibia ehemals nur Ranching als Landnutzung in Frage, sehen sich Landbesitzer wegen verschlechterter Rahmenbedingungen heute gezwungen, weitere Einkommensquellen zu erschließen. Naturtourismus ist eine der Alternativen. Ausgerechnet die wirtschaftlichen Schwächen der ländlichen Regionen mit naturnahen Landschaften, geringer anthropogener Überformung und der Abwesenheit von Industrie ermöglichen einzigartige Naturerlebnisse und stellen damit die Grundlage für Naturtourismus dar. Im Fokus der vorliegenden Studie stehen daher die Landnutzungen Ranching und Naturtourismus, die beide auf dem natürlichen Potenzial des Landes basieren und zugleich räumlich um die gleichen Flächen konkurrieren. Ziel ist die Bewertung der Auswirkungen beider Landnutzungen im Vergleich, um somit die für einen Raum am besten geeignete Nutzungsoption zu identifizieren und Verbesserungspotentiale bei der Ausgestaltung der untersuchten Landnutzungen aufzuzeigen. Die Erkenntnisse aus der einschlägigen Fachliteratur legen die Hypothese nahe, dass Naturtourismus im Vergleich zum Ranching die besser geeignete Landnutzung darstellt. Den theoretischen Rahmen zur Identifizierung der besser geeigneten Landnutzung bildet das Nachhaltigkeitskonstrukt, das wie jedes andere Theorem nicht unmittelbar mess- oder beobachtbar, sondern nur indirekt mit Hilfe von Indikatoren operationalisierbar ist. Die Mehrzahl der 34 insgesamt verwendeten Indikatoren entstammt dem Set der Vereinten Nationen. Alle verwendeten Indikatoren fanden Anwendung in einer für diese Arbeit auf Unternehmensebene adaptierten Version. Um den physischen wie humangeographischen Besonderheiten Namibias (Verfügbarkeit von Wasser, Namibia als Entwicklungsland etc.) gerecht zu werden, wurden zusätzliche Indikatoren für den regionalen Kontext der Studie konzipiert. Entsprechend dem Erkenntnisinteresse, unter Nachhaltigkeitsaspekten die am besten geeignete Landnutzung zu identifizieren, wurden anhand eines umfangreichen methodischen Kanons die empirischen Untersuchungen durchgeführt. Ausgangspunkt hierfür waren Erhebungen in Namibia, die in der Etosha-Region unmittelbar südlich der Kommunalgebiete stattfanden. Methodisch kamen dafür vorrangig quantitative Methoden zum Einsatz, wobei standardisierte Fragebögen als primäre Erhebungsinstrumente konzipiert wurden. Diese wurden von Expertengesprächen, Beobachtungen, Kartierungen und Sekundärdatenanalysen flankiert. Die Erkenntnisse aus den Erhebungen erlauben Aussagen für weite Gebiete Namibias mit vergleichbaren Bedingungen. So bestehen - entsprechend der Forschungshypothese - eindeutige Vorteile des Naturtourismus gegenüber dem Ranching hinsichtlich der betrachteten Landnutzungsauswirkungen, womit der Naturtourismus unter Nachhaltigkeitsaspekten die besser geeignete Landnutzung ist. Vor allem im Bereich der Sozialindikatoren überzeugen die Auswirkungen: Soziale Sicherheit, Wohnbedingungen (Elektrizität, Sanitäreinrichtungen, Wasserversorgung etc.), sozio-ökonomische Aufstiegschancen und die Mitarbeiterzufriedenheit sind zugunsten des Naturtourismus zu werten. Auch im Ökonomischen liegen die Vorteile bei dieser Landnutzung, wobei ein Aspekt negativ auffällt: Vor allem in puncto Regionalökonomie besteht im Tourismus Verbesserungsbedarf. Denn sowohl die Angestelltenrekrutierung als auch die Versorgung mit Waren und Dienstleistungen erfolgt mehrheitlich überregional. Dahingehend sind die Auswirkungen des Ranching als vorteilhafter anzusehen. Wie die Erhebungen ferner belegen, nimmt die Bedeutung des ausschließlichen Ranching aufgrund von Rentabilitätsproblemen auf kommerziellem Farmland sukzessive ab, stattdessen weisen Ländereien zumeist mehr als nur ein wirtschaftliches Standbein auf. Daher ist hinsichtlich der Landreform zu kritisieren, dass Neufarmer - wenn überhaupt - nur auf das Ranching vorbereitet werden. Wie die Erhebungen zeigen: eine wenig zeitgemäße Landnutzungsstrategie. Ein im Rahmen der Arbeit entwickeltes und ihr beiliegendes Farmrentabilitätstool verdeutlicht auf Basis einer Vielzahl vom Nutzer veränderlicher Einstellungen, wie schwierig die rentable Bewirtschaftung von Ranches heute ist.
Die vorliegende Arbeit beschäftigt sich mit dem Problem, daß Internet-Inhalte weltweit als strafbare Kommunikationsdelikte angesehen werden können. Die Warnungen vor Neonazis, die aus dem Ausland agieren, werden immer eindringlicher; gleichzeitig fürchten sich deutsche Anbieter vor ausländischen Strafverfolgungsbehörden. Ob diesen Entwicklungen aber durch eine internationale Lösung erfolgreich entgegengewirkt werden kann, erscheint fraglich. Der Autor untersucht daher die Strafbarkeit von Internet-Inhalten im weltweiten Kontext. Die bisherigen Bemühungen um eine internationale Lösung werden dargestellt und ihre Erfolgsaussichten überprüft. Dabei zeigt sich, daß nationale Ansätze nicht vorschnell übergangen werden sollten.
In dem Gebiet der Informationsextraktion angesiedelt kombiniert diese Arbeit mehrere Verfahren aus dem Bereich des maschinellen Lernens. Sie stellt einen neuen Algorithmus vor, der teil-überwachtes Lernen mit aktivem Lernen verknüpft. Ausgangsbasis ist die Analyse der Daten, indem sie in mehrere Sichten aufgeteilt werden. Hier werden die Eingaben verschiedener Personen unterteilt. Jeweils getrennt voneinander erzeugt der Algorithmus mittels Klassifizierern Modelle, die aus den individuellen Auszeichnungen der Personen aufgebaut werden. Um die dafür benötigte Datenmenge zu erhalten wird Crowdsourcing genutzt, dass es ermöglicht eine große Anzahl an Personen zu erreichen. Die Personen erhalten die Aufgabe, Texte zu annotieren. Einerseits wird dies initial für einen historischen Textkorpus vorgenommen. Dabei wird aufgeführt, welche Schritte notwendig sind, um die Annotationsaufgabe in Crowdsourcing-Portalen zur Bearbeitung anzubieten und durchzuführen. Andererseits wird ein aktueller Datensatz von Kurznachrichten genutzt. Der Algorithmus wird auf diese Beispieldatensätze angewandt. Durch Experimente wird die Ermittlung der optimalen Parameterauswahl durchgeführt. Außerdem werden die Ergebnisse mit den Resultaten bisheriger Algorithmen verglichen.
Spatial Queues
(2000)
In the present thesis, a theoretical framework for the analysis of spatial queues is developed. Spatial queues are a generalization of the classical concept of queues as they provide the possibility of assigning properties to the users. These properties may influence the queueing process, but may also be of interest for themselves. As a field of application, mobile communication networks are modeled by spatial queues in order to demonstrate the advantage of including user properties into the queueing model. In this application, the property of main interest is the user's position in the network. After a short introduction, the second chapter contains an examination of the class of Markov-additive jump processes, including expressions for the transition probabilities and the expectation as well as laws of large numbers. Chapter 3 contains the definition and analysis of the central concept of spatial Markovian arrival processes (shortly: SMAPs) as a special case of Markov-additive jump processes, but also as a natural generalization from the well-known concept of BMAPs. In chapters 4 and 5, SMAPs serve as arrival streams for the analyzed periodic SMAP/M/c/c and SMAP/G/infinity queues, respectively. These types of queues find application as models or planning tools for mobile communication networks. The analysis of these queues involves new methods such that even for the special cases of BMAP inputs (i.e. non-spatial queues) new results are obtained. In chapter 6, a procedure for statistical parameter estimation is proposed along with its numerical results. The thesis is concluded by an appendix which collects necessary results from the theories of Markov jump processes and stochastic point fields. For special classes of Markov jump processes, new results have been obtained, too.
Globalization and the emergence of global value chains have not only changed the way we live, but also the way economists study international economics. These changes are visible in various areas and dimension. This dissertation deals " mostly empirically " with some of these issues related to global value chains. It starts by critically examining the political economy forces determining the occurrence and the extent of trade liberalization conditions in World Bank lending agreements. The focal point is whether these are affected by the World Bank- most influential member countries. Afterwards, the thesis moves on to describe trade of the European Union member countries at each stage of the value chain. The description is based on a new classification of goods into parts, components and final products as well as a newly developed measure describing the average level of development of a countries trading partners. This descriptive exercise is followed by critically examining discrepancies between gross trade and trade in value added with respect to comparative advantage. A gravity model is employed to contrast results when studying the institutional determinants of comparative advantage. Finally, the thesis deals with determinants of regional location choices for foreign direct investment. The analysis is based on a theoretical new economic geography model and employs a newly developed index that accounts for the presence of potentially all suppliers and buyers at all stages of the value chain.
Magnet Resonance Imaging (MRI) and Electroencephalography (EEG) are tools used to investigate the functioning of the working brain in both humans and animal studies. Both methods are increasingly combined in separate or simultaneous measurements under the assumption to benefit from their individual strength while compensating their particular weaknesses. However, little attention has been paid to how statistical analyses strategies can influence the information that can be retrieved from a combined EEG fMRI study. Two independent studies in healthy student volunteers were conducted in the context of emotion research to demonstrate two approaches of combining MRI and EEG data of the same participants. The first study (N = 20) applied a visual search paradigm and found that in both measurements the assumed effects were absent by not statistically combining their results. The second study (N = 12) applied a novelty P300 paradigm and found that only the statistical combination of MRI and EEG measurements was able to disentangle the functional effects of brain areas involved in emotion processing. In conclusion, the observed results demonstrate that there are added benefits of statistically combining EEG-fMRI data acquisitions by assessing both the inferential statistical structure and the intra-individual correlations of the EEG and fMRI signal.
Fehlende Werte und deren Kompensation über Imputation stellen eine große Herausforderung für die Varianzschätzung eines Punktschätzers dar. Dies gilt auch in der Amtlichen Statistik. Um eine unverzerrte Varianzschätzung zu gewährleisten, müssen alle Komponenten der Varianz berücksichtigt werden. Hierzu wird häufig eine Zerlegung der Gesamtvarianz durchgeführt mit dem Ziel, detaillierte Informationen über ihre Komponenten zu erhalten und diese vollständig zu erfassen. In dieser Arbeit stehen Resampling-Methoden im Vordergrund. Es wird ein Ansatz entwickelt, wie neuere Resampling-Methoden, welche alle Elemente der ursprünglichen Stichprobe berücksichtigen, hinsichtlich der Anwendung von Imputation übertragen werden können. Zum Vergleich verschiedener Varianzschätzer wird eine Monte-Carlo-Simulationsstudie durchgeführt. Mit Hilfe einer Monte-Carlo-Simulation findet zudem eine Zerlegung der Gesamtvarianz unter verschiedenen Parameterkonstellationen statt.
Wastewater treatment is of great financial concern in many states of Germany. In the rural areas of the Saarland (German state at the border to Luxembourg and France) investments for wastewater treatments in the next years will mount up to 400 mio. €. Nevertheless, decision makers are still left with the question, if these investments result in an effective and sustainable water treatment. To answer this question, the ministry of environment, related authorities and the University of the Saarland (Geographical Institute) started a Project to investigate seven small headwater catchments with predominantly Triassic series of Muschelkalk. Aims of this study were the following: (i) the description of the spatial variability of water chemistry upstream and downstream of small villages (in these villages only mechanically treated waste water is discharged into the brooks), (ii) calculation of nutrient loads of differently managed catchments (predominantly woodland, meadows or fields) and (iii) the relative importance of non-point pollution sources to point pollution sources. Results indicated that spatial variability of nitrate concentration during base-flow conditions was quite similar in intensively used agricultural areas. Nitrogen fluxes were predominantly controlled hydrologically. The nitrogen load (kg N per ha) from non-point pollution sources amounts from 32.5 to 43 kg N / ha * a in intensively used agricultural areas. This load, forecast to one square-km, is equal to the N-load of 800 " 1000 population equivalents. Thus, non-point pollution sources are a major part of the overall nitrogen pollution in the rural areas. The results are important criterias for the sewage disposal plan of the Saarland (disposal plans are obligate according to German water law) and can serve as a first part of a river basin management according to the European Water Framework Directive. To lower non-point N-pollution changes in agricultural management practices are necessary.
Die Klosterbibliothek der Augustiner-Chorherren der Windesheimer Kongregation in Eberhardsklausen gehört nicht nur aufgrund ihrer Bestände, sondern auch aufgrund des noch erhaltenen Bibliotheksraumes zu den bedeutendsten Bibliotheken des 15. Jahrhunderts im Erzstift Trier. Neben einer kurzen theoretischen Betrachtung der Klosterbibliothek als Wissensraum vor dem Hintergrund der Raumtheorie Michel Foucaults (1926-1984) sowie der Vorstellung von Methodik und Forschungsstand im ersten Teil erfolgt im zweiten Teil der vorliegenden Dissertation eine Darstellung des Bildungsprogrammes der niederländischen Reformbewegung der Devotio moderna sowie die Einordnung der Klostergründung von Eberhardsklausen in den Kontext der Ordensreform. Im Mittelpunkt des dritten Teiles steht die Klosterbibliothek als Raum, dessen Disposition innerhalb der Klosteranlage, die im Vergleich zu anderen Bibliotheksräumen, z. B. in Windesheim, Niederwerth, Dalheim, Bernkastel-Kues usw. diskutiert wird. Es folgen kunsthistorische Beschreibungen des Klausener Bibliotheksraumes sowie der dortigen Wandmalereien aus dem beginnenden 16. Jahrhundert. Diese zeigen 19 Darstellungen von Propheten, Heiligen, Kirchenvätern und anderen historischen Persönlichkeiten, die mit dem Bildungsprogramm der Devotio moderna und anderen mittelalterlichen Bibliotheksausmalungen in Windesheimer Klöstern wie Böddeken oder Basel verglichen werden. Der dritte Teil schließt mit Überlegungen zur Eberhardsklausener Klosterbibliothek im Gebrauch, d. h. zur Signatur der Bücher, zur Aufstellungsordnung, zum Bibliothekskatalog und zur Rolle des Bibliothekars sowie zur Ausstattung und zum Mobiliar, aber auch zu deren Nutzern und ihren Arbeitsplätzen. Der vierte und ausführlichste Teil der Untersuchung widmet sich den noch nachweisbaren Klausener Buchbeständen, d. h. vor allem den Handschriften des 15. und 16. Jahrhunderts sowie den dort aufbewahrten Inkunabeln. Dabei werden Fragen nach dem Aufbau eines bibliothekarischen Grundstocks sowie nach der Schreibtätigkeit in den ersten beiden Jahrhunderten seit der Gründung des Konvents behandelt. Die Klausener Bestände werden hinsichtlich ihres Verwendungszweckes, d. h. für die Persönlichkeitsbildung der einzelnen Chorherren, für die klösterliche Gemeinschaft und für den Buchmarkt untersucht, wobei der letztgenannte Bereich für Eberhardsklausen kaum eine Rolle spielt. In einem weiteren Abschnitt erfolgt eine quantifizierte Auswertung der Bestände nach Autoren, wobei die meisten Texte Augustinus, Bernhard von Clairvaux, Bonaventura, Johannes Gerson und Thomas von Aquin zuzuordnen sind, die alle ebenso an den Wänden der Klosterbibliothek abgebildet werden. Ein besonderes Augenmerk wird darüber hinaus auch auf die Eberhardsklausener Chorherren gelegt, die selbst als Schriftsteller nachweisbar sind, wie z. B. Prior Berthold von Marsberg sowie Peter von Ahrweiler, Gerhard von der Lippe und Gisbert, alle drei in ihrer Funktion als Rektoren des Trierer Frauenklosters St. Agneten oder z. B. auch der Klosterchronist Wilhelm von Bernkastel. Aufgrund der besonderen Beziehungen zu Nikolaus Cusanus und zum St. Nikolaus-Hospital in Bernkastel-Kues widmet sich ein Abschnitt den Schriften des Kardinals, die in Klausen vorhanden sind. Unter ihnen lässt sich eine Predigthandschrift mit einer bis dato unbekannten Predigt (Sermo LXXV_A, Salzburg, 7. Februar 1451) des berühmten Denkers von der Mosel nachweisen. Des Weiteren erfolgt eine Einteilung des Bestandes in 16 Sachgruppen bzw. literarische Kategorien, wie z. B. Bibelausgaben, liturgische Schriften, Werke der Kirchenväter, Predigten, Erbauungsliteratur, Passionsschriften, Heiligenlegenden, juristische Werke und Fachliteratur. Ein weiteres Augenmerk wird ferner auf die deutschsprachigen Bücher in Eberhardsklausen gelegt, die kaum mehr als ca. 10% des Bestandes ausmachten und weitestgehend der Bibliothek der Laienbrüder zuzurechnen sind. Auch die meist als Einbandmakulatur verwendeten Fragmente werden behandelt, wobei hierunter vor allem die hebräischen Fragmente sowie die Reste eines Legendariums des Freisinger Schreibers Cundpato aus dem 9. Jahrhundert herausragen. Die Untersuchung wird abgeschlossen durch eine genaue Untersuchung der Schreiber, Stifter und Vorbesitzer sowie mit einem Ausblick auf die Auflösung der Bibliothek im beginnenden 19. Jahrhundert infolge der Säkularisation und auf den Verbleib der Eberhardsklausener Handschriften und Drucke.
An der Schnittstelle zwischen Recht und Sprache, zwischen der überdachenden Weingesetzgebung der Europäischen Union und dem von den Mitgliedstaaten gesetztem Recht liegt das Recht der Weinbezeichnungen. Hier wie an kaum einer anderen Stelle kommt der Verbraucher mit beiden in Berührung und verliert sich nicht selten im Dschungel der zahllos scheinenden Begriffe in unterschiedlichen Sprachen, die ihn in Gestalt des Flaschenetiketts doch über Herkunft und Qualität des Weins unterrichten und so seine Kaufentscheidung erleichtern sollen. An dieser Stelle setzt die Dissertation an, um unter vergleichender Berücksichtigung der in den Einzelsprachen verwendeten Begriffe und Bezeichnungen das komplex und kunstvoll gewobene Netz zu durchdringen. Als romanistische Arbeit von den vier großen Sprachen der Romania ausgehend, wird zunächst das Weinrecht insgesamt von Frankreich, Italien, Portugal und Spanien dar- und demjenigen Deutschlands gegenübergestellt, wobei jeweils auch der Bezug zum europäischen Weinrecht, insbesondere EG-Weinmarktordnung als Grundverordnung und EG-Weinbezeichnungsverordnung als Durchführungsverordnung, hergestellt wird. Dessen Geschichte und diejenige der nationalen Weinrechtsordnungen werden ausführlich dargestellt. In einem nächsten, den Kern der Arbeit ausmachenden Schritt verengt sich der Fokus auf das Bezeichnungsrecht der Weine als solche, um nach Gewinnung der maßgeblichen Begriffe zu überprüfen, inwieweit diese in Bezug auf ihren Bedeutungsgehalt als gleichwertig anzusehen, also semantisch äquivalent sind. Die Blickrichtung ist auch hier bidirektional und umschließt neben dem Vergleich der europäischen und der nationalen Begriffe auf horizontaler Ebene die Gegenüberstellung beider Systeme in vertikaler Sicht. Ein Blick auf sonstige, nicht obligatorische Angaben, wie etwa die wichtigsten Rebsortennamen, rundet die Untersuchung ab, wobei diese und ihre so genannten Synonyme kritisch hinterfragt werden.
Cortisolprofile, speziell morgentlicher Cortisolaufwachanstieg (CAR), wurden in der ersten Stunde nach dem Erwachen, waehrend Schichtarbeit und freier Tage untersucht (acht Speichelproben pro Schicht). In der Untersuchung waren 102 gesunde Dauertag- und Dauernachtschichtarbeiter (Kontrollgruppen) und fruehere Dauertag und Dauernachtschichtarbeiter die auf ein neues schnell vorwaerts rotierendes Schichtsystem umgestellt wurden, welches Morgen-, Abend- und Nachtschicht beinhaltete. Die Ergebnisse zeigen, dass der CAR sowohl bei Tag- als auch Nachtschichten klar erkennbar ist. Bei den Dauernachtschichtarbeitern scheinen die Cortisolprofile waehrend der Nachtschichten und freien Tage abgeflacht zu sein. Die Cortisolprofile ehemaliger Dauernachtschichtarbeiter die auf das neue, schnell vorwaerts rotierende System umgestellt wurden, zeigen schon nach kurzer Zeit keine Stoerungen mehr. Demgegenueber resultiert die Einfuehrung von Nachtarbeit bei ehemaligen Dauertagschichtarbeitern in einer anfaenglichen Abflachung der Cortisolprofile, die sich jedoch nach kurzer Zeit wieder normalisiert. Zusaetzliche psychologische Frageboegen zur Erschoepfung, chronischem Stress, Effort-Reward Imbalance, Schlafqualitaet und Schlaflaenge wurden begleitend eingesetzt.
Die Beobachtung und Bewertung von Wäldern ist eins der zentralen Themen der Fernerkundung. Wälder sind auf der Erde die größten Speicher von Biomasse und damit, neben den Ozeanen, die größte Senke für Kohlendioxid. Eine genaue Kenntnis über Zusammensetzung, Zustand und Entwicklung der Wälder ist wegen ihrer vielfältigen Funktionen und ihres großen Anteils an der Landesfläche von großem wissenschaftlichem und gesellschaftlichem Wert. Eine flächen-deckende detaillierte Beobachtung ist nur mit fernerkundlichen Mitteln möglich. Eine vielversprechende moderne Technik für hochauflösende Waldfernerkundung ist luftgestütztes Laser-¬scanning. Für die Arbeit stand ein Laserscanner-Datensatz aus dem Idarwald bei Morbach in Einzelpunkten und als Wellenformdatensatz zur Verfügung, der zur Ableitung von strukturellen Waldparametern genutzt wurde. Als wichtigster Bestandsstrukturparameter wurde die Baumhöhe sowohl aus Einzelpunktdaten als auch aus gerasterten Bilddaten flächendeckend mit hoher Genauigkeit abgeleitet. Die Kronenuntergrenzen konnten anhand der Wellenformdaten identifiziert werden und stimmten ebenfalls in hoher Genauigkeit mit Geländemessungen überein. Aus Baumhöhen und Höhe der Kronenuntergrenzen konnte die jeweilige Kronenlänge bestimmt werden. Eine größere Herausforderung ist die Bestimmung der Anzahl der Bäume pro Hektar. Während die einzelnen Kronen älterer Nadelbäume gut erkennbar sind, lassen sich Laubbäume und jüngere Nadelbäume nur schwer identifizieren. Trotzdem konnte mit Hilfe eines adaptiven Moving-Window-Ansatzes eine hohe Übereinstimmung mit im Gelände bestimmten Stammzahlen erzielt werden. Aus dem Anteil der Laserstrahlen, die im Bestand den Boden erreichen, können der Kronenschlussgrad und der Blattflächenindex bestimmt werden. Beide Größen sind für den Strahlungstransfer im Bestand und für ökologische Fragestellungen von Bedeutung und konnten ebenfalls flächendeckend und mit hoher Genauigkeit gemessen werden. Eng verknüpft mit dem Blattflächenindex sind die Biomasse und der Holzvorrat. Der Holzvorrat kann zwar nicht direkt aus den Laser-¬scannerdaten abgeleitet werden, da aber enge Beziehungen zu Baumhöhe und Stammzahl bestehen, kann er aus diesen statistisch abgeleitet werden. Auch die Biomasse wurde indirekt bestimmt: aus den Baumhöhen und dem Bedeckungsgrad. Die detaillierteste Charakterisierung von Waldbeständen kann durch Kombination unterschiedlicher Datensätze erreicht werden. Neben dem Laserscanningdatensatz stand auch ein hyperspektrales Bild des Untersuchungsgebiets zur Verfügung. Um diese zu kombinieren, wurde aus den Wellenformen die jeweils über der Fläche eines Hyperspektralpixels zurückgestreute Laserenergie in Höhenschritten von 0.5 m berechnet. Diese Höhenprofile zeigen die Position und Dichte der Baumkronen. Der kombinierte Datensatz wurde für eine Klassifikation zwischen Fichten und Douglasien in jeweils mehreren Altersstufen verwendet und konnte gegenüber dem Hyperspektralbild alleine eine deutliche Verbesserung der Klassifikationsgenauigkeit erzielen. Als weitere Methode, die Vorteile von hyperspektraler Fernerkundung mit denen von Laser-scanning zu verbinden, wurden Methoden zur Verwendung von Laserscanning für die Invertierung von zwei Reflexionsmodellen entwickelt und getestet. Da mit Laserscanning Größen bestimmt werden können, die aus einem Reflexionsspektrum nicht eindeutig ableitbar sind, können die Daten verwendet werden, um den Parameterraum bei der Invertierung zu verkleinern und damit die Invertierung zuverlässiger zu machen.
Ausgehend von einem multifaktoriellen biopsychosozialen Modell zur Entstehung und Aufrechterhaltung primärer Kopfschmerzen bei Kindern und Jugendlichen wurden n= 170 Mädchen im Alter von 12-17 Jahren hinsichtlich verschiedener stressbezogener Determinanten untersucht. Es wurde davon ausgegangen, dass sich Mädchen mit wiederkehrenden Kopfschmerzen sowohl in einem kontrollierten, messwiederholten Laborexperiment hinsichtlich ihrer physiologischen Reaktionen (Muskelspannung, Cortisolausschüttung) auf akuten Stress hin wie auch in der Cortisolaufwachreaktion im häuslichen Setting von einer gesunden Kontrollgruppe unterscheiden. Diese Annahmen konnten nach statistischer Auswertung der Studienergebnisse unter Kontrolle der familiären Schmerzbelastung und psychischen Stressbelastung jedoch nicht bestätigt werden. Somit kann nicht von einer dysregulierten Aktivität der Hypothalamus-Hypophysen-Nebennierenrinden-Achse ausgegangen werden, die eine zentrale Rolle in der biologischen Stressantwort spielt und auch die Schmerzverarbeitung mit beeinflusst. Ebenso wenig liegt bei Mädchen mit Kopfschmerzen eine erhöhte basale oder stressbedingte Muskelspannung im Kopf- und Schulterbereich vor. Lediglich auf subjektiver Ebene deutete sich ein tendenziell höheres Empfinden von Anspannung in Ruhephasen an. Auf psychologischer Ebene hingegen zeigte sich erwartungskonform eine höhere Stress-vulnerabilität bei den Mädchen mit Kopfschmerzen. Außerdem wurde bei ihnen der vermehrte Einsatz emotionsregulierender Stressbewältigungsstrategien, wie Ruhe und Entspannung, aber auch destruktiv-ärgerbezogenes Verhalten und Denken, bezogen auf soziale und leistungsbezogene Stresssituationen beobachtet. Auch unterschieden sie sich hinsichtlich der familiären Schmerzbelastung, körperlichen und psychischen Stress-symptomatik und Depressivität sowie Ängstlichkeit von der Kontrollgruppe. Sie zeigten durchweg höhere Ausprägungen auf diesen Variablen, die sich als signifikante Prädiktoren für Kopfschmerzen herausstellten. Die Verknüpfung von physiologischen Reaktionsmaßen mit der Stressverarbeitung zeigte, dass die Nutzung von konstruktiv-palliativer Emotionsregulation umso stärker ist, je höher der stressbedingte Anstieg der Cortisolausschüttung und der Muskelaktivität in der Frontalisregion ausfällt. Je stärker also die körperliche Reaktion auf Stress, umso mehr versuchen jugendliche Mädchen sich zu entspannen und auszuruhen.
The visualization of relational data is at the heart of information visualization. The prevalence of visual representations for this kind of data is based on many real world examples spread over many application domains: protein-protein interaction networks in the field of bioinformatics, hyperlinked documents in the World Wide Web, call graphs in software systems, or co-author networks are just four instances of a rich source of relational datasets. The most common visual metaphor for this kind of data is definitely the node-link approach, which typically suffers from visual clutter caused by many edge crossings. Many sophisticated algorithms have been developed to layout a graph efficiently and with respect to a list of aesthetic graph drawing criteria. Relations between objects normally change over time. Visualizing the dynamics means an additional challenge for graph visualization researchers. Applying the same layout algorithms for static graphs to intermediate states of dynamic graphs may also be a strategy to compute layouts for an animated graph sequence that shows the dynamics. The major drawback of this approach is the high cognitive effort for a viewer of the animation to preserve his mental map. To tackle this problem, a sophisticated layout algorithm has to inspect the whole graph sequence and compute a layout with as little changes as possible between subsequent graphs. The main contribution and ultimate goal of this thesis is the visualization of dynamic compound weighted multi directed graphs as a static image that targets at visual clutter reduction and at mental map preservation. To achieve this goal, we use a radial space-filling visual metaphor to represent the dynamics in relational data. As a side effect the obtained pictures are very aesthetically appealing. In this thesis we firstly describe static graph visualizations for rule sets obtained by extracting knowledge from software archives under version control. In a different work we apply animated node-link diagrams to code-developer relationships to show the dynamics in software systems. An underestimated visualization paradigm is the radial representation of data. Though this kind of data has a long history back to centuries-old statistical graphics, only little efforts have been done to fully explore the benefits of this paradigm. We evaluated a Cartesian and a radial counterpart of a visualization technique for visually encoding transaction sequences and dynamic compound digraphs with both an eyetracking and an online study. We found some interesting phenomena apart from the fact that also laymen in graph theory can understand the novel approach in a short time and apply it to datasets. The thesis is concluded by an aesthetic dimensions framework for dynamic graph drawing, future work, and currently open issues.
In politics and economics, and thus in the official statistics, the precise estimation of indicators for small regions or parts of populations, the so-called Small Areas or domains, is discussed intensively. The design-based estimation methods currently used are mainly based on asymptotic properties and are thus reliable for large sample sizes. With small sample sizes, however, this design based considerations often do not apply, which is why special model-based estimation methods have been developed for this case - the Small Area methods. While these may be biased, they often have a smaller mean squared error (MSE) as the unbiased design based estimators. In this work both classic design-based estimation methods and model-based estimation methods are presented and compared. The focus lies on the suitability of the various methods for their use in official statistics. First theory and algorithms suitable for the required statistical models are presented, which are the basis for the subsequent model-based estimators. Sampling designs are then presented apt for Small Area applications. Based on these fundamentals, both design-based estimators and as well model-based estimation methods are developed. Particular consideration is given in this case to the area-level empirical best predictor for binomial variables. Numerical and Monte Carlo estimation methods are proposed and compared for this analytically unsolvable estimator. Furthermore, MSE estimation methods are proposed and compared. A very popular and flexible resampling method that is widely used in the field of Small Area Statistics, is the parametric bootstrap. One major drawback of this method is its high computational intensity. To mitigate this disadvantage, a variance reduction method for parametric bootstrap is proposed. On the basis of theoretical considerations the enormous potential of this proposal is proved. A Monte Carlo simulation study shows the immense variance reduction that can be achieved with this method in realistic scenarios. This can be up to 90%. This actually enables the use of parametric bootstrap in applications in official statistics. Finally, the presented estimation methods in a large Monte Carlo simulation study in a specific application for the Swiss structural survey are examined. Here problems are discussed, which are of high relevance for official statistics. These are in particular: (a) How small can the areas be without leading to inappropriate or to high precision estimates? (b) Are the accuracy specifications for the Small Area estimators reliable enough to use it for publication? (c) Do very small areas infer in the modeling of the variables of interest? Could they cause thus a deterioration of the estimates of larger and therefore more important areas? (d) How can covariates, which are in different levels of aggregation be used in an appropriate way to improve the estimates. The data basis is the Swiss census of 2001. The main results are that in the author- view, the use of small area estimators for the production of estimates for areas with very small sample sizes is advisable in spite of the modeling effort. The MSE estimates provide a useful measure of precision, but do not reach in all Small Areas the level of reliability of the variance estimates for design-based estimators.
Surveys play a major role in studying social and behavioral phenomena that are difficult to
observe. Survey data provide insights into the determinants and consequences of human
behavior and social interactions. Many domains rely on high quality survey data for decision
making and policy implementation including politics, health, business, and the social
sciences. Given a certain research question in a specific context, finding the most appropriate
survey design to ensure data quality and keep fieldwork costs low at the same time is a
difficult task. The aim of examining survey research methodology is to provide the best
evidence to estimate the costs and errors of different survey design options. The goal of this
thesis is to support and optimize the accumulation and sustainable use of evidence in survey
methodology in four steps:
(1) Identifying the gaps in meta-analytic evidence in survey methodology by a systematic
review of the existing evidence along the dimensions of a central framework in the
field
(2) Filling in these gaps with two meta-analyses in the field of survey methodology, one
on response rates in psychological online surveys, the other on panel conditioning
effects for sensitive items
(3) Assessing the robustness and sufficiency of the results of the two meta-analyses
(4) Proposing a publication format for the accumulation and dissemination of metaanalytic
evidence
Unternehmen aus güterproduzierenden Industrien und Sektoren entdecken in immer stärkerem Maße das Differenzierungs- und Erlöspotenzial des Angebots ergänzender Dienstleistungen zur Erlangung von strategischen Wettbewerbsvorteilen. In vielen Branchen ist dies bereits ein notwendiger Bestandteil im Angebotsportfolios der Hersteller um sich zu positionieren und wettbewerbsfähig zu bleiben. Ein besonders prägnantes Beispiel stellt die Automobilbranche dar, die schon vor Jahren begonnen hat in ihr Geschäftsmodell um das Kernprodukt "Automobil" auch sog. produktbegleitende Dienstleistungen (wie beispielsweise Finanzierungsdienstleistungen) zu integrieren, um sich durch Erhöhung des Kundennutzens von den Angeboten der Mitbewerber zu differenzieren. Vor dem Hintergrund, dass Marketingkonstrukte, wie Marke, Reputation, Kundenloyalität, aber auch technische Spezifikationen wie Motorisierung, Ausstattung und Zubehör die Fahrzeugwahl beeinflussen, stellt sich die Autorin die Frage, inwiefern ein Zusatzangebot von reinen produktbegleitenden Dienstleistungen einen Einfluss auf die Marken- und Fahrzeugwahl beim Autokauf hat. In diesem Zusammenhang ist ein Forschungsziel der vorliegenden Untersuchung die Konzeption einer branchenunabhängigen Wertschöpfungskette für produktbegleitende Dienstleistungen, um eine Identifikation des strategischen Differenzierungspotenzials produktbegleitender Dienstleistungen zu ermöglichen. Den Bezugsrahmen der Forschungsarbeit wird dabei aus Perspektive des Endkonsumenten bei der Automobilkaufentscheidung konstruiert, um Aussagen zur Wahrnehmung existierender Angebote produktbegleitender Dienstleistungen den individuellen Phasen der Kaufentscheidung zuordnen zu können. Dies bildet das methodische Fundament dieses empirisch geprägten Forschungsbeitrags, um die folgende Frage der Untersuchung beantworten zu können: "Haben produktbegleitende Dienstleistungen einen Einfluss auf die Kaufwahrscheinlichkeit beim konsumentenseitigen Kaufentscheidungsprozess bei Automobilen im Segment des Privat-PKW?" Als Forschungsstrategie wird die Anwendung der Kausalanalyse gewählt, um anhand zwei aufeinander aufbauenden Primärerhebungen (quantitative Datenerhebung anhand eines Online-Fragebogens) potenzielle Autokäufer hinsichtlich ihres Wissens und ihrer Wahrnehmung bezüglich produktbegleitender Dienstleistungen der einzelnen Automobilherstellermarken zu untersuchen. Die Ergebnisse der Datenauswertung lassen die Schlussfolgerung zu, dass produktbegleitende Dienstleistungen zwar einen positiven Einfluss auf die Kaufentscheidung beim potentiellen Automobilkäufer ausüben, jedoch aufseiten der Automobilhersteller und -händler durchaus großes Verbesserungspotenzial bezüglich der Kommunikation von solchen Value-Added-Leistungen vorliegt. Die vorliegende Dissertationsschrift wurde am Lehrstuhl für Organisation und Strategisches Dienstleistungsmanagement verfasst und beim Fachbereich IV der Universität Trier eingereicht.
Die Markierung zählt zu den ältesten Instrumenten im Marketing und besitzt auch heute noch eine herausragende Bedeutung für den Markterfolg. Allerdings haben die technologischen Entwicklungen auch die Möglichkeiten der Markierung verändert, so dass "klassische" Markierungsmöglichkeiten an Bedeutung verlieren. Eine der ältesten Markierungsformen ist das Wasserzeichen, dessen Bedeutung als Marke bisher wissenschaftlich noch nicht untersucht wurde. Dieses Forschungsdefizit zu verringern, erweitert auf Papierrippungen, Papierprägungen, Markierungsdrucke und Markierungsstrukturen ist das Ziel der vorliegenden Arbeit. Ausführlich beschrieben und gewichtet werden dabei die einzelnen Markierungselemente, differenziert nach Herkunft, Marken-Namen und Marken-Bild, und ihre Auswirkung auf das Verbraucherverhalten. Eine besondere Beachtung erhalten Kuppelmarkierungen, die zusätzliche Synergien für die Kundenbindung entfalten. In der Vielfalt der Markierungen und über 1000 Abbildungen wird das Zusammenspiel von Markierung und Marketing deutlich gemacht.
Gerade in der heutigen Zeit im Spannungsfeld zwischen der globalen Klimaveränderung und einer stetig wachsenden Weltbevölkerung wird es immer wichtiger, die Oberflächenprozesse quantifizieren zu können. In fünf Untersuchungsgebieten in Deutschland, Luxemburg und Spanien wurden experimentelle Geländemessmethoden zur Quantifizierung von Oberflächenabflussbildung und Bodenerosion eingesetzt. Je nach geographischer Lage der Testgebiete sind unterschiedliche Einflussgrößen wichtig für die Abflussreaktion und den Bodenabtrag. Jahreszeit und Vorfeuchte des Bodens können zu verschiedenen Systemzuständen führen und damit die Oberflächenabflussbildungs- und Bodenerosionsraten beeinflussen. Die Verwendung von experimentellen Messmethoden (Beregnungen) ermöglicht es uns, die Reaktion derselben Flächen bei unterschiedlichen Ausgangsbedingungen auf ein und dasselbe (simulierte) Niederschlagsereignis zu messen. Durch die Kombination mit Geländekartierungen und GIS-Auswertungen wird eine qualitative Übertragung der punktuellen Messergebnisse auf die Fläche ermöglicht. In den beiden Untersuchungsgebieten in Deutschland wurden häufig hydrophobe Eigenschaften der Böden festgestellt. Durch diese Hydrophobizität dringt ein Teil des Niederschlagswassers gar nicht bis zum Mineralboden durch, sondern wird in der Streuschicht gehalten oder fließt innerhalb der Streuschicht ab. Dies führt zu einer Erhöhung der Oberflächenabflussraten. Auch der Einfluss der Landnutzung auf die Intensität der Oberflächenprozesse konnte für die Testgebiete in Deutschland und Luxemburg nachgewiesen werden. Auf Wegen und Fahrspuren, sowie auf Ackerflächen wurden die höchsten Oberflächenabfluss- und Bodenabtragsraten gemessen. Aber auch hydrophobe Waldstandorte zeigten hohe Oberflächenabflussraten, allerdings keinen nennenswerten Bodenabtrag, weil die Humusauflage die Bodenoberfläche schützt. Die im Rahmen dieser Arbeit verwendeten Rinnenerosionsversuche ermöglichen es, die Effizienz natürlicher Erosionsrinnen zu messen und zu vergleichen. Durch die Verwendung von beiden Methoden, Beregnung und Rinnenerosionsversuch, können die im Rinneneinzugsgebiet gemessenen Abtragsraten und -mengen mit den Abtragswerten der Erosionsrinne selbst verglichen werden. Insgesamt kann festgestellt werden, dass die Ergebnisse der experimentellen Messungen in Kombination mit einer Kartierung der aktuellen Geomorphodynamik sowie der Auswertung großmaßstäbiger Luftbilder, eine Quantifizierung der aktuellen Prozessdynamik ermöglichen.
Auf Grundlage von handlungstheoretischen Modellvorstellungen wird ein Schichtenmodell des Entschlussaktes "Berufswahl" entwickelt, das chronologische und diachronische sowie prozessuale und strukturelle Perspektiven verbindet. Vier ineinander eingebettete Schichten werden differenziert: Hintergrundvariablen (etwa schulische Umwelt, Geschlecht, sozioökonomischer Status) Lernerfahrungen (Explorationen, Selektionen, Widerfahrnisse; Menschen, Medien, Ereignisse; Alternativen, Wissen, Bewertung), Entscheidungsgrundlagen (Interessen, Kompetenzüberzeugungen, berufliche Werte; berufliche Optionen; Entscheidungsstile), Entscheidung (kurzfristige und langfristige Ziele, Entscheidungsstatus, Bewertung der Entscheidung). Zur Überprüfung des Modells wird ein umfangreicher Datensatz einer Stichprobe von insgesamt 504 Schülerinnen und Schülern der Abschlussklassen von Hauptschule, Realschule und Gymnasium sowie der achten bis zehnten Hauptschulklasse analysiert. Das Schichtenmodell konnte in seinem grundlegenden Aufbau bestätigt werden. Insbesondere erwies sich die entwickelte Taxonomie von Lernerfahrungen, zu der bislang keine vergleichbare Konzeption vorlag, als effiziente Vorlage für weitere Forschungsarbeiten. Tradierte, aber auch aktuelle Erwartungen hinsichtlich der Rolle des Geschlechts für berufliche Entscheidungen werden kritisch diskutiert. Die Bedeutung der schulischen Umwelt für berufswahlrelevante Lernerfahrungen und für die Ausgestaltung des beruflichen Entschlusses wird herausgearbeitet. Abschließend werden Forschungsdesiderata sowie Empfehlungen für die Beratungs- und Unterrichtspraxis abgeleitet.
Although it has been demonstrated that nociceptive processing can be modulated by heterotopically and concurrently applied noxious stimuli, the nature of brain processes involved in this percept modulation in healthy subjects remains elusive. Using functional magnetic resonance imaging (fMRI) we investigated the effect of noxious counter-stimulation on pain processing. FMRI scans (1.5 T; block-design) were performed in 34 healthy subjects (median age: 23.5 years; range: 20-31 yrs.) during combined and single application (duration: 15 s; ISI=36 s incl. 6 s rating time) of noxious interdigital-web pinching (intensity range: 6-15 N) and contact-heat (45-49 -°C) presented in pseudo-randomized order during two runs separated by approx. 15 min with individually adjusted equi-intense stimuli. In order to control for attention artifacts, subjects were instructed to maintain their focus either on the mechanical or on the thermal pain stimulus. Changes in subjective pain intensity were computed as percent differences (∆%) in pain ratings between single and heterotopic stimulation for both fMRI runs, resulting in two subgroups showing a relative pain increase (subgroup P-IN, N=10) vs. decrease (subgroup P-DE, N=12). Second level and Region of Interest analysis conducted for both subgroups separately revealed that during heterotopic noxious counter-stimulation, subjects with relative pain decrease showed stronger and more widespread brain activations compared to subjects with relative pain increase in pain processing regions as well as a fronto-parietal network. Median-split regression analyses revealed a modulatory effect of prefrontal activation on connectivity between the thalamus and midbrain/pons, supporting the proposed involvement of prefrontal cortex regions in pain modulation. Furthermore, the mid-sagittal size of the total corpus callosum and five of its subareas were measured from the in vivo magnetic resonance imaging (MRI) recordings. A significantly larger relative truncus size (P=.04) was identified in participants reporting a relative decrease of subjective pain intensity during counter-stimulation, when compared to subjects experiencing a relative pain increase. The above subgroup differences observed in functional and structural imaging data are discussed with consideration of potential differences in cognitive and emotional aspects of pain modulation.
In her poems, Tawada constructs liminal speaking subjects – voices from the in-between – which disrupt entrenched binary thought processes. Synthesising relevant concepts from theories of such diverse fields as lyricology, performance studies, border studies, cultural and postcolonial studies, I develop ‘voice’ and ‘in-between space’ as the frameworks to approach Tawada’s multifaceted poetic output, from which I have chosen 29 poems and two verse novels for analysis. Based on the body speaking/writing, sensuality is central to Tawada’s use of voice, whereas the in-between space of cultures and languages serves as the basis for the liminal ‘exophonic’ voices in her work. In the context of cultural alterity, Tawada focuses on the function of language, both its effect on the body and its role in subject construction, while her feminist poetry follows the general development of feminist academia from emancipation to embodiment to queer representation. Her response to and transformation of écriture féminine in her verse novels transcends the concept of the body as the basis of identity, moving to literary and linguistic, plural self-construction instead. While few poems are overtly political, the speaker’s personal and contextual involvement in issues of social conflict reveal the poems’ potential to speak of, and to, the multiply identified citizens of a globalised world, who constantly negotiate physical as well as psychological borders.
Psychotherapeutische Maßnahmen wirken im Mittel, doch ist unklar, ob eine Therapie bei einem konkreten Patienten auch ihre (maximale) Wirkung zeigt. Befunde der Patientenorientierten Versorgungsforschung zur Wirksamkeit von Feedback zeigen, dass eine Verbesserung des Therapieergebnisses durch Qualitätssicherungsmaßnahmen wie z.B. kontinuierliches Monitoring möglich ist. Diese Forschung und ihre praktische Anwendung machen es nötig, Daten am Einzelfall wiederholt zu erheben. Damit wird es unumgänglich, die Messungen effizienter zu gestalten. Diese Arbeit widmet sich der Frage, wie Mischverteilungsmodelle (Item Response/ Rasch-Modell sowie Latent Profile Analysis) dazu genutzt werden können, Fragebögen (weiter-) zu entwickeln, die mit kürzerem Umfang für diese Zwecke besser eingesetzt werden können. Gegen die Verwendung von Mischverteilungsmodellen sprach lange, dass spezielle Software und Training erforderlich waren und dies im Praxiskontext nicht machbar war. Mit R steht eine freie Softwareumgebung zur Verfügung, die die Schätzung einer ganzen Fülle von Modellen möglich macht, auch von Mischverteilungsmodellen. Da Qualitätssicherung bei frei verfügbarer Software nötig ist, widmet sich Studie I der Frage, ob drei zentrale Pakete zur Schätzung von Rasch-Modellen in der R-Umgebung (eRm, ltm, mixRasch; Details siehe unten) zu akzeptablen Schätzergebnissen führen, d.h. zur Nutzung empfohlen werden können. Hierzu wurden in einer Simulationsstudie die Itemzahl, Stichprobengröße und Verteilung der Stichprobe systematisch variiert und der Effekt auf die Schätzgenauigkeit geprüft. Es zeigte sich, dass alle drei Schätzalgorithmen unter den realisierten Bedingungen zu zufriedenstellenden Genauigkeiten kommen und die Verteilungsform unter den gewählten Bedingungen keinen Einfluss auf die Genauigkeit hatte. Studie II nutzte das Rasch-Modell um für ein Maß psychischer Belastung Kurzformen für spezifische Erhebungszwecke zu entwickeln: (1) verkürzte Erhebung beim Screening und (2) verkürzte Erfassung im hohen Belastungsbereich. Die Kurzformen wurden mittels Bootstrap und Kreuzvalidierung dahingehend geprüft, ob sie replizierbar eine bessere Messqualität erbrachten als andere Itemauswahlen aus dem Fragebogen, was sich bestätigte. Durch die Verwendung des Rasch-Modells sind die so erstellten Kurzformen miteinander und auch mit der Vollversion vergleichbar. Dies macht auch ohne die Verwendung spezieller Software (teil-)adaptives Testen möglich. Studie III untersuchte wie drei Methoden genutzt werden können um festzustellen, welche Items eines Tests sich über den Verlauf einer Therapie als veränderungssensitiv erweisen. Hierzu wurden mittels einer Bevölkerungsstichprobe und den Prä- und Post-Erhebungen einer ambulanten Behandlungsstichprobe Items aus einer Beschwerden-Skala verwendet. Die drei Methoden waren (1) herkömmliche Mittelwertsvergleiche, (2) Auswahl über Bootstrap-Konfidenzintervalle und (3) Auswahl mittels einer Latent Profile Analysis, die latente Klassen von Varianzmustern um die Itemmittelwerte schätzte. Das Bootstrap-Verfahren erwies sich am Konservativsten (4 Items) während die Auswahl mittels herkömmlicher Mittelwertsvergleiche am liberalsten war (9 Items). Die Effektstärken und Reliabilitäten der Kurzfassungen waren alle im akzeptablen Bereich. Die Diskussion beginnt mit einer knappen Zusammenfassung der Ergebnisse der drei Studien. Im Anschluss werden die Ergebnisse der Studien auf übergreifende Aspekte bezogen. Dies sind faktorielle Validität, die Angemessenheit von Item Response Modellen zur Repräsentation psychische Belastung und die Anforderungen, die Kurzversionen letztlich erfüllen können. Insgesamt lässt sich festhalten, dass die Methoden nützliche Werkzeuge zur spezifischen Untersuchung von Skalen und zur Erstellung von Kurzformen darstellen. Besonders der in Studie II vorgestellte Bootstrap-Test der Itemauswahl stellt eine relevante Ergänzung der etablierten Vorgehensweise dar, da er empirisch belegt, dass die Auswahl für den jeweiligen Zweck einer Kurzform besser geeignet ist, als andere Items. Klinisch lässt sich festhalten, dass mit statischen Kurzversionen etablierter Messinstrumente auch in Erhebungskontexten ohne computerisierte Erhebungsmethoden hochqualitative Erhebungen durchgeführt werden können.
Aggression is one of the most researched topics in psychology. This is understandable, since aggression behavior does a lot of harm to individuals and groups. A lot is known already about the biology of aggression, but one system that seems to be of vital importance in animals has largely been overlooked: the hypothalamic-pituitary-adrenal (HPA) axis. Menno Kruk and Jószef Haller and their research teams developed rodent models of adaptive, normal, and abnormal aggressive behavior. They found the acute HPA axis (re)activity, but also chronic basal levels to be causally relevant in the elicitation and escalation of aggressive behavior. As a mediating variable, changes in the processing of relevant social information is proposed, although this could not be tested in animals. In humans, not a lot of research has been done, but there is evidence for both the association between acute and basal cortisol levels in (abnormal) aggression. However, not many of these studies have been experimental of nature. rnrnOur aim was to add to the understanding of both basal chronic levels of HPA axis activity, as well as acute levels in the formation of aggressive behavior. Therefore, we did two experiments, both with healthy student samples. In both studies we induced aggression with a well validated paradigm from social psychology: the Taylor Aggression Paradigm. Half of the subjects, however, only went through a non-provoking control condition. We measured trait basal levels of HPA axis activity on three days prior. We took several cortisol samples before, during, and after the task. After the induction of aggression, we measured the behavioral and electrophysiological brain response to relevant social stimuli, i.e., emotional facial expressions embedded in an emotional Stroop task. In the second study, we pharmacologically manipulated cortisol levels 60min before the beginning of the experiment. To do that, half of the subjects were administered 20mg of hydrocortisone, which elevates circulating cortisol levels (cortisol group), the other half was administered a placebo (placebo group). Results showed that acute HPA axis activity is indeed relevant for aggressive behavior. We found in Study 1 a difference in cortisol levels after the aggression induction in the provoked group compared to the non-provoked group (i.e., a heightened reactivity of the HPA axis). However, this could not be replicated in Study 2. Furthermore, the pharmacological elevation of cortisol levels led to an increase in aggressive behavior in women compared to the placebo group. There were no effects in men, so that while men were significantly more aggressive than women in the placebo group, they were equally aggressive in the cortisol group. Furthermore, there was an interaction of cortisol treatment with block of the Taylor Aggression Paradigm, in that the cortisol group was significantly more aggressive in the third block of the task. Concerning basal HPA axis activity, we found an effect on aggressive behavior in both studies, albeit more consistently in women and in the provoked and non-provoked groups. However, the effect was not apparent in the cortisol group. After the aggressive encounter, information processing patterns were changed in the provoked compared to the non-provoked group for all facial expressions, especially anger. These results indicate that the HPA axis plays an important role in the formation of aggressive behavior in humans, as well. Importantly, different changes within the system, be it basal or acute, are associated with the same outcome in this task. More studies are needed, however, to better understand the role that each plays in different kinds of aggressive behavior, and the role information processing plays as a possible mediating variable. This extensive knowledge is necessary for better behavioral interventions.
The brain is the central coordinator of the human stress reaction. At the same time, peripheral endocrine and neural stress signals act on the brain modulating brain function. Here, three experimental studies are presented demonstrating this dual role of the brain in stress. Study I shows that centrally acting insulin, an important regulator of energy homeostasis, attenuates the stress related cortisol secretion. Studies II and III show that specific components of the stress reaction modulate learning and memory retrieval, two important aspects of higher-order brain function.
Die vorliegende Arbeit geht von der These aus, dass die Zeitthematik in ihren unterschiedlichen Aspekten eine konstitutive Rolle in Strauß" bis dato erschienenem Werk spielt und dass Strauß frühzeitig beginnt, einen eigenständigen Zugang zu dieser Problematik zu erkunden, der, ausgehend von der Alltagserfahrung, vor allem die Bereiche der Naturwissenschaften und Ästhetik einschließt. Die Kernphase dieser Aneignung wird dabei in einer über zehnjährigen Schaffensperiode in Strauß" früherem Werk verortet, in der Begrifflichkeiten aus diesem Komplex stark gehäuft auftreten. Sie lässt sich anhand von vier zentralen Werken umreißen: "Paare, Passanten", "Der junge Mann", "Die Zeit und das Zimmer" und "Beginnlosigkeit". Dabei liegt ein Hauptaugenmerk darauf, den oft tastenden, experimentellen Charakter der oft fragmentarischen Texte in einen Gesamtzusammenhang zu stellen und der chronologischen Entwicklung von Strauß" Zeitbegriff zu folgen. Als Ausgangspunkt wird ein fundamentales Ungenügen identifiziert, das der Autor in "Paare, Passanten" schrittweise anhand von Alltagsbeobachtungen konkretisiert. Strauß zeichnet hier das Bild des "Gegenwartsnarren", der in seiner beschleunigten, medial dominierten Umgebung zunehmend in die Rolle des passiven Konsument eines Informationsüberangebotes gedrängt wird. Er zieht den flüchtigen Reiz der wechselnden Bilder dem Ergründen von Sinnzusammenhängen vor und verliert dabei letztlich seinen Bezug zur Geschichte. Sowohl zu seiner eigenen, individuellen Herkunft als auch zum gemeinschaftlichen Narrativ, das zwischen den Schrecken von Holocaust und drohender atomarer Vernichtung eh bereits einen großen Teil seines sinnstiftenden Potenzials eingebüßt hat. "Der junge Mann" baut auf diesen Befund auf und verschreibt sich der Erkundung eines "neuen Zeitempfindens", das es ermöglichen soll, unsere moderne Lebenswelt in ihrer Beschleunigung und oberflächlichen Divergenz wieder als sinnerfüllt wahrzunehmen. Die Analyse der Einleitung und ersten Romankapitel zeigt, wie Strauß dazu zunächst tradierte Zeitbegriffe radikal hinterfragt und letztlich in Auseinandersetzung mit den Naturwissenschaften ein eigenes Konzept entwickelt, das er in der Folge erprobt. Anknüpfend an die Syntheseansätze von Arthur Eddington verbindet Strauß Erkenntnisse aus der Relativitätstheorie, der Thermodynamik, der Komplexitätstheorie und Kybernetik zu einem Ganzen, das der als zu eng empfundenen linearen Progression ein vielschichtiges Modell entgegensetzt, das auch Stillstand, zyklische Wiederkehr sowie zeitweilige Verjüngung und Rückläufigkeit als Konstituenten zeitlicher Abläufe begreift. Die spezielle Relativitätstheorie räumt dabei mit der Vorstellung einer absoluten physikalischen Zeit auf, die gleich einem universellen, transzendenten Uhrwerk der Welt ihren Takt und ihre Richtung aufzwänge. Sie begreift Zeit und Raum als Verhältnisse, in denen die Ereignisse zueinander stehen und die letztendlich den Dingen selbst entwachsen. Einen kontinuierlichen, gerichteten Fluss der Zeit kann die Relativitätstheorie nicht verbürgen; diese Lücke versuchen Physiker in Anschluss an Eddington mit dem Hinweis auf die Thermodynamik zu schließen. Nach deren zweiten Hauptsatz müsste das Universum als geschlossenes System einer stetigen Entropiezunahme unterliegen, die letztlich den Strom der Zeit konstituiere. In diesem globalen Fluss, und hier beruft Strauß sich auf die Komplexitätstheorie, gibt es jedoch immer wieder lokale Abweichungen und gegenläufige Entwicklungen. Strauß baut auf diesen Überlegungen auf und integriert sie tief in seine eigene Ästhetik. So greift der "Junge Mann" in seinen Erzählstimmen und in der Figurenrede nicht nur häufig Gedanken und Bilder aus der wissenschaftlichen Debatte auf, die ganze Struktur des Romans lässt sich als ein solcher Wechsel zwischen linear-gerichteten Rahmenstrukturen und divergenten Binnenelementen verstehen. Dieses Verfahren, naturwissenschaftliche Aspekte der Zeitthematik in der künstlerischen Form aufgehen zu lassen, baut Strauß in den nächsten Jahren weiter aus, wie die Arbeit exemplarisch an zwei weiteren Werken zeigt. "Die Zeit und das Zimmer" etwa zeugt in seiner ganzen Anlage von einer Auseinandersetzung mit der Quantentheorie und dem "Viele-Welten-Modell". Hier wird im fiktionalen Raum eine Welt erforscht, in der die Entscheidung zwischen mehreren Möglichkeiten keinen ausschließlichen Charakter mehr hat, sondern mehrere Alternativversionen eines Lebenswegs parallel zueinander koexistieren. "Beginnlosigkeit" schließlich entwirft analog zur "Steady-State-Theorie" eine Ästhetik, die ohne Anfang und Ende auskommt und deren "Botschaft" letztlich in die Textgestalt eingeschrieben ist. An Stelle einer linear-diskursiv aufgebauten Erzählung tritt ein Verbund von fragmentarischen Textblöcken, der zunächst inkohärent wirkt, aber durch lose thematische Bezüge, vor allem aber auch durch assoziative Anklänge und leitmotivisch wiederkehrende Bilder immer wieder auf sich selbst vor- und rückverweist. Dem Leser, der sich auf diese Textbewegung einlässt, offenbart sich im Vor- und Zurückblättern die gewünschte Leseerfahrung: Sinnkonstitution erschöpft sich nicht in einer linear-progressiven Verkettung von Vorher und Nachher, von Ursache und Wirkung. Erst wenn die "Linie" durch den "Fleck" ergänzt wird, d.h. durch Elemente des Richtungslos-Assoziativen, des Zyklus und selbst der Stase, ist eine Erkenntnishaltung erreicht, die der Vielschichtigkeit unserer Lebenswelt gerecht wird. Strauß" Projekt eines "neuen Zeitempfindens" ist damit zu einem vorläufigen Abschluss gekommen. Die Naturwissenschaften dienten dabei als zentrale Inspirationsquelle und gaben einen Erkenntnisstand vor, hinter den der Autor nicht zurückfallen wollte; letztlich gehen sie jedoch weitestgehend in ästhetischer Form auf.
Tropospheric ozone (O3) is known to have various detrimental effects on plants, such as visible leaf injury, reduced growth and premature senescence. Flux models offer the determination of the harmful ozone dose entering the plant through the stomata. This dose can then be related to phytotoxic effects mentioned above to obtain dose-response relationships, which are a helpful tool for the formulation of abatement strategies of ozone precursors. rnOzone flux models are dependant on the correct estimation of stomatal conductance (gs). Based on measurements of gs, an ozone flux model for two white clover clones (Trifolium repens L. cv Regal; NC-S (ozone-sensitive) and NC-R (ozone-resistant)) differing in their sensitivity to ozone was developed with the help of artificial neural networks (ANNs). White clover is an important species of various European grassland communities. The clover plants were exposed to ambient air at three sites in the Trier region (West Germany) during five consecutive growing seasons (1997 to 2001). The response parameters visible leaf injury and biomass ratio of NC-S/NC-R clone were regularly assessed. gs-measurements of both clones functioned as output of the ANN-based gs model, while corresponding climate parameters (i.e. temperature, vapour pressure deficit (VPD) and photosynthetic active radiation (PAR)) and various ozone concentration indices were inputs. The development of the model was documented in detail and various model evaluation techniques (e.g. sensitivity analysis) were applied. The resulting gs model was used as a basis for ozone flux calculations, which were related to above mentioned response parameters. rnThe results showed that the ANNs were capable of revealing and learning the complex relationship between gs and key meteorological parameters and ozone concentration indices. The dose-response relationships between ozone fluxes and visible leaf injury were reasonably strong, while those between ozone fluxes and NC-S/NC-R biomass ratio were fairly weak. The results were discussed in detail with respect to the suitability of the chosen experimental methods and model type.
Wegen der vielfältigen Kenntnisse und Perspektiven, die die Mitglieder von Gruppen besitzen, werden anstelle von Individuen oft Gruppen an Verhandlungen beteiligt. Allerdings konzentrierte sich die bisherige Forschung auf den Austausch und die Integration von Informationen zwischen Verhandlungsgruppen. Informationen innerhalb von Verhandlungsgruppen wurden dagegen als von den Gruppenmitgliedern geteilt angesehen. Daher wurde Informationsverarbeitung innerhalb von Verhandlungruppen und ihre Folgen für die gemeinsamen Ergebnisse der Parteien in integrativen Win-Win-Verhandlungen vernachlässigt. Im Rahmen dieser Dissertation wird angenommen, dass ein Unterschieds-Mindset (d.h. eine besondere Sensibilität für Unterschiede) (1) durch eine hohe Diversität in Gruppen aktiviert wird, (2) die Projektion von Gruppenmitgliedern auf andere Gruppenmitglieder reduziert, (3) die Qualität der ersten Forderung durch eine verbesserte Informationsverarbeitung innerhalb der Gruppen erhöht und (4) die gemeinsamen Verhandlungsergebnisse durch eine verbesserte Informationsverarbeitung innerhalb der Gruppen (5a) vor und während Zwischen-Gruppen-Verhandlungen und (5b) vor Repräsentantenverhandlungen steigert. These 1 wurde durch eine experimentelle Onlinestudie mit manipulierter Rückmeldung über hohe (vs. niedrige) Gruppendiversität (Studie 1) bestätigt. These 2 wurde durch eine experimentelle Studie mit manipulierten Online-Gruppen und komparativen Mindsets (Ähnlichkeiten vs. Unterschiede) als unabhängige Variablen (Studie 2) bestätigt. These 3 konnte von einer experimentellen Laborstudie mit Zwischen-Gruppen-Verhandlungen (Studie 3) nicht gestützt werden, wohl aber durch eine experimentelle Laborstudie mit Repräsentantenverhandlungen (Studie 4). Beide Studien unterstützen ebenfalls These 4 und 5, mit der Einschränkung, dass ein Unterschieds-Mindset die gemeinsamen Ergebnisse in einer Zwischen-Gruppen-Verhandlung nur durch die Informationsverarbeitung während der Verhandlung beeinflusst, nicht durch die Verarbeitung zuvor. Beiträge, Grenzen und Implikationen für die zukünftige Forschung werden diskutiert.
With the advent of highthroughput sequencing (HTS), profiling immunoglobulin (IG) repertoires has become an essential part of immunological research. The dissection of IG repertoires promises to transform our understanding of the adaptive immune system dynamics. Advances in sequencing technology now also allow the use of the Ion Torrent Personal Genome Machine (PGM) to cover the full length of IG mRNA transcripts. The applications of this benchtop scale HTS platform range from identification of new therapeutic antibodies to the deconvolution of malignant B cell tumors. In the context of this thesis, the usability of the PGM is assessed to investigate the IG heavy chain (IGH) repertoires of animal models. First, an innovate bioinformatics approach is presented to identify antigendriven IGH sequences from bulk sequenced bone marrow samples of transgenic humanized rats, expressing a human IG repertoire (OmniRatTM). We show, that these rats mount a convergent IGH CDR3 response towards measles virus hemagglutinin protein and tetanus toxoid, with high similarity to human counterparts. In the future, databases could contain all IGH CDR3 sequences with known specificity to mine IG repertoire datasets for past antigen exposures, ultimately reconstructing the immunological history of an individual. Second, a unique molecular identifier (UID) based HTS approach and network property analysis is used to characterize the CLLlike CD5+ B cell expansion of A20BKO mice overexpressing a natural short splice variant of the CYLD gene (A20BKOsCYLDBOE). We could determine, that in these mice, overexpression of sCYLD leads to unmutated subvariant of CLL (UCLL). Furthermore, we found that this short splice variant is also seen in human CLL patients highlighting it as important target for future investigations. Third, the UID based HTS approach is improved by adapting it to the PGM sequencing technology and applying a custommade data processing pipeline including the ImMunoGeneTics (IMGT) database error detection. Like this, we were able to obtain correct IGH sequences with over 99.5% confidence and correct CDR3 sequences with over 99.9% confidence. Taken together, the results, protocols and sample processing strategies described in this thesis will improve the usability of animal models and the Ion Torrent PGM HTS platform in the field if IG repertoire research.
This dissertation includes three research articles on the portfolio risks of private investors. In the first article, we analyze a large data set of private banking portfolios in Switzerland of a major bank with the unique feature that parts of the portfolios were managed by the bank, and parts were advisory portfolios. To correct the heterogeneity of individual investors, we apply a mixture model and a cluster analysis. Our results suggest that there is indeed a substantial group of advised individual investors that outperform the bank managed portfolios, at least after fees. However, a simple passive strategy that invests in the MSCI World and a risk-free asset significantly outperforms both the better advisory and the bank managed portfolios. The new regulation of the EU for financial products (UCITS IV) prescribes Value at Risk (VaR) as the benchmark for assessing the risk of structured products. The second article discusses the limitations of this approach and shows that, in theory, the expected return of structured products can be unbounded while the VaR requirement for the lowest risk class can still be satisfied. Real-life examples of large returns within the lowest risk class are then provided. The results demonstrate that the new regulation could lead to new seemingly safe products that hide large risks. Behavioral investors who choose products based only on their official risk classes and their expected returns will, therefore, invest into suboptimal products. To overcome these limitations, we suggest a new risk-return measure for financial products based on the martingale measure that could erase such loopholes. Under the mean-VaR framework, the third article discusses the impacts of the underlying's first four moments on the structured product. By expanding the expected return and the VaR of a structured product with its underlying moments, it is possible to investigate each moment's impact on them, simultaneously. Results are tested by Monte Carlo simulation and historical simulation. The findings show that for the majority of structured products, underlyings with large positive skewness are preferred. The preferences for variance and for kurtosis are ambiguous.
The complicated human alternative GR promoter region plays a pivotal role in the regulation of GR levels. In this thesis, both genomic and environmental factors linked with GR expression are covered. This research showed that GR promoters were susceptible to silencing by methylation and the activity of the individual promoters was also modulated by SNPs. E2F1 is a major element to drive the expression of GR 1F transcripts and single CpG dinucleotide methylation cannot mediate the inhibition of transcription in vitro. Also, the distribution of GR first exons and 3" splice variants (GRα and GR-P) is expressed throughout the human brain with no region-specific alternative first exon usage. These data mirrored the consistently low levels of methylation in the brain, and the observed homogeneity throughout the studied regions. Taken together, the research presented in this thesis explored several layers of complexity in GR transcriptional regulation.