Refine
Year of publication
Document Type
- Doctoral Thesis (799) (remove)
Language
- German (480)
- English (308)
- Multiple languages (7)
- French (4)
Keywords
- Stress (37)
- Deutschland (29)
- Fernerkundung (17)
- Modellierung (17)
- Hydrocortison (16)
- Optimierung (16)
- stress (15)
- Stressreaktion (12)
- cortisol (12)
- Motivation (11)
Institute
- Psychologie (181)
- Geographie und Geowissenschaften (148)
- Mathematik (62)
- Wirtschaftswissenschaften (60)
- Fachbereich 4 (47)
- Geschichte, mittlere und neuere (28)
- Germanistik (26)
- Informatik (26)
- Fachbereich 1 (23)
- Kunstgeschichte (22)
- Politikwissenschaft (18)
- Anglistik (17)
- Soziologie (15)
- Fachbereich 6 (13)
- Fachbereich 2 (11)
- Philosophie (9)
- Romanistik (9)
- Computerlinguistik und Digital Humanities (7)
- Medienwissenschaft (6)
- Geschichte, alte (5)
- Allgemeine Sprach- und Literaturwissenschaft (4)
- Fachbereich 3 (4)
- Klassische Philologie (4)
- Pädagogik (4)
- Ethnologie (3)
- Fachbereich 5 (3)
- Japanologie (3)
- Sinologie (3)
- Archäologie (2)
- Rechtswissenschaft (2)
- Phonetik (1)
- Slavistik (1)
- Universitätsbibliothek (1)
The Second Language Acquisition of English Non-Finite Complement Clauses – A Usage-Based Perspective
(2022)
One of the most essential hypotheses of usage-based theories and many constructionist approaches to language is that language entails the piecemeal learning of constructions on the basis of general cognitive mechanisms and exposure to the target language in use (Ellis 2002; Tomasello 2003). However, there is still a considerable lack of empirical research on the emergence and mental representation of constructions in second language (L2) acquisition. One crucial question that arises, for instance, is whether L2 learners’ knowledge of a construction corresponds to a native-like mapping of form and meaning and, if so, to what extent this representation is shaped by usage. For instance, it is unclear how learners ‘build’ constructional knowledge, i.e. which pieces of frequency-, form- and meaning-related information become relevant for the entrenchment and schematisation of a L2 construction.
To address these issues, the English catenative verb construction was used as a testbed phenomenon. This idiosyncratic complex construction is comprised of a catenative verb and a non-finite complement clause (see Huddleston & Pullum 2002), which is prototypically a gerund-participial (henceforth referred to as ‘target-ing’ construction) or a to-infinitival complement (‘target-to’ construction):
(1) She refused to do her homework.
(2) Laura kept reading love stories.
(3) *He avoids to listen to loud music.
This construction is particularly interesting because learners often show choices of a complement type different from those of native speakers (e.g. Gries & Wulff 2009; Martinez‐Garcia & Wulff 2012) as illustrated in (3) and is commonly claimed to be difficult to be taught by explicit rules (see e.g. Petrovitz 2001).
By triangulating different types of usage data (corpus and elicited production data) and analysing these by multivariate statistical tests, the effects of different usage-related factors (e.g. frequency, proficiency level of the learner, semantic class of verb, etc.) on the representation and development of the catenative verb construction and its subschemas (i.e. target-to and target-ing construction) were examined. In particular, it was assessed whether they can predict a native-like form-meaning pairing of a catenative verb and non-finite complement.
First, all studies were able to show a robust effect of frequency on the complement choice. Frequency does not only lead to the entrenchment of high-frequency exemplars of the construction but is also found to motivate a taxonomic generalisation across related exemplars and the representation of a more abstract schema. Second, the results indicate that the target-to construction, due to its higher type and token frequency, has a high degree of schematicity and productivity than the target-ing construction for the learners, which allows for analogical comparisons and pattern extension with less entrenched exemplars. This schema is likely to be overgeneralised to (less frequent) target-ing verbs because the learners perceive formal and semantic compatibility between the unknown/infrequent verb and this pattern.
Furthermore, the findings present evidence that less advanced learners (A2-B2) make more coarse-grained generalisations, which are centred around high-frequency and prototypical exemplars/low-scope patterns. In the case of high-proficiency learners (C1-C2), not only does the number of native-like complement choices increase but relational information, such as the semantic subclasses of the verb, form-function contingency and other factors, becomes also relevant for a target-like choice. Thus, the results suggests that with increasing usage experience learners gradually develop a more fine-grained, interconnected representation of the catenative verb construction, which gains more resemblance to the form-meaning mappings of native speakers.
Taken together, these insights highlight the importance for language learning and teaching environments to acknowledge that L2 knowledge is represented in the form of highly interconnected form-meaning pairings, i.e. constructions, that can be found on different levels of abstraction and complexity.
Die Kritische Theorie entstand in den 1930er Jahren und wurde seit den fünfziger Jahren mit der "Frankfurter Schule" identifiziert. In der Dissertation wird dieser Schulzusammenhang durch Porträts der dreizehn Angehörigen der zweiten Generation kritischer Theoretiker(innen) dargestellt. Auf diese Weise wird demonstriert, dass sich die Weiterentwicklung der Kritischen Theorie seit den sechziger Jahren nicht nur auf Jürgen Habermas beschränkt. Die zweite Generation stellt sich als eine zerstrittene Interpretationsgemeinschaft dar, deren unterschiedliche Vertreter verschiedenartige aktuelle Versionen von "Kritischer Theorie" entwickelt haben.
Thema dieser Dissertation ist das deutsche Selbstbildnis im 17. Jahrhundert. Ziel der Arbeit war es, das deutsche Selbstbildnis als eigene Gattung zu etablieren. Hierzu wurden die Selbstbildnisse deutscher Maler des 17. Jahrhunderts ausgewählt, gilt doch diese Zeit noch immer als ‚totes Jahrhundert‘. Grundlage der Untersuchung war eine Sammlung von 148 Objekten, die einer grundlegenden Analyse unterzogen wurden. Das früheste Selbstbildnis in dieser Sammlung stammt von 1600, das späteste wurde um 1700 angefertigt. Künstler aus dem gesamten Alten Reich, ob aus Schlesien und Böhmen, Nord-oder Süddeutschland oder aus den österreichischen wie schweizerischen Landen sind hier vertreten. Die Selbstbildnisse stammen von Malern in der gesamten breite ihrer Karriere. So sind gleichermaßen Selbstbildnisse von Gesellen wie Meistern, von Hofmalern bis hin zu Freimeistern vertreten. Besonders wichtig war es, nicht nur Selbstbildnisse im Gemälde oder Kupferstich in die Untersuchung aufzunehmen, sondern auch Stammbucheinträge.
Die ausführliche Betrachtung und Gegenüberstellung der deutschen Selbstbildnisse mit denen ihrer europäischen Kollegen hat gezeigt, dass auch deutsche Maler den gängigen Darstellungstypen wie etwa dem virtuoso folgten. Aber die deutschen Maler imitierten nicht nur, sondern experimentierten und gingen mit ihren Vorbildern spielerisch um. Daneben folgten sie natürlich auch den Trends der Selbstinszenierung. Sie drückten in ihren Selbstbildnissen ihren Wunsch nach sozialer und gesellschaftlicher Emanzipation des gesamten Berufsstandes aus. So war das deutsche Selbstbildnis eigenständiger Ausdruck des Aufbruches deutscher Künstler in eine neue Zeit.
Die Arbeit untersucht den Zusammenhang zwischen dem sprachlichen Zeichen und den Begriffen. Das Lexikon mit seinen Bedeutungsdefinitionen ist der augenscheinlichste Schnittpunkt zwischen dem Sprach- und dem Begriffssystem. Die Bedeutungsdefinition wird dabei als ein empirisches Datum betrachtet, das formal beschrieben werden kann. Die Bedeutungsanalyse überführt die Bedeutungsdefinition in eine komplexe Ordnungsstruktur. Die Methode wurde aus verschiedenen Begriffstheorien entwickelt, hauptsächlich aus Raili Kauppis Begriffstheorie und der Formalen Begriffsanalyse. Im Ergebnis erhält man aus den Bedeutungen eines Lexikons ein komplexes System von ein- bis n-stelligen Begriffen. Dieses Begriffssystem unterscheidet sich von den bekannten Semantischen Netzen durch einen völligen Verzicht auf von außen auf das System projizierte Relationen, wie den sogenannten semantischen Relationen. Die einzigen Relationen in diesem System sind begrifflich.
Volition als psychische Funktion, Schwierigkeiten in der Handlungsausführung zu überwinden, spielt eine bedeutende Rolle in der psychosomatischen Rehabilitation. In einer Gruppentherapie über maximal 4 Sitzungen zeigte sich, dass sich volitionale Kompetenzen signifikant verbesserten. Zusätzlich ergaben sich Verbesserungen in anderen Therapie-Outcome-Maßen.
Die Zahl der (potenziellen) Kunden der Dienstleistungsbranche Tourismus und deren Ver-teilung im Raum wird durch eine Vielzahl von Ursachen (Bedürfnis- und Verhaltens-dimension der Tourismusforschung) bestimmt. Das sind z. B. auch Beweggründe, Bedürf-nisse, Motive oder auch Motivkomplexe. Die Kenntnis dieser Bedürfnisse und Verhaltens-weisen von Reisenden und deren Anforderungen an die offerierte Leistung sind dabei eine zentrale Voraussetzung für eine zielgruppengerechte Marktbearbeitung. Ein wichtiger Bestandteil dieser notwendigen Zielgruppenorientierung ist die Marktsegmentierung, deren Aufgabe darin besteht, den relevanten Markt in intern möglichst homogene und untereinander heterogene Teilmärkte aufzuteilen. Eine Segmentierung des Tourismusmarktes erfolgte bislang vornehmlich anhand verschiedener Einschränkungen. Aufgrund der geringen Aus-sagekraft der bisherigen Ansätze für das durch umfangreiche Motivkomplexe geprägte Reise-verhalten der Nachfrager erweist sich allerdings eine zielgruppenspezifische Markt-bearbeitung auf Basis derartiger Lösungen als nur bedingt möglich. Dieser Kritik Rechnung tragend wurde ein ganzheitlicher Segmentierungsansatz entwickelt, der an möglichst zahl-reichen Ausprägungsformen des Reiseverhaltens ansetzt, alle vier klassischen Markt-erfassungsansätze verbindet und damit Handlungsempfehlungen für eine breit angelegte zielgruppenspezifische Marktbearbeitung aufzeigt. Eine weitere Neuerung bezieht sich auf die Anwendung einer multivariaten Baumanalyse, um Zielgruppen im Tourismus zu differen-zieren. Dieses Analyseverfahren erlaubt die gemeinsame Analyse mehrerer Variablen und von Variablen jedes Skalenniveaus. Dazu wurden mehr als 6.000 mündlich geführte Interviews, die mittels einer Zielgebiets-befragung 1997-1999 in Rheinland-Pfalz erhoben wurden, ausgewertet. Das Hauptaugenmerk lag dabei auf der multivariaten Analyse mit Hilfe des sogenannten CHAID-Algorithmus. Es handelt sich dabei um eine Art Baumdiagramm, welches erstmalig als Instrument der touristischen Zielgruppenplanung mittels Segmentbildung und Profilerstellung eingesetzt und daher als Alternative zu Cluster- und Diskriminanzanalyse charakterisiert wird. Dabei kann eine Vielzahl verschiedenartiger Typisierungen untersucht werden, wie etwa die Typisierung der Reisenden mit hohem Reisestellenwert (z. B. der Haupturlauber), mit ausgeprägter Besuchshäufigkeit bzw. Zielgebietserfahrung, mit hoher Rückkehrbereitschaft, außergewöhnlicher Zufriedenheit oder des kaufkräftigen Urlaubers. Abschließend erfolgt die Beurteilung der Ergebnisse bezüglich der praktischen Bedeutung für das Rheinland-Pfalz-Marketing.
Die Untersuchung beschäftigt sich mit den Prozessen und Mechanismen, die dem NATO-Beitritt Polens zugrunde liegen, insbesondere mit den Gründen für die Transformation der zivil-militärischen Beziehungen in Polen. Die Demokratisierung der zivil-militärischen Beziehungen war eines der Hauptkriterien für den Beitritt Polens in die NATO. rnVor diesem Hintergrund geht die Arbeit der Frage nach, ob nachzuweisen ist, dass der Einfluss der NATO primär für die Demokratisierung der zivil-militärischen Beziehungen Polens verantwortlich ist. Dabei stützt sich die Arbeit auf den aktuellen Forschungsstand der Theorien internationaler Sozialisation, deren Ziel es ist, die Prozesse und Mechanismen der Normübernahme von Staaten zu erklären. Der theoretische Rahmen wurde in ein Forschungsdesign eingebettet, das vielfältige Methoden für die detaillierte empirische Analyse einbezieht. Ergänzend wurden alternative und ergänzende Erklärungen überprüft, die nicht durch die Theorie abgedeckt werden. Entgegen der vorherrschenden Meinung in der Fachliteratur kommt die Untersuchung zu dem Ergebnis, dass die NATO nicht primär für die Sozialisation und damit Demokratisierung der zivil-militärischen Beziehungen in Polen verantwortlich ist. Polen ist erfolgreich in der Demokratisierung seiner zivil-militärischen Beziehungen, jedoch ist die NATO nicht erfolgreich in der Sozialisation Polens in diesem Bereich, sondern eher darin, den Demokratisierungsprozess in Polen mit Erfahrung und Expertise zu flankieren. Dieser Prozess wurde maßgeblich innenpolitisch und durch Akteure in Polen angestoßen, angetrieben, getragen und schlussendlich entschieden. Obgleich die NATO das Beitrittskriterium vorgab und die polnischen Akteure durchaus begleitete, kann darüber hinaus der Einfluss der NATO als nicht maßgeblich bewertet werden. Im Gegenteil, die Ergebnisse zeigen, dass es nicht das Ziel der NATO war, die Prozesse direkt zu beeinflussen oder zu steuern, sondern vielmehr, den Transformationsprozess der zivil-militärischen Beziehungen in Polen, insbesondere die praktische Umsetzung, durch Expertise und Erfahrungen zu begleiten und eigene Lernprozesse anzustoßen.
Im Mittelpunkt dieser Untersuchung stand die in der Umweltbeobachtung bestehende Diskrepanz zwischen dem Wunsch nach flächendeckender Information und der Tatsache, dass meist nur punktuell und stichprobenartig Information erhoben wird. Über das Zusammenführen von unterschiedlichsten Informationen über die Umwelt wurde die Frage der räumlichen Übertragbarkeit von Umweltdaten und die Leistungsfähigkeit von Umweltdaten untersucht. Zur Überprüfung der Hypothese, dass die in einem bestimmten Ökosystemtyp ermittelten Ergebnisse auf andere Vertreter desselben Ökosystemtyps übertragbar sind, wurden PAK gewählt, die als Indikatoren für die luftgetragene stoffliche Immission dienen. Grundlegend für den Untersuchungsansatz war die Annahme, dass die ökologisch-strukturelle Ausstattung eines Ökosystems auch einen bestimmenden Einfluss auf die stoffliche "Belastung" in diesem Ökosystem hat. Dazu wurden zunächst Hinweise auf ein Faktorengefüge erarbeitet, welches den Stoffeintrag bestimmen und welches die ökologisch-struktuelle Ausstattung im Hinblick auf die Zielsetzung in einem ausreichenden Maße beschreiben kann. Die erarbeiteten Faktoren gehören zu den Komplexen Klima, Topographie, Flächennutzung und Biometrie. Entsprechend dem Untersuchungsansatz wurde nach einem Modell gesucht, das den funktionalen Zusammenhang zwischen Faktoren zur Beschreibung der ökologisch-strukturellen Ausstattung der Gebiete und der entsprechenden PAK-Immission annähert. Für diesen Anwendungsfall ist der Netztyp des GRNN (General Regression Neural Network) besonders gut geeignet. Mit Hilfe des Modells wurden Prognosen der PAK-Immission für fünf Ökosysteme in Deutschland berechnet. Die Validierung dieser Ergebnisse erfolgte anhand von rückstandsanalytischen Untersuchungen an einjährigen Fichtentrieben aus diesen Gebieten. Über die Modellbildung mit unterschiedlichen Input-Sets wurden die für die PAK-Immission relevanten Faktoren herausgearbeitet. Es konnte gezeigt werden, dass sich das gewählte Modell für die Frage der räumlichen Übertragbarkeit eignet, wobei hinsichtlich der Güte der Prognose deutliche Unterschiede zwischen den beiden Gruppen leichtflüchtige und schwerflüchtige PAK bestehen. Zudem bestehen qualitative Unter-schiede hinsichtlich der Prognosen zwischen den Gebieten, da durch die bisherige ökologisch-strukturelle Beschreibung wahrscheinlich einige die Immission bestimmende oder beeinflussende Faktoren nicht oder nicht ausreichend berücksichtigt wurden. Insgesamt wurde durch den gewählten Ansatz auch die Leistungsfähigkeit von Umweltdaten aus unterschiedlichen Monitoring- und Untersuchungsprogrammen durch deren gemeinsame Auswertung verdeutlicht.
In der Forschungsliteratur ist Medienwandel bislang überwiegend als Wandel von Kommunikationstechnologienbehandelt worden, Theorien zum Medienwandel sind ein Forschungsdesiderat. Ziel der Arbeit ist es, anhand exemplarischer Untersuchungen zu klären, ob es bestimmteGelenkstellen gibt, an denen einerseits Probleme der Medientransformation sichtbar werdenund sich andererseits gleichzeitig Anforderungen an eine Theorie des Medienwandels ableitenlassen. In der Arbeit werden dabei explizit nicht nur die Kommunikatorseite, sondern auch die Angebote selbst und ihre Nutzung mit einbezogen. Für die Arbeit wurden empirische Untersuchungen in zwei Online-Redaktionen unterschiedlicher Muttermedien vorgenommen (teilnehmende Beobachtung, Leitfadeninterview). Die Onlineangebote wurden durch eine Studie zur Rezeption dieser Angebote in die Untersuchung mit einbezogen. Betrachtet werden die Redaktionsorganisation, Präsentationsmuster des Angebots und die Rezeptionsmuster, die sich bei der Nutzung der untersuchten Angebote zeigen. Die von den untersuchten Anbietern eingesetzte Strategie der Adaption erweist sich angesichts eines Mißverhältnisses zwischen Produktionskompetenz und -möglichkeiten der Macher und der Abstimmung der Angebote auf die Nutzungskompetenz ihrer Rezipienten als problematisch. Eine Theorie des Medienwandels muss mehrdimensional und integrativ sein, um den verschiedenen wechselseitigen Abhängigkeiten der Medienkommunikation gerecht zu werden.
Stress gilt als zentrales Gesundheitsrisiko des 21. Jahrhunderts und wird in der Forschung als multidimensionales Konstrukt auf psychologischer und biologischer Ebene untersucht. Wäh-rend die subjektive Wahrnehmung von Stress nicht mit der biologischen Stressreaktivität zu-sammenhängen muss, ist der negative Einfluss stressassoziierter biologischer Prozesse auf Wohlbefinden und Gesundheit gut belegt. Bereits im Grundschulalter zeigen Kinder eine mit Erwachsenen vergleichbare Stressbelastung und gesundheitliche Folgen, Bewältigungsstrategien sind in diesem Alter allerdings noch nicht vollständig entwickelt. Präventionsprogramme im Grundschulalter sollen Kinder in ihren sich entwickelnden Stressbewältigungsfähigkeiten fördern, wobei sowohl emotionsfokussierte und problemorientierte Ansätze als auch soziale Unterstützung wichtige Faktoren darstellen könnten.
Das einleitende Literatur-Review evaluiert bisherige Stresspräventionsstudien und verdeutlicht, dass zwar die Wirksamkeit und Anwendbarkeit von mehrfaktoriellen Stresspräventionsprogrammen im Rahmen psychometrischer Erhebungen gezeigt werden konnten, biologische Prozesse in der Forschung bisher allerdings nicht erhoben und außer Acht gelassen wurden.
Die empirische Untersuchung in Studie 1 zeigt, dass eine multidimensionale psychobiologische Betrachtungsweise sinnvoll ist, indem sowohl die Psychometrie, als auch psychobiologische Prozesse der Stressreaktion miteinbezogen und die Auswirkungen von Stressprävention auf den verschiedenen Ebenen untersucht wurden. Zwei Kurzinterventionen wurden dazu miteinander verglichen und ihre Wirkung auf psychophysiologischen Ebenen (z.B. Kortisol, α-Amylase und Herzrate) in einem Prä-Post Design geprüft. Eine statistisch signifikante Abnahme psychophysiologischer Stressreaktivität, sowie stressassoziierter psychologischer Symptome verdeutlichte die multidimensionale Wirksamkeit von Stressmanagementtrainings.
Studie 2 wurde im Rahmen der Covid-19-Pandemie entworfen. Die in Studie 1 trainierten Kinder wurden mittels Online-Fragebogenerhebung mit einer Kontrollgruppe hinsichtlich ihrer Stressbelastung verglichen. Die Ergebnisse zeigten eine geringere Belastung und vermehrte günstige Bewältigungsstrategien trainierter Kinder im Vergleich zur Kontrollgruppe.
Diese Ergebnisse heben die Relevanz einer multidimensionalen Betrachtung kindlichen Stresses hervor. Es wurde gezeigt, dass Stresspräventionsprogramme auf den unterschiedlichen Ebenen der Stressreaktion wirken und sogar in gesamtgesellschaftlichen Krisensituationen stresspro-tektiv wirken können. Zukünftige Studien sollten Stresspräventionen im Grundschulalter psychophysiologisch evaluieren und deren Wirkung in Längsschnittstudien beurteilen, um das Verständnis der zugrundeliegenden Mechanismen zu verbessern.
This work is concerned with the numerical solution of optimization problems that arise in the context of ground water modeling. Both ground water hydraulic and quality management problems are considered. The considered problems are discretized problems of optimal control that are governed by discretized partial differential equations. Aspects of special interest in this work are inaccurate function evaluations and the ensuing numerical treatment within an optimization algorithm. Methods for noisy functions are appropriate for the considered practical application. Also, block preconditioners are constructed and analyzed that exploit the structure of the underlying linear system. Specifically, KKT systems are considered, and the preconditioners are tested for use within Krylov subspace methods. The project was financed by the foundation Stiftung Rheinland-Pfalz für Innovation and carried out in joint work with TGU GmbH, a company of consulting engineers for ground water and water resources.
Behavioural traces from interactions with digital technologies are diverse and abundant. Yet, their capacity for theory-driven research is still to be constituted. In the present cumulative dissertation project, I deliberate the caveats and potentials of digital behavioural trace data in behavioural and social science research. One use case is online radicalisation research. The three studies included, set out to discern the state-of-the-art of methods and constructs employed in radicalization research, at the intersection of traditional methods and digital behavioural trace data. Firstly, I display, based on a systematic literature review of empirical work, the prevalence of digital behavioural trace data across different research strands and discern determinants and outcomes of radicalisation constructs. Secondly, I extract, based on this literature review, hypotheses and constructs and integrate them to a framework from network theory. This graph of hypotheses, in turn, makes the relative importance of theoretical considerations explicit. One implication of visualising the assumptions in the field is to systematise bottlenecks for the analysis of digital behavioural trace data and to provide the grounds for the genesis of new hypotheses. Thirdly, I provide a proof-of-concept for incorporating a theoretical framework from conspiracy theory research (as a specific form of radicalisation) and digital behavioural traces. I argue for marrying theoretical assumptions derived from temporal signals of posting behaviour and semantic meaning from textual content that rests on a framework from evolutionary psychology. In the light of these findings, I conclude by discussing important potential biases at different stages in the research cycle and practical implications.
In der Dissertation wird ein organisationales Akteurmodell zur Erklärung umweltförderlicher Handlungsbereitschaften und umweltförderlicher Handlungsweisen betrieblicher Entscheidungsträger entwickelt. Die empirische Prüfung des organisationalen Akteurmodells erfolgte an einer Stichprobe von 196 vorwiegend kleinbetrieblichen Entscheidungsträgern aus dem Regierungsbezirk Trier. Varianzaufklärungen von über 50 Prozent in den umweltförderlichen Handlungsbereitschaften und Handlungsweisen bestätigen die Erklärungsrelevanz von verhaltenskontrollbezogenen, sozial-normativen, moralbasierten sowie einstellungsbezogenen Determinanten. Aus den Ergebnissen der Arbeit werden Erklärungsmöglichkeiten für die beobachtete Diskrepanz zwischen betrieblichen Zielen und Absichtserklärungen von organisationalen Entscheidungsträgern und der Umsetzung in konkrete Umweltmaßnahmen abgeleitet. Weiterhin werden Ansatzpunkte für eine Weiterentwicklung des Modells sowie mögliche Veränderungsmaßnahmen zur Förderung umweltgerechten Handelns in Betrieben vorgeschlagen.
Evidence points to autonomy as having a place next to affiliation, achievement, and power as one of the basic implicit motives; however, there is still some research that needs to be conducted to support this notion.
The research in this dissertation aimed to address this issue. I have specifically focused on two issues that help solidify the foundation of work that has already been conducted on the implicit autonomy motive, and will also be a foundation for future studies. The first issue is measurement. Implicit motives should be measured using causally valid instruments (McClelland, 1980). The second issue addresses the function of motives. Implicit motives orient, select, and energize behavior (McClelland, 1980). If autonomy is an implicit motive, then we need a valid instrument to measure it and we also need to show that it orients, selects, and energizes behavior.
In the following dissertation, I address these two issues in a series of ten studies. Firstly, I present studies that examine the causal validity of the Operant Motive Test (OMT; Kuhl, 2013) for the implicit affiliation and power motives using established methods. Secondly, I developed and empirically tested pictures to specifically assess the implicit autonomy motive and examined their causal validity. Thereafter, I present two studies that investigated the orienting and energizing effects of the implicit autonomy motive. The results of the studies solidified the foundation of the OMT and how it measures nAutonomy. Furthermore, this dissertation demonstrates that nAutonomy fulfills the criteria for two of the main functions of implicit motives. Taken together, the findings of this dissertation provide further support for autonomy as an implicit motive and a foundation for intriguing future studies.
Die Dissertation beschäftigt sich mit der Frage, inwieweit und unter welchen Bedingungen psychophysiologische Maße gewinnbringend zur empirischen Prüfung physiologisch orientierter Persönlichkeitstheorien genutzt werden können. Am Beispiel des Extraversionsmodells von Brebner & Cooper (1985), das mit Hilfe ereigniskorrelierter Hirnrindenpotentiale (EKP) empirisch geprüft wurde, wird deutlich herausgearbeitet, mit welchen Herausforderungen sich eine solche Forschung konfrontiert sieht: die konsequente und streng theoriegeleitete Verknüpfung psychologischer Konzepte mit psychophysiologischen Maßen, die sorgfältige Berücksichtigung der funktionalen Bedeutung und der komplexen auslösenden Bedingungen der elektrophysiologischen Parametern im Kontext des gewählten Paradigmas sowie die umfassende Kontrolle experimenteller und situationsspezifischer Rahmenbedingung. Das Brebner-Cooper-Modell führt Verhaltensunterschiede zwischen Extravertierten und Introvertierten auf differentiell wirksame exzitatorische und inhibitorische Prozesse zurück, die im Zusammenhang mit der Analyse von Reizen (Reizanalyse) und der Vorbereitung von Reaktionen (Reaktionsorganisation) in einer spezifischen Situation stehen. Der empirische Teil der Arbeit beschreibt zwei EKP-Experimente, in denen langsame Potentiale zur Untersuchung dieser Modellkonzepte herangezogen wurden. Das Ausmaß kortikaler Aktivierung und Deaktivierung bei Introvertierten vs. Extravertierten in Abhängigkeit von variierenden Anforderungen an Reizanalyse und Reaktionsorganisation wurde über die Contingent Negative Variation (CNV) abgebildet. Aufgrund theoretischer wie empirischer Überlegungen wurde davon ausgegangen, dass sich Unterschiede in der Reizanalyse in der initial CNV (iCNV), Unterschiede in der Reaktionsorganisation dagegen in der terminal CNV (tCNV) niederschlagen. Die Ergebnisse bestätigen, dass der Einsatz psychophysiologischer Methoden zur Theorienprüfung erst dann vielversprechend ist, wenn zuvor eine Validierung der elektrophysiologischen Maße als geeignete Indikatoren für die psychologischen Konstrukte erfolgt ist.
Die Europäische Union hat seit Ende des Ost-West-Konflikts 1989/90 einen dynamischen Ausbau ihrer vertraglichen und institutionellen Fundamente erfahren. Mit diesem Prozess ging zugleich eine enge Verflechtung von europäischen und nationalen Entscheidungsprozessen und politischen Arenen einher. So entwickelte sich ein zunehmend dynamischer werdendes Interaktionsverhältnis zwischen Europäischer Union, nationaler Europapolitik und Innenpolitik. Ausgehend von der These, dass die deutsche Europapolitik seit der Zäsur 1989/90 zunehmend pragmatischer, kontroverser und somit normaler geworden ist, untersucht die Arbeit diese Veränderung der deutschen Europapolitik am Beispiel zweier qualitativer Fallstudien: 1.Die Verhandlungen zum dritten mehrjährigen Finanzrahmen für die Jahre 2000 bis 2006, die sogenannte Agenda 2000. Für Deutschland als größtem Beitragszahler in der EU waren die Finanzverhandlungen von immenser Bedeutung. Denn mit der finanziellen Ausstattung der beiden größten Ausgabenblöcken, der europäischen Kohäsionspolitik und der Gemeinsamen Agrarpolitik, waren zentrale Grundsatzfragen der deutschen Europapolitik und der Rolle Deutschlands in der EU verbunden, wie zum Beispiel das bilaterale Verhältnis zum französischen Partner. 2.Der Prozess der Osterweiterung der Europäischen Union seit dem Ende des Ost-West-Gegensatzes 1989/90 von der Assoziierung der Reformstaaten in Mittel- und Osteuropa bis zum Beitritt der acht neuen Mitglieder am 1. Mai 2004. Die Ost-Erweiterung der EU war eine der wichtigsten Grundsatzentscheidungen der deutschen Europapolitik. Dieser fast 15 Jahre dauernde Prozess von 1989 bis 2004 wird in einer minuziösen Längsschnitt-Analyse nachgezeichnet und die spezifischen Interessen der zentralen politischen und gesellschaftlichen Akteure der deutschen Politik detailliert analysiert.Beide Entscheidungsprozesse beeinflussten nahezu alle Politikfelder und hatten weitreichende Konsequenzen für die innen-, wirtschafts- und sozialpolitischen Strukturen der Bundesrepublik. Damit erforderten sie sowohl eine grundsätzliche und strategische Positionierungen der deutschen Europapolitik als auch kurzfristige, auf rationalen Kosten-Nutzen-Abwägungen basierende Festlegungen zu konkreten Einzelfragen im Verlauf der Entscheidungsprozesse. Die beiden umfangreichen Fallstudien bestätigen, dass die wechselseitige Interaktion zwischen innenpolitischen Auseinandersetzungen und europäischen Entscheidungsprozessen sich verdichtet hat. Europäische Entscheidungsprozesse werden für innenpolitische Auseinandersetzungen und Debatten genutzt und häufig auch parteipolitisch polarisiert. Die Europapolitik wird zu einem Feld pragmatischer Kosten-Nutzen-Abwägungen aus begrenzten innenpolitischen oder gar parteitaktischen Kalkülen. Die Europapolitik wird unter innenpolitischen Vorzeichen politisiert und polarisiert.
Mobilität und Werte
(2000)
Mit Hilfe einer Fragebogenstudie (N=359) werden die Motive der Verkehrsmittelnutzung und der Zustimmung zu verkehrspolitischen Maßnahmen zur Einschränkung des Autoverkehrs als wesentliche Interventionsansätze zur Veränderung des Mobilitätsverhaltens untersucht. Mit dem gewählten Erklärungsansatz wird umweltrelevantes Handeln nicht nur aus der Perspektive umweltbezogener Überzeugungen analysiert, sondern es wird ein wertepluralistischer Ansatz zugrunde gelegt, bei dem der Umweltschutz lediglich einen Teilaspekt im Netz einer Vielzahl handlungsrelevanter Werte und Ziele (wie z.B. Mobilitätseffizienz, Fahrfreude, Arbeitsplatzsicherheit und Verkehrssicherheit) bildet. Die korrelativen und regressionsanalytischen Ergebnisse der Studie zeigen, daß umweltbezogene Überzeugungen, wie z.B. die Akzeptanz von Umwelt- und Naturschutz und die Verantwortungsübernahme für den Schutz von Umwelt und Natur, die differenzierte Motivbasis umweltre levanter Handlungen im Verkehrsbereich empirisch nur unzureichend abbilden. Vielmehr sind es die individuellen Überzeugungen zu Akzeptanz und Realisierung einer Vielfalt von Werten und Zielen von denen die Mobilitätsentscheidungen beeinflußt werden. Als zentrale Aufgaben zukünftiger psychologischer Forschungsvorhaben im Bereich umweltrelevanten Handelns lassen sich die Durchführung weiterer bedingungsanalytischer Studien zur Überprüfung der wertepluralistische Grundannahme im Kontext anderer Handlungsfelder und die Erprobung sowie Evaluation der abgeleiteten Interventionsstrategien formulieren.
Im Jahr 1675 erscheinen in Köln die Memoiren der Herzogin von Mazarin: Hortense Mancini, Memoiren, die Aufsehen erregen, zunächst deshalb, weil eine Frau aus hohen Kreisen die Verfasserin ist, dann aber besonders auf dem Hintergrund des skandalösen Inhalts. Der Erfolg, vor allem bei dem Pariser Publikum, bleibt nicht aus: Jeder möchte Neuigkeiten ergattern über eine Ehe, die in aller Munde ist, aber man hofft auch, das eine oder andere Detail über den Hof und vor allem über Ludwig XIV. in Erfahrung zu bringen. Bereits ein Jahr später machen die Erinnerungen der Konnetabel von Colonna: Marie Mancini, einer Schwester Hortenses, von sich reden, eine Fälschung, die an den Erfolg der ersteren anknüpfen möchte und der ein großes Echo in der Öffentlichkeit beschieden ist. So verwundert es heute kaum, dass Maria sich genötigt sieht, ebenfalls zur Feder zu greifen, um eine Richtigstellung der in den apokryphen Memoiren verbreiteten Lügen und Diffamierungen entgegenzutreten. Sie nimmt den Skandal der Publizierung in Kauf und so erscheint 1678 in Leiden eine von Brémond überarbeitete Fassung, deren Titel "Apologie ou les véritables mémoires de Madame Marie Mancini, connétable de Colonna, écrits par elle-même" ist. Die Arbeit beschäftigt sich mit der Frage, ob der Skandal, der durch die Publikationen hervorgerufen wird, beabsichtigt ist oder ob in Wirklichkeit eine Art von Selbstverteidigung dahintersteht: Wollten die beiden Frauen sich und ihre Ehre verteidigen, dies auch unter Inkaufnahme einer Bloßstellung in der damaligen Gesellschaft, in der sie auf dem Hintergrund ihres Verhaltens in der Ehe sowieso Zielscheibe diverser Angriffe und von Spott waren? Hierzu ist eine genaue inhaltliche, aber auch sprachlich-stilistische Untersuchung der Texte unter Berücksichtigung sonstiger Äußerungen der Hortense und Marie Mancini und ihrer Zeitgenossen notwendig, wobei zwischen den beiden Autorinnen wohl differenziert werden muss. Welche Rolle spielt Ludwig XIV., mit dem Marie eine Jugendfreundschaft verbindet und den auch Hortense bestens kennt? In welcher Beziehung stehen Skandal und Apologie? Inwieweit sind die Charaktere der beiden Frauen so unterschiedlich, dass sich dies auch auf die Beweggründe ihres Handelns auswirkt? Beide Verfasserinnen haben Gönner und Feinde, doch ist Hortense weitaus koketter und sonnt sich im öffentlichen Interesse am Skandal, während ihre Schwester zurückhaltender und diskreter erscheint. Sie schreibt ausdrücklich gegen ihren Willen, ob man ihr dies nun glaubt oder nicht, wohingegen Hortense Freude am Schreiben hat und gleichsam den Skandal nutzt, um sich noch mehr in das Licht der Öffentlichkeit zu begeben, was auch durch ihr weiteres Leben unterstrichen wird. Abgesehen von der philologischen und literaturgeschichtlichen Betrachtung haben die Memoiren der beiden Schwestern neben einer Bedeutung im geographisch-politischen Kontext ebenso eine gesellschaftlich-soziale Relevanz bzw. eine frauenemanzipatorische Dimension, die sie auch für den heutigen Leser noch gewinnbringend und interessant erscheinen lassen.
Diese Arbeit beschäftigt sich mit (frequent) universellen Funktionen bezüglich Differentialoperatoren und gewichteten Shiftoperatoren. Hierbei wird ein Charakteristikum von Funktionen vom Exponentialtyp untersucht, das bisher im Rahmen der Universalität noch nicht betrachtet wurde: Das konjugierte Indikatordiagramm. Dabei handelt es sich um eine kompakte und konvexe Menge, die einer Funktion vom Exponentialtyp zugeordnet ist und gewisse Rückschlüsse über das Wachstum und die mögliche Nullstellenverteilung zulässt. Mittels einer speziellen Transformation werden (frequent) universelle Funktionen vom Exponentialtyp bezüglich verschiedener Differentialoperatoren ineinander überführt. Hierdurch ist eine genaue Lokalisation der konjugierten Indikatordiagramme möglicher (frequent) universeller Funktionen für diese Operatoren ableitbar. Durch Konjugation der Differentiation mit gewichteten Shiftoperatoren über das Hadamardprodukt, wird auch für diese Operatoren eine Lokalisation möglicher konjugierter Indikatordiagramme ihrer (frequent) universellen Funktionen erreicht.
An einer Stichprobe mit insgesamt N = 204 Psychotherapiepatienten einer stationären Rehabilitationseinrichtung wurden die Auswirkungen der Posttraumatischen Verbitterungsstörung (Posttraumatic Embitterment Disorder; PTED) auf die berufliche Vertrauens-Trias untersucht und eine Emotionsanalyse zur Verbitterung durchgeführt. Als weitere Persönlichkeitsmerkmale wurden Ärgerneigung, Ärgerbewältigung, Zielanpassung und das arbeitsbezogene Verhaltens- und Erlebensmuster erfasst. Ein Vergleich der Patientengruppen "mit Verbitterungsaffekt" und "ohne Verbitterungsaffekt" belegt die ätiologische Relevanz der Faktoren Zielblockierung, Attribution der Verantwortung, anhaltender Ärger und misslungene Situationsbewältigung bei der Entstehung der Emotion Verbitterung. Nach den Ergebnissen einer durchgeführten MANOVA mit den drei Gruppen (PTED aufgrund eines Arbeitsplatzereignisses vorhanden; PTED aufgrund eines Arbeitsplatzereignisses nicht vorhanden; kein Arbeitsplatzereignis) unterscheiden sich die beiden Patientengruppen mit einem Arbeitsplatzereignis nicht signifikant voneinander in Bezug auf ihre berufliche Vertrauens-Trias, ihre Ärgerneigung und -bewältigung sowie ihre Zielanpassung. Allerdings haben Patienten mit Arbeitsplatzereignis eine geringere berufliche internale Kontrollüberzeugung, besitzen weniger interpersonales Vertrauen am Arbeitsplatz und ihr Vertrauen in die eigene berufliche Zukunft ist niedriger als bei Patienten ohne Arbeitsplatzereignis. Ein weiterer Unterschied sind die höheren Arbeitsunfähigkeitszahlen bei Patienten mit Arbeitsplatzereignis " mit den meisten Krankschreibungen in der Gruppe der PTED-Patienten. Im arbeitsbezogenen Verhaltens- und Erlebensmuster unterscheiden sich die drei Patientengruppen in den Skalen Ehrgeiz, Verausgabungsbereitschaft, Distanzierungsfähigkeit, Offensive Problembewältigung und Soziale Unterstützung. Auch hier unterscheiden sich hauptsächlich die beiden Gruppen mit Arbeitsplatzereignis von der Gruppe ohne Arbeitsplatzereignis, einzige Ausnahme ist das Erleben sozialer Unterstützung.
Die Evangelische Kirche in Deutschland (EKD) ist eine der größten Nonprofit-Organisationen in Deutschland. Sie ist ein sehr heterogenes Gebilde aus (zum Zeitpunkt der Untersuchung) 22 Landeskirchen unterschiedlichen Bekenntnisses mit jeweils eigenen Organisationsstatuten und rechtlichen Regelungen. Lokale Anlaufpunkte für ihre 23,9 Millionen Mitglieder (Stand Ende 2010) sind die Gemeinden. Sie verwalten sich weitgehend selbständig und werden von gewählten und berufenen Ehrenamtlichen sowie dem oder den Geistlichen der Gemeinde geleitet. Ein Mitglieder- und Einnahmerückgang bewirkt steigende Anforderungen an die Gemeindeleitung und die Notwendigkeit umfassender organisatorischer Veränderungen, die einen groß angelegten Reformprozess in der EKD angestoßen hat. Dies führt u.a. zu Zusammenlegungen von Landeskirchen und Kirchengemeinden, Pfarrstellenkürzungen und einer Reduzierung kirchlicher Gebäude. Auch hiervon sind die Gemeinden und ihre Leitungsgremien betroffen. Ziel der Arbeit ist, vor diesem Hintergrund die Gemeindeleitung (mit Fokus auf den ehrenamtlichen Gemeindeleitern) und die Entscheidungsprozesse in den Leitungsgremien explorativ zu beleuchten. Die Betrachtung erfolgt aus einer verfügungsrechtlichen Perspektive und rückt damit die Handlungsspielräume, die Einstellungen und das Entscheidungsverhalten der ehrenamtlichen Gemeindeleiter in den Fokus. Zunächst werden die aktuellen Herausforderungen für die Gemeinden sowie die Themen und unterschiedlichen Ansätze in der Reformdebatte betrachtet. Es folgt eine Darlegung der Einflussmöglichkeiten der Gemeindeleiter auf die Situation ihrer Gemeinde. Hierzu werden die für die Dienstleistungsproduktion von Gemeinden relevanten Entscheidungsfelder, wichtige Kenngrößen für die Gemeindearbeit und die von den Gemeindeleitern beeinflussbaren Entscheidungsvariablen ermittelt. Es folgt eine Analyse der verfügungsrechtlichen Arrangements der 22 Landeskirchen der EKD für die Gemeindeleitung. Für den angestrebten Organisationsvergleich sind Regelungsaspekte von Interesse, deren Ausgestaltung in einzelnen Landeskirchen stark voneinander abweicht. Für die empirische Untersuchung werden konkret die drei Aspekte 'Grad der Selbständigkeit des Gemeindeleitungsgremiums', 'Einflussverteilung zwischen Pfarrern und Ehrenamtlichen im Gremium' sowie 'Haftungsregelungen für die ehrenamtlichen Gemeindeleiter' ausgewählt. Zu den Auswirkungen der unterschiedlichen Ausgestaltung dieser drei Regelungsaspekte werden Hypothesen aufgestellt, die anhand von Fallstudien überprüft werden sollen. Hierfür wurden mit der Evangelischen Kirche in Hessen und Nassau, der Evangelischen Kirche von Kurhessen-Waldeck und der Evangelisch-reformierten Kirche drei Landeskirchen selektiert, die in den genannten Bereichen sehr unterschiedliche Regelungen aufweisen. Den Kern der Arbeit bildet eine explorative vergleichende Untersuchung der unterschiedlichen verfügungsrechtlichen Rahmenbedingungen in den ausgewählten Landeskirchen und ihrer Auswirkung auf das Entscheidungsverhalten der ehrenamtlichen Gemeindeleiter. Auf der Basis von Interviews mit rechtlich versierten Vertretern der drei Landeskirchen werden die historischen Hintergründe für die unterschiedliche rechtliche Ausgestaltung sowie die praktische Relevanz und Anwendbarkeit der einzelnen Regelungen analysiert. Zusätzlich werden für die gemeindlichen Fallstudien wichtige Veränderungs- / Entscheidungsprozesse mit aktuell großer Bedeutung für die Gemeinden ermittelt. Dies sind konkret der Gemeindezusammenschluss, die Pfarrstellenbesetzung und die Durchführung einer großen Baumaßnahme. Für die gemeindliche Untersuchung wurden für jede der drei Landeskirchen drei bis vier Gemeinden (insgesamt 11) ausgewählt, die mindestens einen der drei genannten Prozesse gerade durchliefen oder abgeschlossen hatten. Für jeden ausgewählten Prozess wird damit in jeder Landeskirche mindestens ein Fall betrachtet. An die ehrenamtlichen Gemeindeleiter der selektierten Gemeinden adressierte Fragebögen geben Aufschluss zu ihren Motivstrukturen. Mittels eine Clusteranalyse werden dabei sechs unterschiedliche Gemeindeleitertypen mit verschiedenen Motiven und Schwerpunkten ermittelt und vorgestellt. Anhand von mit den ehrenamtlichen Vorsitzenden der Gemeinden geführten Interviews werden schließlich die durchlaufenen Entscheidungsprozesse beleuchtet. Auf Basis der Erkenntnisse aus den Interviews und den Fragebögen wird analysiert, wie sich die unterschiedlichen verfügungsrechtlichen Rahmenbedingungen in den drei Landeskirchen auf das Entscheidungsverhalten verschiedener Gemeindeleitertypen und damit auf die Entscheidungsprozesse und -ergebnisse in den Gemeinden auswirken. Dabei werden die zuvor aufgestellten Hypothesen anhand der vornehmlich qualitativen Auswertungen überprüft. Abschließend werden die gewonnenen Erkenntnisse in die Reformdebatte eingeordnet und konkrete organisatorische Gestaltungsvorschläge abgeleitet.
In sechs Primar- und zwei Sekundarschulen wurde eine dreimonatige leistungsmotivationsbezogene Intervention mit Schülerinnen und Schülern in sieben Jahrgangsstufen durchgeführt. Die Intervention umfasste 25,5 Zeitstunden und basierte auf einem Training, welches neben didaktischen Impulsen für Lehrpersonen vor allem die Stärkung der Schülerinnen und Schüler im Hinblick auf Selbstwahrnehmung, Selbstwirksamkeitserwartungen, Kausalattribuierung von Erfolgen bzw. Misserfolgen, soziale Beziehungen und Zielsetzung intendierte. Die beiden zugrundeliegenden Hypothesen der Studie formulieren die Erwartungen, dass nach Abschluss der Intervention erstens die Leistungsmotivation und zweitens auch das Wohlbefinden (Flourishing) der Schülerinnen und Schüler nachhaltig ansteigt. Es fanden Erhebungen zu drei Messzeitpunkten (Pre- und Posttest, Follow-Up sechs Monate nach Beendigung der Intervention) statt. Beide Hypothesen wurden in der empirischen Evaluation (RM-ANOVA) nicht bestätigt. Ergänzende explorative Untersuchungen (t-Tests und Clusteranalysen) zeigten vereinzelte Tendenzen in Richtung der Hypothesen, sind jedoch nicht aussagekräftig. Aufgrund dieser Befunde wurde im Anschluss an die Studie eine qualitative Inhaltsanalyse des schriftlichen Feedbacks der beteiligten Lehrpersonen durchgeführt. Hierbei konnten fünf erfolgskritische Faktoren (Commitment der Lehrpersonen, Anstrengungsgrad, Rolle der Schülerinnen und Schüler, Projektorganisation, sowie Inhalt und Methodik der Intervention) identifiziert werden, deren Beachtung für das Gelingen von positiv-psychologischen Interventionen in Organisationen unerlässlich erscheinen. Die Befunde der qualitativen Inhaltsanalyse führen schließlich zu der Annahme, dass aufgrund fehlender Programmintegrität keine Aussage über die tatsächliche Wirksamkeit des Trainings getroffen werden kann. Die Arbeit endet mit Empfehlungen zur optimalen Gestaltung positiv-psychologischer Interventionen in Bildungsorganisationen.
Das Problem des Wissenstransfers ist in unserer Informationsgesellschaft von besonderer Bedeutung. Da gerade in jüngster Zeit eine enorme Expansion der Wissenschaften zu verzeichnen ist, kommt es mehr und mehr zu einer geradezu explosiven Zunahme von Wissen, die einhergeht mit der Notwendigkeit der Vermittlung dieses Wissens. Auch die oft postulierten Probleme mit der Verständlichkeit von Packungsbeilagen für Fertigarzneimittel stellen kein isoliertes Phänomen dar, sondern sind Teil dieses Wissenstransferprozesses. Bei Packungsbeilagen für Fertigarzneimittel handelt es sich um eine durch nationale Gesetze und neuerdings auch durch europäisches Recht stark konventionalisierte Textsorte, die seit ihrer gesetzlichen Verankerung im Jahr 1978 kontinuierlich in der Diskussion ist. Dabei beschränkt sich die Auseinandersetzung mit der Problematik nicht nur auf Deutschland, sondern ist europa- und weltweit nachzuweisen. Anstrengungen, Packungsbeilagen patientengerecht aufzubereiten, werden unternommen, weil viele Patienten Verständnisprobleme beim Lesen einer Packungsbeilage haben und dann ihr Medikament nicht oder nicht entsprechend der Verordnung einnehmen. Ziel dieser Arbeit ist es zu untersuchen, ob die zurzeit auf dem Markt befindlichen Packungsbeilagen wirklich überarbeitet werden müssten oder ob die Diskussion in dieser Form nicht nachvollziehbar ist. Dabei erfolgt anhand gängiger Kriteria, die sowohl sprachlich-formale als auch inhaltliche Aspekte umfassen, eine ausführliche Untersuchung dreier Packungsbeilagen. Es zeigt sich, dass diese zwar in vielerlei Hinsicht patientengerecht aufbereitet sind, in anderer Hinsicht aber dringend überarbeitet werden müssten. Dieses Ergebnis korreliert mit aktuellen empirischen Untersuchungen zur Verständlichkeit von Packungsbeilagen, die ebenfalls als verbesserungsbedürftig eingestuft werden. Daher bleibt die Forderung nach einem angemessenen Wissenstransfer ein wichtiges Anliegen.
Die Einführung leistungsorientierter Entgeltsysteme stellt Mitarbeiter und Unternehmen vor besondere Herausforderungen. Dabei verändert sich vor allem die Rolle des Mitarbeiters. War er vormals Ausführender der ihm übertragenen Arbeitsaufgaben, wird er zunehmend zum eigenverantwortlichen Gestalter und Mitunternehmer. Im Rahmen einer multiplen Fallstudie wird zunächst der Frage nachgegangen, wie die Mitarbeiter in drei karitativen Einrichtungen die Einführung einer leistungsorientierten Vergütungskomponente erleben. Dazu werden inhaltliche Gestaltungsmerkmale der Entgeltsysteme, Merkmale des Einführungsprozesses und ihre Auswirkungen untersucht. Die Ergebnisse zeigen, dass die Mitarbeiter in allen Einrichtungen dem Aspekt der Finanzierung des variablen Vergütungsanteils eine wesentliche Bedeutung beimessen. Wird dieser Anteil durch die Variabilisierung bisher garantierter, fixer Vergütungsanteile finanziert, entstehen unsichere Gehalts-anteile und es erhöht sich das Risiko von möglichen Gehaltsverlusten. In der Einrichtung mit dem höchsten Entgeltrisiko führte dieser Umstand dazu, dass Mitarbeiter und Vorgesetzte durch informelle Absprachen versucht haben, mögliche Verluste zu vermeiden. Wird der variable Entgeltanteil durch die Einrichtungen mitfinanziert, erhöhen sich hingegen die Chancen auf Einkommensgewinne, was auch zu einer höheren Akzeptanz der neuen Entgeltsysteme beiträgt. Aufbauend auf den Ergebnissen der Fallstudie werden in einer quantitativen Analyse die Auswirkungen eines erhöhten Entgeltrisikos auf die Zufriedenheit der Mitarbeiter mit ihrem variablen Vergütungsanteil (Bonuszufriedenheit) untersucht. Dabei wird das Entgeltrisiko durch drei konzeptuelle Facetten operationalisiert: die Variabilität der Entlohnung, das Ausmaß möglicher Verluste und das Verhältnis von Risiko und Chance (RCV). Entgegen der bisherigen Annahme in der Forschungsliteratur, dass vor allem die Variabilität der Entlohnung ausschlaggebend für die Auswirkungen von Entgeltrisiko ist, zeigen regressionsanalytische Ergebnisse, dass in der Einführungsphase neuer Entgeltsysteme vor allem das RCV einen signifikanten Effekt auf die Bonuszufriedenheit der Mitarbeiter hat. Die Ergebnisse einer multiplen Mediationsanalyse legen nahe, dass der Effekt von RCV auf die Bonuszufriedenheit zum Teil von Einstellungen der distributiven und prozeduralen Gerechtigkeit vermittelt wird. Wei-terführende Analysen ergeben, dass der Zusammenhang zwischen dem RCV und der Bonuszufriedenheit durch zwei moderierende Variablen beeinflusst wird: zum einen durch die partizipative Beteiligung der Mitarbeiter am Einführungsprozess und zum anderen durch die individuelle Präferenz für leistungsorientierte Entlohnung. Vor allem bei hoher partizipativer Beteiligung wirkt sich ein günstiges RCV positiv auf die Bonuszufriedenheit der Mitarbeiter aus. Außerdem sind jene Mitarbeiter unzufriedener mit einem risiko-reichen Entgeltsystem, die eine stark ausgeprägte Präferenz für leistungsorientierte Entlohnung besitzen.
Gegenstand der Dissertation ist die Geschichte und Manifestation des Nationaltheaters in Japan, der Transfer einer europäischen Kulturinstitution nach und deren Umsetzungsprozess in Japan, welcher mit der Modernisierung Japans ab Mitte des 19. Jahrhunderts begann und erst hundert Jahre später mit der Eröffnung des ersten Nationaltheaters 1966 endete. Dazu werden theaterhistorische Entwicklungen, Veränderungen in der Theaterproduktion und -architektur in Bezug auf die Genese eines japanischen Nationaltheaters beleuchtet. Das Ergebnis zeigt, dass sich die Institution Nationaltheater in seiner japanischen kulturellen Translation bzw. Manifestation wesentlich von den vom Land selbst als Model anvisierten Pendants in Europa in Inhalt, Organisations- und Produktionsstruktur unterscheidet. Kulturell übersetzt wurde allein die Hülle der europäischen Institution. Das erste Nationaltheater in Japan manifestiert sich als eine von der Regierung im Rahmen des Denkmalschutzgesetztes initiierte und bestimmte, spezifisch japanische Variante eines Nationaltheaters, die unter dem Management von staatlichen Angestellten und Beamten den Erhalt traditioneller Künste in dafür ausgerichteten Bühnen zur Aufgabe hat. Nationaltheaterensemble gibt es nicht, die Produktionen werden mit Schauspielern kommerzieller Theaterunternehmen realisiert. Der lange Prozess dieser Genese liegt in der nicht vorhandenen Theaterförderung seitens der Regierung und der eher zurückhaltenden Haltung der Theaterwelt gegenüber einem staatlich betriebenen Theater begründet. Das Hüllen-Konzept des ersten Nationaltheaters diente, genau wie dessen Management durch Beamte, als Prototyp für die fünf weiteren bis 2004 eröffneten Nationaltheater in Japan, welche als Spartentheater der spezifisch japanischen Vielfalt an Theaterformen, auch in ihrer Bühnenarchitektur Rechnung tragen.
An indignation control training has been developed and tested for it's effectiveness. The training was based upon a cognitive model of emotions. One's own cognitions in emotional situations are often considered to be "assertorically" true. Therefore it was tested, whether the emotion could be controlled by means of reflecting about one's own assertoric judgements and considering alternative interpretations of the current situation. The cognitive training was compared in terms of effectiveness to a relaxation training. Participants were randomly distributed to the experimental conditions: cognitive training, relaxation training and control group. Six training sessions à 90 min. - one per week- were conducted. Pre- post and follow-up-test after 3 month were undertaken. As dependent variables the following measures were used: Participants reported a personal indignation encounter and indicated their reactions to imaginal situations. Additionally a real provocation was realised. The data analysis was based upon a group of 72 persons. The cognitive training proved to be more effective in reducing indignation compared to the control group. Especially for behavioural measures the cognitive training was also superior compared to the relaxation approach. Taken together for the cognitive training group indignation in the own situation as well as in imaginal situations was reduced. Also perspective taking could be improved as well as destructive reactions in imaginal situations were reduced. After the real provocation less physiological arousal was reported as well as less negative reactions observed. Almost all effects remained stable over the 3 month follow-up period. The results clearly demonstrate the effectiveness of the new method. This new approach is also relevant for psychological interventions: A more precise control of emotion is possible because the training is based upon the specific cognitive components of the emotion. As a consequence, clients on their own are able to question their interpretation of a situation based upon each single cognition.
This study focuses on the representation of British South Asian identities in contemporary British audiovisual media. It attempts to answer the question, whether these identities are represented as hybrid, heterogeneous and ambivalent, or whether these contemporary representations follow in the tradition of colonial and postcolonial racialism. Racialised depictions of British South Asians have been the norm not only in the colonial but also in the postcolonial era until the rise of the Black British movement, whose successes have been also acknowledged in the field of representation. However these achievements have to be scrutinized again, especially in the context of the post 9/11 world, rising Islamophobia, and new forms of institutionalized discrimination on the basis of religion. Since the majority of British Muslims are of South Asian origin, this study tries to answer the question whether the marker of religious origin is racial belonging, i.e. skin colour, and old stereotypes associated with the racialised representation are being perpetuated into current depictions through an examination of the varied genre of popular audio visual media texts.
Die globale Vernetzung, der Flächennutungs- und Klimawandel sind zentrale Aspekte bei der Ursachenanalyse der zunehmenden Homogenisierung von Biozönosen und dem weltweiten Verlust von Biodiversität. Von großer Bedeutung sind dabei Arten, die in sich ein weiträumiges Verbreitungspotential mit einem hohen ökologischen, zum Teil in Verbindung mit einem hohen ökonomischen, Schadpotential vereinen " so genannte invasive Arten. Aufgrund ihrer Eigenschaften bilden sie einen wichtigen Schnittpunkt von Ökologie, Ökonomie und Soziologie in Theorie und Praxis. Im Zuge der steigenden Anzahl von biologischen Invasionen weltweit und dem interessanten, interdisziplinären Charakter des Forschungsfeldes, ist dessen Analyse ein bedeutendes Top-Thema internationaler Forschung geworden. Die durch invasive Arten verursachten Schäden sind enorm: So werden die jährlichen Schäden für die USA, Südafrika, das Vereinigte Königreich, Brasilien und Indien auf insgesamt 336 Milliarden US Dollar geschätzt. Nach einem Bericht der EU Kommissionrnbeläuft sich für die Europäische Union die Summe aller Schäden die durch invasive Arten verursacht werden auf jährlich 12 Mrd. Euro. Folglich stellen invasive Arten zugleich einen zunehmend wichtigeren, rechtlichen Regelungsgegenstand auf den unterschiedlichsten Ebenen (international, europäisch, national) dar. In dieser Dissertation wird die Bedeutung von Verbreitungsmodellen als Analyseund Präventions-Instrument in der naturschutzfachlichen Risikoabschätzung verdeutlicht. Ferner wird die Einsatzmöglichkeit von Modellen für die rechtliche Einstufung von Arten und als Ermessensgrundlage bei der Bewilligung von Kostenersatzansprüchen nach entstandenen Schäden aufgezeigt. Zwei ökonomisch bedeutsame Käferarten wurden zur Veranschaulichung als Modellorganismen ausgewählt: Der für die biologische Schädlingsbekämpfung absichtlich eingeführte Asiatische Marienkäfer Harmonia axyridis und der vorwiegend mit Holzverpackungsmaterialien global verschleppte AsiatischernLaubholzbockkäfer Anoplophora glabripennis. Beide Organismen sind in der EU alsrngebietsfremde Arten mit einem hohen Schadpotential einzustufen, haben jedoch einen sehr unterschiedlichen rechtlichen Status inne. Harmonia axyridis wird in Europa kommerziell vermarktet und darf in Deutschland mit Genehmigungsvorbehalt im Freiland ausgebracht werden, wohingegen Anoplophora glabripennis in der EU als zu bekämpfender Quarantäneschadorganismus geführt wird. Für beide Insekten gibt es derzeit keinen praktikablen Rechtsanspruch auf Schadenshaftung bzw. Entschädigungen. Neben der Erstellung von Verbreitungsmodellen nach naturwissenschaftlichen Kriterien, wird dieser Tatbestand erörtert und entsprechende Verbesserungsansätze für die Normsetzung und -anwendung präsentiert.
Evapotranspiration (ET) is one of the most important variables in hydrological studies. In the ET process, energy exchange and water transfer are involved. ET consists of transpiration and evaporation. The amount of plants transpiration dominates in ET. Especially in the forest regions, the ratio of transpiration to ET is in general 80-90 %. Meteorological variables, vegetation properties, precipitation and soil moisture are critical influence factors for ET generation. The study area is located in the forest area of Nahe catchment (Rhineland-Palatinate, Germany). The Nahe catchment is highly wooded. About 54.6 % of this area is covered by forest, with deciduous forest and coniferous forest are two primary types. A hydrological model, WaSiM-ETH, was employed for a long-term simulation from 1971-2003 in the Nahe catchment. In WaSiM-ETH, the potential evapotranspiration (ETP) was firstly calculated by the Penman-Monteith equation, and subsequently reduced according to the soil water content to obtain the actual evapotranspiration (ETA). The Penman-Monteith equation has been widely used and recommended for ETP estimation. The difficulties in applying this equation are the high demand of ground-measured meteorological data and the determination of surface resistance. A method combined remote sensing images with ground-measured meteorological data was also used to retrieve the ETA. This method is based on the surface properties such as surface albedo, fractional vegetation cover (FVC) and land surface temperature (LST) to obtain the latent heat flux (LE, corresponding to ETA) through the surface energy balance equation. LST is a critical variable for surface energy components estimation. It was retrieved from the TM/ETM+ thermal infrared (TIR) band. Due to the high-quality and cloudy-free requirements for TM/ETM+ data selection as well as the overlapping cycle of TM/ETM+ sensor is 16 days, images on only five dates are available during 1971-2003 (model ran) " May 15, 2000, July 05, 2001, July 19, August 04 and September 21 in 2003. It is found that the climate conditions of 2000, 2001 and 2003 are wet, medium wet and dry, respectively. Therefore, the remote sensing-retrieved observations are noncontinuous in a limited number over time but contain multiple climate conditions. Aerodynamic resistance and surface resistance are two most important parameters in the Penman-Monteith equation. However, for forest area, the aerodynamic resistance is calculated by a function of wind speed in the model. Since transpiration and evaporation are separately calculated by the Penman-Monteith equation in the model, the surface resistance was divided into canopy surface resistance rsc and soil surface resistance rse. rsc is related to the plants transpiration and rse is related to the bare soil evaporation. The interception evaporation was not taken into account due to its negligible contribution to ET rate under a dry-canopy (no rainfall) condition. Based on the remote sensing-retrieved observations, rsc and rse were calibrated in the WaSiM-ETH model for both forest types: for deciduous forest, rsc = 150 sm−1, rse = 250 sm−1; for coniferous forest, rsc = 300 sm−1, rse = 650 sm−1. We also carried out sensitivity analysis on rsc and rse. The appropriate value ranges of rsc and rse were determined as (annual maximum): for deciduous forest, [100,225] sm−1 for rsc and [50,450] sm−1 for rse; for coniferous forest, [225,375] sm−1 for rsc and [350,1200] sm−1 for rse. Due to the features of the observations that are in a limited number but contain multiple climate conditions, the statistical indices for model performance evaluation are required to be sensitive to extreme values. In this study, boxplots were found to well exhibit the model performance at both spatial and temporal scale. Nush-Sutcliffe efficiency (NSE), RMSE-observations standard deviation ratio (RSR), percent bias (PBIAS), mean bias error (MBE), mean variance of error distribution (S2d), index of agreement (d), root mean square error (RMSE) were found as appropriate statistical indices to provide additional evaluation information to the boxplots. The model performance can be judged as satisfactory if NSE > 0.5, RSR ≤ 0.7, PBIAS < -±12, MBE < -±0.45, S2d < 1.11, d > 0.79, RMSE < 0.97. rsc played a more important role than rse in ETP and ETA estimation by the Penman-Monteith equation, which is attributed to the fact that transpiration dominates in ET. The ETP estimation was found the most correlated to the relative humidity (RH), followed by air temperature (T), relative sunshine duration (SSD) and wind speed (WS). Under wet or medium wet climate conditions, ETA estimation was found the most correlated to T, followed by RH, SSD and WS. Under a water-stress condition, there were very small correlations between ETA and each meteorological variable.
In Deutschland fallen bei der Wasseraufbereitung, der Verarbeitung von Gesteinen, Recyclingprozessen und in der Industrie etliche mineralische Zwangs-, Koppel-, Neben- oder Abfallprodukte an, die aufgrund ihrer Inhaltsstoffe als Puffersubstanzen oder Nährstofflieferanten im Wald eingesetzt werden könnten. In diesem Projekt wurde die Wirksamkeit und Ökosystemverträglichkeit von Mischungen potentieller Sekundärrohstoffe in Gefäßversuchen, Lysimeterversuchen, Freilandversuchen, Perkolationsversuchen und Keim- und Wachstumsversuchen untersucht. Die Mischungen bestehen aus Enthärterkalk und Magnesitstaub. Eingesetzte Enthärterkalke waren zwei Reaktorkornvarianten und ein Enthärterschlamm, dem zur besseren Händelbarkeit und als Kaliumquelle Bimsmehl bzw. Perlitstaub beigemischt wurde. Zur Anregung der biologischen Aktivität mit Phosphor wurden zwei Enthärterschlammmischungen mit Tiermehlasche aus der Monoverbrennung von Tierkörpermehl versetzt. Als Puffersubstanzen oder Nährstofflieferanten bewährten sich die Reaktorkörner, Magnesitstaub und Bimsmehl. Die Reaktorkornkalke wirken ähnlich dem herkömmlich eingesetzten Dolomit mit hoher oberflächennaher Säurepufferkapazität, verbesserter Basensättigung des Mineralbodens, Reduktion der Schwermetallmobilität und Aluminiumbelegung an den Austauscher sowie Erhöhung der Stickstoffspeicherkapazität. Unter dem Einfluss von Magnesitstaubs erhöhte sich der Magnesiumgehalt der Bodenlösung bis in den Hauptwurzelraum und Magnesiummangel in Pflanzen wurde signifikant behoben. Pflanzenvitalitätskennwerte verbesserten sich deutlich. Der Kaliumgehalt der Bodenlösung verbesserte sich bei Perlitstaub und Bimsmehl, in den Pflanzen nur bei Bimsmehl. Unter Einfluss der Tiermehlasche erhöhte sich weder der Gehalt der Bodenlösung noch die biologische Aktivität. Der enthaltene Phosphor liegt als schwerlösliches Hydroxylapatit vor, leichter lösliches Phosphat wurde als Calciumphosphat festgelegt. Durch geringe Anteile von Kalkmilch im Enthärterschlamm wurden initiale Nitrat- und Protonenschübe initiiert, die in stickstoffgesättigten Systemen problematisch werden können. Auf der Basis der Untersuchungsergebnisse wurden die positiv bewerteten Sekundärrohstoffe in die 2003 neugefasste Düngemittelverordnung aufgenommen.
The glucocorticoid (GC) cortisol, main mediator of the hypothalamic-pituitary-adrenal axis, has many implications in metabolism, stress response and the immune system. GC function is mediated mainly via the glucocorticoid receptor (GR) which binds as a transcription factor to glucocorticoid response elements (GREs). GCs are strong immunosuppressants and used to treat inflammatory and autoimmune diseases. Long-term usage can lead to several irreversible side effects which make improved understanding indispensable and warrant the adaptation of current drugs. Several large scale gene expression studies have been performed to gain insight into GC signalling. Nevertheless, studies at the proteomic level have not yet been made. The effects of cortisol on monocytes and macrophages were studied in the THP-1 cell line using 2D fluorescence difference gel electrophoresis (2D DIGE) combined with MALDI-TOF mass spectrometry. More than 50 cortisol-modulated proteins were identified which belonged to five functional groups: cytoskeleton, chaperones, immune response, metabolism, and transcription/translation. Multiple GREs were found in the promoters of their corresponding genes (+10 kb/-0.2 kb promoter regions including all alternative promoters available within the Database for Transcription Start Sites (DBTSS)). High quality GREs were observed mainly in cortisol modulated genes, corroborating the proteomics results. Differential regulation of selected immune response related proteins were confirmed by qPCR and immuno-blotting. All immune response related proteins (MX1, IFIT3, SYWC, STAT3, PMSE2, PRS7) which were induced by LPS were suppressed by cortisol and belong mainly to classical interferon target genes. Mx1 has been selected for detailed expression analysis since new isoforms have been identified by proteomics. FKBP51, known to be induced by cortisol, was identified as the strongest differentially expressed protein and contained the highest number of strict GREs. Genomic analysis of five alternative FKBP5 promoter regions suggested GC inducibility of all transcripts. 2D DIGE combined with 2D immunoblotting revealed the existence of several previously unknown FKBP51 isoforms, possibly resulting from these transcripts. Additionally multiple post-translational modifications were found, which could lead to different subcellular localization in monocytes and macrophages as seen by confocal microscopy. Similar results were obtained for the different cellular subsets of human peripheral blood mononuclear cells (PBMCs). FKBP51 was found to be constitutively phosphorylated with up to 8 phosphosites in CD19+ B lymphocytes. Differential Co-immunoprecipitation for cytoplasm and nucleus allowed us to identify new potential interaction partners. Nuclear FKBP51 was found to interact with myosin 9, whereas cytosolic FKBP51 with TRIM21 (synonym: Ro52, Sjögren`s syndrome antigen). The GR has been found to interact with THOC4 and YB1, two proteins implicated in mRNA processing and transcriptional regulation. We also applied proteomics to study rapid non-genomic effects of acute stress in a rat model. The nuclear proteome of the thymus was investigated after 15 min restraint stress and compared to the non-stressed control. Most of the identified proteins were transcriptional regulators found to be enriched in the nucleus probably to assist gene expression in an appropriate manner. The proteomic approach allowed us to further understand the cortisol mediated response in monocytes/macrophages. We identified several new target proteins, but we also found new protein variants and post-translational modifications which need further investigation. Detailed study of FKBP51 and GR indicated a complex regulation network which opened a new field of research. We identified new variants of the anti-viral response protein MX1, displaying differential expression and phosphorylation in the cellular compartments. Further, proteomics allowed us to follow the very early effects of acute stress, which happen prior to gene expression. The nuclear thymocyte proteome of restraint stressed rats revealed an active preparation for subsequent gene expression. Proteomics was successfully applied to study differential protein expression, to identify new protein variants and phosphorylation events as well as to follow translocation. New aspects for future research in the field of cortisol-mediated immune modulation have been added.
This work addresses the algorithmic tractability of hard combinatorial problems. Basically, we are considering \NP-hard problems. For those problems we can not find a polynomial time algorithm. Several algorithmic approaches already exist which deal with this dilemma. Among them we find (randomized) approximation algorithms and heuristics. Even though in practice they often work in reasonable time they usually do not return an optimal solution. If we constrain optimality then there are only two methods which suffice for this purpose: exponential time algorithms and parameterized algorithms. In the first approach we seek to design algorithms consuming exponentially many steps who are more clever than some trivial algorithm (who simply enumerates all solution candidates). Typically, the naive enumerative approach yields an algorithm with run time $\Oh^*(2^n)$. So, the general task is to construct algorithms obeying a run time of the form $\Oh^*(c^n)$ where $c<2$. The second approach considers an additional parameter $k$ besides the input size $n$. This parameter should provide more information about the problem and cover a typical characteristic. The standard parameterization is to see $k$ as an upper (lower, resp.) bound on the solution size in case of a minimization (maximization, resp.) problem. Then a parameterized algorithm should solve the problem in time $f(k)\cdot n^\beta$ where $\beta$ is a constant and $f$ is independent of $n$. In principle this method aims to restrict the combinatorial difficulty of the problem to the parameter $k$ (if possible). The basic hypothesis is that $k$ is small with respect to the overall input size. In both fields a frequent standard technique is the design of branching algorithms. These algorithms solve the problem by traversing the solution space in a clever way. They frequently select an entity of the input and create two new subproblems, one where this entity is considered as part of the future solution and another one where it is excluded from it. Then in both cases by fixing this entity possibly other entities will be fixed. If so then the traversed number of possible solution is smaller than the whole solution space. The visited solutions can be arranged like a search tree. To estimate the run time of such algorithms there is need for a method to obtain tight upper bounds on the size of the search trees. In the field of exponential time algorithms a powerful technique called Measure&Conquer has been developed for this purpose. It has been applied successfully to many problems, especially to problems where other algorithmic attacks could not break the trivial run time upper bound. On the other hand in the field of parameterized algorithms Measure&Conquer is almost not known. This piece of work will present examples where this technique can be used in this field. It also will point out what differences have to be made in order to successfully apply the technique. Further, exponential time algorithms for hard problems where Measure&Conquer is applied are presented. Another aspect is that a formalization (and generalization) of the notion of a search tree is given. It is shown that for certain problems such a formalization is extremely useful.
Vor dem Hintergrund eines fachlichen und gesellschaftlichen Interesses an psychologischen Forschungsthemen wurde der Einsatz von Topic Modeling zu deren automatisierten und validen Identifikation erprobt und mit einem traditionellen Ansatz verglichen, der auf Klassifikationskategorien von Fachdatenbanken beruht. Kern der Arbeit sind drei Studien mit unterschiedlichen Anwendungsszenarien: (1) Die Ermittlung psychologischer Brennpunktthemen, (2) das Verhältnis zwischen gesellschaftlichen Herausforderungen und Themen der psychologischen Fachliteratur sowie (3) die Forschungsinteressen von Psychologinnen und Psychologen. In jeder dieser Studien wurden sukzessive neue methodische Schwerpunkte gesetzt. Die Erkenntnisse daraus flossen in die Entwicklung einer nutzerfreundlichen App zur Exploration und Analyse von psychologischen Forschungsthemen ein. Im Vergleich mit dem klassifikationsbasierten Ansatz erwies sich Topic Modeling als Methode der Wahl zur automatisierten und differenzierten Identifikation psychologischer Forschungsthemen. Zur externen Validierung der Themeninhalte stellte sich ein Klassifikationssystem für psychologische Fachliteratur jedoch als geeignet heraus. Einschränkungen, Implikationen für weitere Forschung sowie Folgerungen für die Weiterentwicklung digitaler Produkte von forschungsbasierten Infrastruktureinrichtungen in der Psychologie werden diskutiert. Abschließend wird eine Entscheidungsheuristik zur Auswahl geeigneter Topic-Modeling-Varianten im Kontext von Forschungsthemen vorgelegt.
Attitudes are "the most distinctive and indispensable concept in contemporary social psychology" (Allport, 1935, p. 798). This outstanding position of the attitude concept in social cognitive research is not only reflected in the innumerous studies focusing on this concept but also in the huge number of theoretical approaches that have been put forth since then. Yet, it is still an open question, what attitudes actually are. That is, the question of how attitude objects are represented in memory cannot be unequivocally answered until now (e.g., Barsalou, 1999; Gawronski, 2007; Pratkanis, 1989, Chapter 4). In particular, researchers strongly differ with respect to their assumptions on the content, format and structural nature of attitude representations (Ferguson & Fukukura, 2012). This prevailing uncertainty on what actually constitutes our likes and dislikes is strongly dovetailed with the question of which processes result in the formation of these representations. In recent years, this issue has mainly been addressed in evaluative conditioning research (EC). In a standard EC-paradigm a neutral stimulus (conditioned stimulus, CS) is repeatedly paired with an affective stimulus (unconditioned stimulus, US). The pairing of stimuli then typically results in changes in the evaluation of the CS corresponding to the evaluative response of the US (De Houwer, Baeyens, & Field, 2005). This experimental approach on the formation of attitudes has primarily been concerned with the question of how the representations underlying our attitudes are formed. However, which processes operate on the formation of such an attitude representation is not yet understood (Jones, Olson, & Fazio, 2010; Walther, Nagengast, & Trasselli, 2005). Indeed, there are several ideas on how CS-US pairs might be encoded in memory. Notwithstanding the importance of these theoretical ideas, looking at the existing empirical work within the research area of EC (for reviews see Hofmann, De Houwer, Perugini, Baeyens, & Crombez, 2010; De Houwer, Thomas, & Baeyens, 2001) leaves one with the impression that scientists have skipped the basic processes. Basic processes hereby especially refer to the attentional processes being involved in the encoding of CSs and USs as well as the relation between them. Against the background of this huge gap in current research on attitude formation, the focus of this thesis will be to highlight the contribution of selective attention processes to a better understanding of the representation underlying our likes and dislikes. In particular, the present thesis considers the role of selective attention processes for the solution of the representation issue from three different perspectives. Before illustrating these different perspectives, Chapter 1 is meant to envision the omnipresence of the representation problem in current theoretical as well as empirical work on evaluative conditioning. Likewise, it emphasizes the critical role of selective attention processes for the representation question in classical conditioning and how this knowledge might be used to put forth the uniqueness of evaluative conditioning as compared to classical conditioning. Chapter 2 then considers the differential influence of attentional resources and goal-directed attention on attitude learning. The primary objective of the presented experiment was thereby to investigate whether attentional resources and goal-directed attention exert their influence on EC via changes in the encoding of CS-US relations in memory (i.e., contingency memory). Taking the findings from this experiment into account, Chapter 3 focuses on the selective processing of the US relative to the CS. In particular, the two experiments presented in this chapter were meant to explore the moderating influence of the selective processing of the US in its relation to the CS on EC. In Chapter 4 the important role of the encoding of the US in relation to the CS, as outlined in Chapter 3, is illuminated in the context of different retrieval processes. Against the background of the findings from the two presented experiments, the interplay between the encoding of CS-US contingencies and the moderation of EC via different retrieval processes will be discussed. Finally, a general discussion of the findings, their theoretical implications and future research lines will be outlined in Chapter 5.
The present thesis is devoted to a construction which defies generalisations about the prototypical English noun phrase (NP) to such an extent that it has been termed the Big Mess Construction (Berman 1974). As illustrated by the examples in (1) and (2), the NPs under study involve premodifying adjective phrases (APs) which precede the determiner (always realised in the form of the indefinite article a(n)) rather than following it.
(1) NoS had not been hijacked – that was too strong a word. (BNC: CHU 1766)
(2) He was prepared for a battle if the porter turned out to be as difficult a customer as his wife. (BNC: CJX 1755)
Previous research on the construction is largely limited to contributions from the realms of theoretical syntax and a number of cursory accounts in reference grammars. No comprehensive investigation of its realisations and uses has as yet been conducted. My thesis fills this gap by means of an exhaustive analysis of the construction on the basis of authentic language data retrieved from the British National Corpus (BNC). The corpus-based approach allows me to examine not only the possible but also the most typical uses of the construction. Moreover, while previous work has almost exclusively focused on the formal realisations of the construction, I investigate both its forms and functions.
It is demonstrated that, while the construction is remarkably flexible as concerns its possible realisations, its use is governed by probabilistic constraints. For example, some items occur much more frequently inside the degree item slot than others (as, too and so stand out for their particularly high frequency). Contrary to what is assumed in most previous descriptions, the slot is not restricted in its realisation to a fixed number of items. Rather than representing a specialised structure, the construction is furthermore shown to be distributed over a wide range of possible text types and syntactic functions. On the other hand, it is found to be much less typical of spontaneous conversation than of written language; Big Mess NPs further display a strong preference for the function of subject complement. Investigations of the internal structural complexity of the construction indicate that its obligatory components can optionally be enriched by a remarkably wide range of optional (if infrequent) elements. In an additional analysis of the realisations of the obligatory but lexically variable slots (head noun and head of AP), the construction is highlighted to represent a productive pattern. With the help of the methods of Collexeme Analysis (Stefanowitsch and Gries 2003) and Co-varying Collexeme Analysis (Gries and Stefanowitsch 2004b, Stefanowitsch and Gries 2005), the two slots are, however, revealed to be strongly associated with general nouns and ‘evaluative’ and ‘dimension’ adjectives, respectively. On the basis of an inspection of the most typical adjective-noun combinations, I identify the prototypical semantics of the Big Mess Construction.
The analyses of the constructional functions centre on two distinct functional areas. First, I investigate Bolinger’s (1972) hypothesis that the construction fulfils functions in line with the Principle of Rhythmic Alternation (e.g. Selkirk 1984: 11, Schlüter 2005). It is established that rhythmic preferences co-determine the use of the construction to some extent, but that they clearly do not suffice to explain the phenomenon under study. In a next step, the discourse-pragmatic functions of the construction are scrutinised. Big Mess NPs are demonstrated to perform distinct information-structural functions in that the non-canonical position of the AP serves to highlight focal information (compare De Mönnink 2000: 134-35). Additionally, the construction is shown to place emphasis on acts of evaluation. I conclude the construction to represent a contrastive focus construction.
My investigations of the formal and functional characteristics of Big Mess NPs each include analyses which compare individual versions of the construction to one another (e.g. the As Big a Mess, Too Big a Mess and So Big a Mess Constructions). It is revealed that the versions are united by a shared core of properties while differing from one another at more abstract levels of description. The question of the status of the constructional versions as separate constructions further receives special emphasis as part of a discussion in which I integrate my results into the framework of usage-based Construction Grammar (e.g. Goldberg 1995, 2006).
Diese Arbeit konzentriert sich auf die Darstellung gemeinsamer Projekte von Hotelunternehmen und Hochschulen mit hotelspezifischen Studienangeboten. Infolge der demografischen Entwicklungen sowie des Wertewandels gewinnen Personalgewinnung und Mitarbeiterloyalisierung zunehmend an Bedeutung und werden zu einem Wettbewerbsparameter der Hotellerie. Für diese essentielle Herausforderung sind Hotelbetriebe mit engagierter Mitarbeiterförderung gefragt. Viele Hochschulen haben neue Studiengänge im Tourismus, Event- oder Hotelmanagementbereich praxisorientiert aufgelegt, um der Skepsis der Hotellerie entgegen zu wirken und um zugleich den Erwartungen der Studenten gerecht zu werden. Viele der Studenten wären potenzielle Auszubildende, die sich bei der Abwägung allerdings für die Studienoption entschieden haben. Daher ist es wichtig, in enger Kooperation mit den hierzu passenden Institutionen und Bildungsträgern, vor allem praxisnahe Studienmodelle für sich verändernde Erwartungen der Bewerber mit modernen Lehrinhalten zu entwickeln und erfolgreich am Markt zu platzieren. Daher verfolgt diese Arbeit den Ansatz, adäquate Kriterien und Faktoren für den Erfolg vertraglich vereinbarter Kooperationen zwischen Hotelketten und Hochschulen zu analysieren und daraus Handlungsempfehlungen abzuleiten. Die große Anzahl an Kooperationen macht deutlich, dass die Notwendigkeit für die Hotellerie, sich im Bereich der Mitarbeitergewinnung, -bindung und -entwicklung mit akademischen Partnern zusammen zu schließen, bei einer ansteigenden Zahl von Hotelgruppen nachvollzogen wird. Durch die zurückhaltende Vermarktung vieler Kooperationsmodelle ist deren Bekanntheit jedoch begrenzt und dadurch auch deren positive Auswirkungen auf das Image der Hotellerie. Gleichwohl sind in der Bildungslandschaft steigende Studentenzahlen und eine Vermehrung der Studiengänge bei gleichzeitig gravierender Abnahme der Zahl berufsfachlich Ausgebildeter erkennbar. Die Kooperationsmodelle sind daher ein sinnvolles Instrument, um auf diese Marktentwicklungen zu reagieren, wobei ihre Bedeutung primär von Unternehmen mit strategischer Personalpolitik erkannt wird. Daraus wurde die "Typologie privilegierter Bildungspartnerschaften" mit einer Bandbreite von zehn Kooperationstypen entwickelt. Damit werden unterschiedliche Intensitäten der partnerschaftlichen Bildungselemente ebenso deutlich wie ein individualisiertes "Faktoren-Phasenmodell", dass die Prozessstruktur der Kooperationsentwicklung abbildet. Je nach Enge der Zusammenarbeit, nach Unternehmens- und Hochschulphilosophie und entsprechend der Erfahrungen mit Kooperationen entstehen vor allem Verpflichtungen und Herausforderungen in der aktiven Gestaltung und verlässlichen Kommunikation in einem Kooperationsmodell. Eine Schlüsselrolle nimmt der persönlich verantwortliche Koordinator ein, der als Garant für eine effiziente Organisation und Professionalität angesehen wird. Daraus ableitend sind die Erfolgsfaktoren im ASP-Modell herausgefiltert worden: Attraktivität, Sicherheit und Persönlichkeit machen den Erfolg einer privilegierten Bildungspartnerschaft aus. Bestätigt wurde zudem, dass die Erfahrung der beiden Partner einer Kooperation zueinander passen muss und eine klare Zielvereinbarung mit Fixierung der Pflichten und Aufgaben erforderlich ist. Ein hoher Qualitätsanspruch, Transparenz und Prozesseffizienz ergänzen dies und machen deutlich, dass der Bildungsbereich als Teil der Personalpolitik eines Unternehmens sensibel und anspruchsvoll zugleich ist. Die Verankerung auf der Führungsebene eines Unternehmens ist entscheidend, um durch ein Signal nach innen und außen den Stellenwert einer Bildungsallianz zu verdeutlichen. Wenn aus Lernen und Wissen wirtschaftliche Vorteile erarbeitet werden können, wird Bildung noch mehr als Markenkern eines guten Arbeitgebers interpretiert. Auf dieser Grundlage wird der Gedanke der Personalentwicklung durch den Ansatz fortwährender Mitarbeiterbildung perfektioniert und der Lösungsansatz einer "privilegierten Bildungspartnerschaft" legt den Grundstein dafür. Nachwuchskräfteförderung wird zum strategischen Mittel der Mitarbeiterbindung und zur Vermeidung kostenintensiver Vakanzen, zudem sichern Netzwerke Fachwissen und stärken das Unternehmensimage. Mit privilegierten Bildungspartnerschaften werden geeignete Modelle vorgestellt, um einsatzfreudige Mitarbeiter zu halten und sie gleichzeitig auf den nächsten Karriereschritt vorzubereiten. Die vorliegende Ausarbeitung liefert einen Diskussionsbeitrag zum besseren gegenseitigen Verständnis einer Symbiose aus Hotelkette und Hochschule im Bildungsbereich sowie erfolgreiche Konzeptideen für vielfältige Netzwerkstrukturen.
Mankind has dramatically influenced the nitrogen (N) fluxes between soil, vegetation, water and atmosphere " the global N cycle. Increasing intensification of agricultural land use, caused by the growing demand for agricultural products, has had major impacts on ecosystems worldwide. Particularly nitrogenous gases such as ammonia (NH3) have increased mainly due to industrial livestock farming. Countries with high N deposition rates require a variety of deposition measurements and effective N monitoring networks to assess N loads. Due to high costs, current "conventional"-deposition measurement stations are not widespread and therefore provide only a patchy picture of the real extent of the prevailing N deposition status over large areas. One tool that allows quantification of the exposure and the effects of atmospheric N impacts on an ecosystem is the use of bioindicators. Due to their specific physiology and ecology, especially lichens and mosses are suitable to reflect the atmospheric N input at ecosystem level. The present doctoral project began by investigating the general ability of epiphytic lichens to qualify and quantify N deposition by analysing both lichens and total N and δ15N along a gradient of different N emission sources and severity. The results showed that this was a viable monitoring method, and a grid-based monitoring system with nitrophytic lichens was set up in the western part of Germany. Finally, a critical appraisal of three different monitoring techniques (lichens, mosses and tree bark) was carried out to compare them with national relevant N deposition assessment programmes. In total 1057 lichen samples, 348 tree bark samples, 153 moss samples and 24 deposition water samples, were analysed in this dissertation at different investigation scales in Germany.The study identified species-specific ability and tolerance of various epiphytic lichens to accumulate N. Samples of tree bark were also collected and N accumulation ability was detected in connection with the increased intensity of agriculture, and according to the presence of reduced N compounds (NHx) in the atmosphere. Nitrophytic lichens (Xanthoria parietina, Physcia spp.) have the strongest correlations with high agriculture-related N deposition. In addition, the main N sources were revealed with the help of δ15N values along a gradient of altitude and areas affected by different types of land use (NH3 density classes, livestock units and various deposition types). Furthermore, in the first nationwide survey of Germany to compare lichens, mosses and tree bark samples as biomonitors for N deposition, it was revealed that lichens are clearly the most meaningful monitor organisms in highly N affected regions. Additionally, the study shows that dealing with different biomonitors is a difficult task due to their variety of N responses. The specific receptor surfaces of the indicators and therefore their different strategies of N uptake are responsible for the tissue N concentration of each organism group. It was also shown that the δ15N values depend on their N origin and the specific N transformations in each organism system, so that a direct comparison between atmosphere and ecosystems is not possible.In conclusion, biomonitors, and especially epiphytic lichens may serve as possible alternatives to get a spatially representative picture of the N deposition conditions. Furthermore, bioindication with lichens is a cost-efficient alternative to physico-chemical measurements to comprehensively assess different prevailing N doses and sources of N pools on a regional scale. They can at least support on-site deposition instruments by qualification and quantification of N deposition.
N-acetylation by N-acetyltransferase 1 (NAT1) is an important biotransformation pathway of the human skin and it is involved in the deactivation of the arylamine and well-known contact allergen para-phenylenediamine (PPD). Here, NAT1 expression and activity were analyzed in antigen presenting cells (monocyte-derived dendritic cells, MoDCs, a model for epidermal Langerhans cells) and human keratinocytes. The latter were used to study exogenous and endogenous NAT1 activity modulations. Within this thesis, MoDCs were found to express metabolically active NAT1. Activities were between 23.4 and 26.6 nmol/mg/min and thus comparable to peripheral blood mononuclear cells. These data suggest that epidermal Langerhans cells contribute to the cutaneous N-acetylation capacity. Keratinocytes, which are known for their efficient N-acetylation, were analyzed in a comparative study using primary keratinocytes (NHEK) and different shipments of the immortalized keratinocyte cell line HaCaT, in order to investigate the ability of the cell line to model epidermal biotransformation. N-acetylation of the substrate para-aminobenzoic acid (PABA) was 3.4-fold higher in HaCaT compared to NHEK and varied between the HaCaT shipments (range 12.0"44.5 nmol/mg/min). Since B[a]P induced cytochrome p450 1 (CYP1) activities were also higher in HaCaT compared to NHEK, the cell line can be considered as an in vitro tool to qualitatively model epidermal metabolism, regarding NAT1 and CYP1. The HaCaT shipment with the highest NAT1 activity showed only minimal reduction of cell viability after treatment with PPD and was subsequently used to study interactions between NAT1 and PPD in keratinocytes. Treatment with PPD induced expression of cyclooxygenases (COX) in HaCaT, but in parallel, PPD N-acetylation was found to saturate with increasing PPD concentration. This saturation explains the presence of the PPD induced COX induction despite the high N-acetylation capacities. A detailed analysis of the effect of PPD on NAT1 revealed that the saturation of PPD N-acetylation was caused by a PPD-induced decrease of NAT1 activity. This inhibition was found in HaCaT as well as in primary keratinocytes after treatment with PPD and PABA. Regarding the mechanism, reduced NAT1 protein level and unaffected NAT1 mRNA expression after PPD treatment adduced clear evidences for substrate-dependent NAT1 downregulation. These results expand the existing knowledge about substrate-dependent NAT1 downregulation to human epithelial skin cells and demonstrate that NAT1 activity in keratinocytes can be modulated by exogenous factors. Further analysis of HaCaT cells from different shipments revealed an accelerated progression through the cell cycle in HaCaT cells with high NAT1 activities. These findings suggest an association between NAT1 and proliferation in keratinocytes as it has been proposed earlier for tumor cells. In conclusion, N-acetylation capacity of MoDCs as well as keratinocytes contribute to the overall N-acetylation capacity of human skin. NAT1 activity of keratinocytes and consequently the detoxification capacities of human skin can be modulated by the presence of exogenous NAT1 substrates and endogenous by the cell proliferation status of keratinocytes.
Traumabewältigung
(2004)
Let K be a compact subset of the complex plane. Then the family of polynomials P is dense in A(K), the space of all continuous functions on K that are holomorphic on the interior of K, endowed with the uniform norm, if and only if the complement of K is connected. This is the statement of Mergelyan's celebrated theorem.
There are, however, situations where not all polynomials are required to approximate every f ϵ A(K) but where there are strict subspaces of P that are still dense in A(K). If, for example, K is a singleton, then the subspace of all constant polynomials is dense in A(K). On the other hand, if 0 is an interior point of K, then no strict subspace of P can be dense in A(K).
In between these extreme cases, the situation is much more complicated. It turns out that it is mostly determined by the geometry of K and its location in the complex plane which subspaces of P are dense in A(K). In Chapter 1, we give an overview of the known results.
Our first main theorem, which we will give in Chapter 3, deals with the case where the origin is not an interior point of K. We will show that if K is a compact set with connected complement and if 0 is not an interior point of K, then any subspace Q ⊂ P which contains the constant functions and all but finitely many monomials is dense in A(K).
There is a close connection between lacunary approximation and the theory of universality. At the end of Chapter 3, we will illustrate this connection by applying the above result to prove the existence of certain universal power series. To be specific, if K is a compact set with connected complement, if 0 is a boundary point of K and if A_0(K) denotes the subspace of A(K) of those functions that satisfy f(0) = 0, then there exists an A_0(K)-universal formal power series s, where A_0(K)-universal means that the family of partial sums of s forms a dense subset of A_0(K).
In addition, we will show that no formal power series is simultaneously universal for all such K.
The condition on the subspace Q in the main result of Chapter 3 is quite restrictive, but this should not be too surprising: The result applies to the largest possible class of compact sets.
In Chapter 4, we impose a further restriction on the compact sets under consideration, and this will allow us to weaken the condition on the subspace Q. The result that we are going to give is similar to one of those presented in the first chapter, namely the one due to Anderson. In his article “Müntz-Szasz type approximation and the angular growth of lacunary integral functions”, he gives a criterion for a subspace Q of P to be dense in A(K) where K is entirely contained in some closed sector with vertex at the origin.
We will consider compact sets with connected complement that are -- with the possible exception of the origin -- entirely contained in some open sector with vertex at the origin. What we are going to show is that if K\{0} is contained in an open sector of opening angle 2α and if Λ is some subset of the nonnegative integers, then the span of {z → z^λ : λ ϵ Λ} is dense in A(K) whenever 0 ϵ Λ and some Müntz-type condition is satisfied.
Conversely, we will show that if a similar condition is not satisfied, then we can always find a compact set K with connected complement such that K\{0} is contained in some open sector of opening angle 2α and such that the span of {z → z^λ : λ ϵ Λ} fails to be dense in A(K).
Kunstgeographie versucht, die räumlichen Beziehungen zwischen der (Bau-) Kunst und den sie bestimmenden Faktoren innerhalb ihres Entstehungsraumes aufzuzeigen. Dabei werden die örtliche Verbreitung von Stilformen und "typen, die Baumaterialien und die landschaftliche Differenzierung und regionale Ausprägung von Stilformen untersucht. Neben der Aufarbeitung des aktuellen Forschungsstandes wird in dieser Arbeit die kunstgeographische Analyse als Methode einer synthetisch-kulturgeographischen Raumdifferenzierung entwickelt und am Beispiel der Renaissancearchitektur in Deutschland aufgezeigt. Auf Basis von mehr als 3.100 Renaissancebauten konnten durch die kartographische Umsetzung und Interpretation der erhobenen Daten erstmals kunstgeographische Raumbilder als Konzentrationsräume des Baustils visualisiert werden. Dabei wurden Faktoren wie der Einfluss des Menschen, der Naturraum sowie die wirtschaftlichen, historischen und sozialen Bedingungen analysiert, die raumbildprägend sind. Neben der internationalen Entwicklung fließen die innerhalb Deutschlands wirksamen Innovationszentren und Schlüsselbauten der Renaissancearchitektur in die Betrachtung ein, sodass die Gemeinsamkeiten und Unterschiede innerhalb unserer Kulturumwelt im regionalen und überregionalen Zusammenhang verdeutlicht und in Bezug gesetzt werden. Es wird gezeigt, dass sich innerhalb des Zeitstils der Renaissance in Deutschland vor einem unterschiedlichen kunstgeographischen Hintergrund regionale Schwerpunkt räume formierten, die bis heute das Raumbild beeinflussen. Damit wird ein detaillierter, raumwissenschaftlich erklärender Überblick über die Verbreitung und Ausprägung des Zeitstils vorgestellt, der die Basis einer anwendungsorientierten humangeographischen Forschung in den Bereichen Kulturleben und Tourismusentwicklung bildet.
Statistical matching offers a way to broaden the scope of analysis without increasing respondent burden and costs. These would result from conducting a new survey or adding variables to an existing one. Statistical matching aims at combining two datasets A and B referring to the same target population in order to analyse variables, say Y and Z, together, that initially were not jointly observed. The matching is performed based on matching variables X that correspond to common variables present in both datasets A and B. Furthermore, Y is only observed in B and Z is only observed in A. To overcome the fact that no joint information on X, Y and Z is available, statistical matching procedures have to rely on suitable assumptions. Therefore, to yield a theoretical foundation for statistical matching, most procedures rely on the conditional independence assumption (CIA), i.e. given X, Y is independent of Z.
The goal of this thesis is to encompass both the statistical matching process and the analysis of the matched dataset. More specifically, the aim is to estimate a linear regression model for Z given Y and possibly other covariates in data A. Since the validity of the assumptions underlying the matching process determine the validity of the obtained matched file, the accuracy of statistical inference is determined by the suitability of the assumptions. By putting the focus on these assumptions, this work proposes a systematic categorisation of approaches to statistical matching by relying on graphical representations in form of directed acyclic graphs. These graphs are particularly useful in representing dependencies and independencies which are at the heart of the statistical matching problem. The proposed categorisation distinguishes between (a) joint modelling of the matching and the analysis (integrated approach), and (b) matching subsequently followed by statistical analysis of the matched dataset (classical approach). Whereas the classical approach relies on the CIA, implementations of the integrated approach are only valid if they converge, i.e. if the specified models are identifiable and, in the case of MCMC implementations, if the algorithm converges to a proper distribution.
In this thesis an implementation of the integrated approach is proposed, where the imputation step and the estimation step are jointly modelled through a fully Bayesian MCMC estimation. It is based on a linear regression model for Z given Y and accounts for both a linear regression model and a random effects model for Y. Furthermore, it yields its validity when the instrumental variable assumption (IVA) holds. The IVA corresponds to: (a) Z is independent of a subset X’ of X given Y and X*, where X* = X\X’ and (b) Y is correlated with X’ given X*. The proof, that the joint Bayesian modelling of both the model for Z and the model for Y through an MCMC simulation converges to a proper distribution is provided in this thesis. In a first model-based simulation study, the proposed integrated Bayesian procedure is assessed with regard to the data situation, convergence issues, and underlying assumptions. Special interest lies in the investigation of the interplay of the Y and the Z model within the imputation process. It turns out that failure scenarios can be distinguished by comparing the CIA and the IVA in the completely observed dataset.
Finally, both approaches to statistical matching, i.e. the classical approach and the integrated approach, are subject to an extensive comparison in (1) a model-based simulation study and (2) a simulation study based on the AMELIA dataset, which is an openly available very large synthetic dataset and, by construction, similar to the EU-SILC survey. As an additional integrated approach, a Bayesian additive regression trees (BART) model is considered for modelling Y. These integrated procedures are compared to the classical approach represented by predictive mean matching in the form of multiple imputations by chained equation. Suitably chosen, the first simulation framework offers the possibility to clarify aspects related to the underlying assumptions by comparing the IVA and the CIA and by evaluating the impact of the matching variables. Thus, within this simulation study two related aspects are of special interest: the assumptions underlying each method and the incorporation of additional matching variables. The simulation on the AMELIA dataset offers a close-to-reality framework with the advantage of knowing the whole setting, i.e. the whole data X, Y and Z. Special interest lies in investigating assumptions through adding and excluding auxiliary variables in order to enhance conditional independence and assess the sensitivity of the methods to this issue. Furthermore, the benefit of having an overlap of units in data A and B for which information on X, Y, Z is available is investigated. It turns out that the integrated approach yields better results than the classical approach when the CIA clearly does not hold. Moreover, even when the classical approach obtains unbiased results for the regression coefficient of Y in the model for Z, it is the method relying on BART that over all coefficients performs best.
Concluding, this work constitutes a major contribution to the clarification of assumptions essential to any statistical matching procedure. By introducing graphical models to identify existing approaches to statistical matching combined with the subsequent analysis of the matched dataset, it offers an extensive overview, categorisation and extension of theory and application. Furthermore, in a setting where none of the assumptions are testable (since X, Y and Z are not observed together), the integrated approach is a valuable asset by offering an alternative to the CIA.
Die Dissertation untersucht den Anteil der Armutsthematik an der Etablierung des Kinos in Deutschland. Der Untersuchungsschwerpunkt konzentriert sich auf die Jahre 1907 bis 1913, einer entscheidenden Zeitspanne für die Institutionalisierung des Kinos als Medium sui generis. Ziel der Untersuchung ist es, anhand von Filmanalysen wiederkehrende Muster medialer Praktiken der kinematographischen Artikulation der Sozialen Frage zu eruieren und ihre thematische Relevanz bzw. ihren Anteil für die Etablierung des Kinos in Deutschland zu bestimmen. Im Fokus stehen die Medienprodukte, ihre Motivgestaltung und Inszenierungspraktiken.
Seit seiner Unabhängigkeit erfreut sich Namibia als Reiseziel weltweit wachsender Beliebtheit, wodurch der Tourismus wirtschaftlich einen hohen Stellenwert hat. Zugleich lebt ein Großteil der Bevölkerung in Armut und ist zumeist noch immer von der Landwirtschaft abhängig. Diese dominiert flächenmäßig, zur Wertschöpfung und zur Entwicklung des Landes vermag sie allerdings nur wenig beizutragen. Kam im ariden Namibia ehemals nur Ranching als Landnutzung in Frage, sehen sich Landbesitzer wegen verschlechterter Rahmenbedingungen heute gezwungen, weitere Einkommensquellen zu erschließen. Naturtourismus ist eine der Alternativen. Ausgerechnet die wirtschaftlichen Schwächen der ländlichen Regionen mit naturnahen Landschaften, geringer anthropogener Überformung und der Abwesenheit von Industrie ermöglichen einzigartige Naturerlebnisse und stellen damit die Grundlage für Naturtourismus dar. Im Fokus der vorliegenden Studie stehen daher die Landnutzungen Ranching und Naturtourismus, die beide auf dem natürlichen Potenzial des Landes basieren und zugleich räumlich um die gleichen Flächen konkurrieren. Ziel ist die Bewertung der Auswirkungen beider Landnutzungen im Vergleich, um somit die für einen Raum am besten geeignete Nutzungsoption zu identifizieren und Verbesserungspotentiale bei der Ausgestaltung der untersuchten Landnutzungen aufzuzeigen. Die Erkenntnisse aus der einschlägigen Fachliteratur legen die Hypothese nahe, dass Naturtourismus im Vergleich zum Ranching die besser geeignete Landnutzung darstellt. Den theoretischen Rahmen zur Identifizierung der besser geeigneten Landnutzung bildet das Nachhaltigkeitskonstrukt, das wie jedes andere Theorem nicht unmittelbar mess- oder beobachtbar, sondern nur indirekt mit Hilfe von Indikatoren operationalisierbar ist. Die Mehrzahl der 34 insgesamt verwendeten Indikatoren entstammt dem Set der Vereinten Nationen. Alle verwendeten Indikatoren fanden Anwendung in einer für diese Arbeit auf Unternehmensebene adaptierten Version. Um den physischen wie humangeographischen Besonderheiten Namibias (Verfügbarkeit von Wasser, Namibia als Entwicklungsland etc.) gerecht zu werden, wurden zusätzliche Indikatoren für den regionalen Kontext der Studie konzipiert. Entsprechend dem Erkenntnisinteresse, unter Nachhaltigkeitsaspekten die am besten geeignete Landnutzung zu identifizieren, wurden anhand eines umfangreichen methodischen Kanons die empirischen Untersuchungen durchgeführt. Ausgangspunkt hierfür waren Erhebungen in Namibia, die in der Etosha-Region unmittelbar südlich der Kommunalgebiete stattfanden. Methodisch kamen dafür vorrangig quantitative Methoden zum Einsatz, wobei standardisierte Fragebögen als primäre Erhebungsinstrumente konzipiert wurden. Diese wurden von Expertengesprächen, Beobachtungen, Kartierungen und Sekundärdatenanalysen flankiert. Die Erkenntnisse aus den Erhebungen erlauben Aussagen für weite Gebiete Namibias mit vergleichbaren Bedingungen. So bestehen - entsprechend der Forschungshypothese - eindeutige Vorteile des Naturtourismus gegenüber dem Ranching hinsichtlich der betrachteten Landnutzungsauswirkungen, womit der Naturtourismus unter Nachhaltigkeitsaspekten die besser geeignete Landnutzung ist. Vor allem im Bereich der Sozialindikatoren überzeugen die Auswirkungen: Soziale Sicherheit, Wohnbedingungen (Elektrizität, Sanitäreinrichtungen, Wasserversorgung etc.), sozio-ökonomische Aufstiegschancen und die Mitarbeiterzufriedenheit sind zugunsten des Naturtourismus zu werten. Auch im Ökonomischen liegen die Vorteile bei dieser Landnutzung, wobei ein Aspekt negativ auffällt: Vor allem in puncto Regionalökonomie besteht im Tourismus Verbesserungsbedarf. Denn sowohl die Angestelltenrekrutierung als auch die Versorgung mit Waren und Dienstleistungen erfolgt mehrheitlich überregional. Dahingehend sind die Auswirkungen des Ranching als vorteilhafter anzusehen. Wie die Erhebungen ferner belegen, nimmt die Bedeutung des ausschließlichen Ranching aufgrund von Rentabilitätsproblemen auf kommerziellem Farmland sukzessive ab, stattdessen weisen Ländereien zumeist mehr als nur ein wirtschaftliches Standbein auf. Daher ist hinsichtlich der Landreform zu kritisieren, dass Neufarmer - wenn überhaupt - nur auf das Ranching vorbereitet werden. Wie die Erhebungen zeigen: eine wenig zeitgemäße Landnutzungsstrategie. Ein im Rahmen der Arbeit entwickeltes und ihr beiliegendes Farmrentabilitätstool verdeutlicht auf Basis einer Vielzahl vom Nutzer veränderlicher Einstellungen, wie schwierig die rentable Bewirtschaftung von Ranches heute ist.
Die vorliegende Arbeit beschäftigt sich mit dem Problem, daß Internet-Inhalte weltweit als strafbare Kommunikationsdelikte angesehen werden können. Die Warnungen vor Neonazis, die aus dem Ausland agieren, werden immer eindringlicher; gleichzeitig fürchten sich deutsche Anbieter vor ausländischen Strafverfolgungsbehörden. Ob diesen Entwicklungen aber durch eine internationale Lösung erfolgreich entgegengewirkt werden kann, erscheint fraglich. Der Autor untersucht daher die Strafbarkeit von Internet-Inhalten im weltweiten Kontext. Die bisherigen Bemühungen um eine internationale Lösung werden dargestellt und ihre Erfolgsaussichten überprüft. Dabei zeigt sich, daß nationale Ansätze nicht vorschnell übergangen werden sollten.
In dem Gebiet der Informationsextraktion angesiedelt kombiniert diese Arbeit mehrere Verfahren aus dem Bereich des maschinellen Lernens. Sie stellt einen neuen Algorithmus vor, der teil-überwachtes Lernen mit aktivem Lernen verknüpft. Ausgangsbasis ist die Analyse der Daten, indem sie in mehrere Sichten aufgeteilt werden. Hier werden die Eingaben verschiedener Personen unterteilt. Jeweils getrennt voneinander erzeugt der Algorithmus mittels Klassifizierern Modelle, die aus den individuellen Auszeichnungen der Personen aufgebaut werden. Um die dafür benötigte Datenmenge zu erhalten wird Crowdsourcing genutzt, dass es ermöglicht eine große Anzahl an Personen zu erreichen. Die Personen erhalten die Aufgabe, Texte zu annotieren. Einerseits wird dies initial für einen historischen Textkorpus vorgenommen. Dabei wird aufgeführt, welche Schritte notwendig sind, um die Annotationsaufgabe in Crowdsourcing-Portalen zur Bearbeitung anzubieten und durchzuführen. Andererseits wird ein aktueller Datensatz von Kurznachrichten genutzt. Der Algorithmus wird auf diese Beispieldatensätze angewandt. Durch Experimente wird die Ermittlung der optimalen Parameterauswahl durchgeführt. Außerdem werden die Ergebnisse mit den Resultaten bisheriger Algorithmen verglichen.
Spatial Queues
(2000)
In the present thesis, a theoretical framework for the analysis of spatial queues is developed. Spatial queues are a generalization of the classical concept of queues as they provide the possibility of assigning properties to the users. These properties may influence the queueing process, but may also be of interest for themselves. As a field of application, mobile communication networks are modeled by spatial queues in order to demonstrate the advantage of including user properties into the queueing model. In this application, the property of main interest is the user's position in the network. After a short introduction, the second chapter contains an examination of the class of Markov-additive jump processes, including expressions for the transition probabilities and the expectation as well as laws of large numbers. Chapter 3 contains the definition and analysis of the central concept of spatial Markovian arrival processes (shortly: SMAPs) as a special case of Markov-additive jump processes, but also as a natural generalization from the well-known concept of BMAPs. In chapters 4 and 5, SMAPs serve as arrival streams for the analyzed periodic SMAP/M/c/c and SMAP/G/infinity queues, respectively. These types of queues find application as models or planning tools for mobile communication networks. The analysis of these queues involves new methods such that even for the special cases of BMAP inputs (i.e. non-spatial queues) new results are obtained. In chapter 6, a procedure for statistical parameter estimation is proposed along with its numerical results. The thesis is concluded by an appendix which collects necessary results from the theories of Markov jump processes and stochastic point fields. For special classes of Markov jump processes, new results have been obtained, too.
Globalization and the emergence of global value chains have not only changed the way we live, but also the way economists study international economics. These changes are visible in various areas and dimension. This dissertation deals " mostly empirically " with some of these issues related to global value chains. It starts by critically examining the political economy forces determining the occurrence and the extent of trade liberalization conditions in World Bank lending agreements. The focal point is whether these are affected by the World Bank- most influential member countries. Afterwards, the thesis moves on to describe trade of the European Union member countries at each stage of the value chain. The description is based on a new classification of goods into parts, components and final products as well as a newly developed measure describing the average level of development of a countries trading partners. This descriptive exercise is followed by critically examining discrepancies between gross trade and trade in value added with respect to comparative advantage. A gravity model is employed to contrast results when studying the institutional determinants of comparative advantage. Finally, the thesis deals with determinants of regional location choices for foreign direct investment. The analysis is based on a theoretical new economic geography model and employs a newly developed index that accounts for the presence of potentially all suppliers and buyers at all stages of the value chain.
Magnet Resonance Imaging (MRI) and Electroencephalography (EEG) are tools used to investigate the functioning of the working brain in both humans and animal studies. Both methods are increasingly combined in separate or simultaneous measurements under the assumption to benefit from their individual strength while compensating their particular weaknesses. However, little attention has been paid to how statistical analyses strategies can influence the information that can be retrieved from a combined EEG fMRI study. Two independent studies in healthy student volunteers were conducted in the context of emotion research to demonstrate two approaches of combining MRI and EEG data of the same participants. The first study (N = 20) applied a visual search paradigm and found that in both measurements the assumed effects were absent by not statistically combining their results. The second study (N = 12) applied a novelty P300 paradigm and found that only the statistical combination of MRI and EEG measurements was able to disentangle the functional effects of brain areas involved in emotion processing. In conclusion, the observed results demonstrate that there are added benefits of statistically combining EEG-fMRI data acquisitions by assessing both the inferential statistical structure and the intra-individual correlations of the EEG and fMRI signal.
Fehlende Werte und deren Kompensation über Imputation stellen eine große Herausforderung für die Varianzschätzung eines Punktschätzers dar. Dies gilt auch in der Amtlichen Statistik. Um eine unverzerrte Varianzschätzung zu gewährleisten, müssen alle Komponenten der Varianz berücksichtigt werden. Hierzu wird häufig eine Zerlegung der Gesamtvarianz durchgeführt mit dem Ziel, detaillierte Informationen über ihre Komponenten zu erhalten und diese vollständig zu erfassen. In dieser Arbeit stehen Resampling-Methoden im Vordergrund. Es wird ein Ansatz entwickelt, wie neuere Resampling-Methoden, welche alle Elemente der ursprünglichen Stichprobe berücksichtigen, hinsichtlich der Anwendung von Imputation übertragen werden können. Zum Vergleich verschiedener Varianzschätzer wird eine Monte-Carlo-Simulationsstudie durchgeführt. Mit Hilfe einer Monte-Carlo-Simulation findet zudem eine Zerlegung der Gesamtvarianz unter verschiedenen Parameterkonstellationen statt.
Wastewater treatment is of great financial concern in many states of Germany. In the rural areas of the Saarland (German state at the border to Luxembourg and France) investments for wastewater treatments in the next years will mount up to 400 mio. €. Nevertheless, decision makers are still left with the question, if these investments result in an effective and sustainable water treatment. To answer this question, the ministry of environment, related authorities and the University of the Saarland (Geographical Institute) started a Project to investigate seven small headwater catchments with predominantly Triassic series of Muschelkalk. Aims of this study were the following: (i) the description of the spatial variability of water chemistry upstream and downstream of small villages (in these villages only mechanically treated waste water is discharged into the brooks), (ii) calculation of nutrient loads of differently managed catchments (predominantly woodland, meadows or fields) and (iii) the relative importance of non-point pollution sources to point pollution sources. Results indicated that spatial variability of nitrate concentration during base-flow conditions was quite similar in intensively used agricultural areas. Nitrogen fluxes were predominantly controlled hydrologically. The nitrogen load (kg N per ha) from non-point pollution sources amounts from 32.5 to 43 kg N / ha * a in intensively used agricultural areas. This load, forecast to one square-km, is equal to the N-load of 800 " 1000 population equivalents. Thus, non-point pollution sources are a major part of the overall nitrogen pollution in the rural areas. The results are important criterias for the sewage disposal plan of the Saarland (disposal plans are obligate according to German water law) and can serve as a first part of a river basin management according to the European Water Framework Directive. To lower non-point N-pollution changes in agricultural management practices are necessary.
Die Klosterbibliothek der Augustiner-Chorherren der Windesheimer Kongregation in Eberhardsklausen gehört nicht nur aufgrund ihrer Bestände, sondern auch aufgrund des noch erhaltenen Bibliotheksraumes zu den bedeutendsten Bibliotheken des 15. Jahrhunderts im Erzstift Trier. Neben einer kurzen theoretischen Betrachtung der Klosterbibliothek als Wissensraum vor dem Hintergrund der Raumtheorie Michel Foucaults (1926-1984) sowie der Vorstellung von Methodik und Forschungsstand im ersten Teil erfolgt im zweiten Teil der vorliegenden Dissertation eine Darstellung des Bildungsprogrammes der niederländischen Reformbewegung der Devotio moderna sowie die Einordnung der Klostergründung von Eberhardsklausen in den Kontext der Ordensreform. Im Mittelpunkt des dritten Teiles steht die Klosterbibliothek als Raum, dessen Disposition innerhalb der Klosteranlage, die im Vergleich zu anderen Bibliotheksräumen, z. B. in Windesheim, Niederwerth, Dalheim, Bernkastel-Kues usw. diskutiert wird. Es folgen kunsthistorische Beschreibungen des Klausener Bibliotheksraumes sowie der dortigen Wandmalereien aus dem beginnenden 16. Jahrhundert. Diese zeigen 19 Darstellungen von Propheten, Heiligen, Kirchenvätern und anderen historischen Persönlichkeiten, die mit dem Bildungsprogramm der Devotio moderna und anderen mittelalterlichen Bibliotheksausmalungen in Windesheimer Klöstern wie Böddeken oder Basel verglichen werden. Der dritte Teil schließt mit Überlegungen zur Eberhardsklausener Klosterbibliothek im Gebrauch, d. h. zur Signatur der Bücher, zur Aufstellungsordnung, zum Bibliothekskatalog und zur Rolle des Bibliothekars sowie zur Ausstattung und zum Mobiliar, aber auch zu deren Nutzern und ihren Arbeitsplätzen. Der vierte und ausführlichste Teil der Untersuchung widmet sich den noch nachweisbaren Klausener Buchbeständen, d. h. vor allem den Handschriften des 15. und 16. Jahrhunderts sowie den dort aufbewahrten Inkunabeln. Dabei werden Fragen nach dem Aufbau eines bibliothekarischen Grundstocks sowie nach der Schreibtätigkeit in den ersten beiden Jahrhunderten seit der Gründung des Konvents behandelt. Die Klausener Bestände werden hinsichtlich ihres Verwendungszweckes, d. h. für die Persönlichkeitsbildung der einzelnen Chorherren, für die klösterliche Gemeinschaft und für den Buchmarkt untersucht, wobei der letztgenannte Bereich für Eberhardsklausen kaum eine Rolle spielt. In einem weiteren Abschnitt erfolgt eine quantifizierte Auswertung der Bestände nach Autoren, wobei die meisten Texte Augustinus, Bernhard von Clairvaux, Bonaventura, Johannes Gerson und Thomas von Aquin zuzuordnen sind, die alle ebenso an den Wänden der Klosterbibliothek abgebildet werden. Ein besonderes Augenmerk wird darüber hinaus auch auf die Eberhardsklausener Chorherren gelegt, die selbst als Schriftsteller nachweisbar sind, wie z. B. Prior Berthold von Marsberg sowie Peter von Ahrweiler, Gerhard von der Lippe und Gisbert, alle drei in ihrer Funktion als Rektoren des Trierer Frauenklosters St. Agneten oder z. B. auch der Klosterchronist Wilhelm von Bernkastel. Aufgrund der besonderen Beziehungen zu Nikolaus Cusanus und zum St. Nikolaus-Hospital in Bernkastel-Kues widmet sich ein Abschnitt den Schriften des Kardinals, die in Klausen vorhanden sind. Unter ihnen lässt sich eine Predigthandschrift mit einer bis dato unbekannten Predigt (Sermo LXXV_A, Salzburg, 7. Februar 1451) des berühmten Denkers von der Mosel nachweisen. Des Weiteren erfolgt eine Einteilung des Bestandes in 16 Sachgruppen bzw. literarische Kategorien, wie z. B. Bibelausgaben, liturgische Schriften, Werke der Kirchenväter, Predigten, Erbauungsliteratur, Passionsschriften, Heiligenlegenden, juristische Werke und Fachliteratur. Ein weiteres Augenmerk wird ferner auf die deutschsprachigen Bücher in Eberhardsklausen gelegt, die kaum mehr als ca. 10% des Bestandes ausmachten und weitestgehend der Bibliothek der Laienbrüder zuzurechnen sind. Auch die meist als Einbandmakulatur verwendeten Fragmente werden behandelt, wobei hierunter vor allem die hebräischen Fragmente sowie die Reste eines Legendariums des Freisinger Schreibers Cundpato aus dem 9. Jahrhundert herausragen. Die Untersuchung wird abgeschlossen durch eine genaue Untersuchung der Schreiber, Stifter und Vorbesitzer sowie mit einem Ausblick auf die Auflösung der Bibliothek im beginnenden 19. Jahrhundert infolge der Säkularisation und auf den Verbleib der Eberhardsklausener Handschriften und Drucke.
An der Schnittstelle zwischen Recht und Sprache, zwischen der überdachenden Weingesetzgebung der Europäischen Union und dem von den Mitgliedstaaten gesetztem Recht liegt das Recht der Weinbezeichnungen. Hier wie an kaum einer anderen Stelle kommt der Verbraucher mit beiden in Berührung und verliert sich nicht selten im Dschungel der zahllos scheinenden Begriffe in unterschiedlichen Sprachen, die ihn in Gestalt des Flaschenetiketts doch über Herkunft und Qualität des Weins unterrichten und so seine Kaufentscheidung erleichtern sollen. An dieser Stelle setzt die Dissertation an, um unter vergleichender Berücksichtigung der in den Einzelsprachen verwendeten Begriffe und Bezeichnungen das komplex und kunstvoll gewobene Netz zu durchdringen. Als romanistische Arbeit von den vier großen Sprachen der Romania ausgehend, wird zunächst das Weinrecht insgesamt von Frankreich, Italien, Portugal und Spanien dar- und demjenigen Deutschlands gegenübergestellt, wobei jeweils auch der Bezug zum europäischen Weinrecht, insbesondere EG-Weinmarktordnung als Grundverordnung und EG-Weinbezeichnungsverordnung als Durchführungsverordnung, hergestellt wird. Dessen Geschichte und diejenige der nationalen Weinrechtsordnungen werden ausführlich dargestellt. In einem nächsten, den Kern der Arbeit ausmachenden Schritt verengt sich der Fokus auf das Bezeichnungsrecht der Weine als solche, um nach Gewinnung der maßgeblichen Begriffe zu überprüfen, inwieweit diese in Bezug auf ihren Bedeutungsgehalt als gleichwertig anzusehen, also semantisch äquivalent sind. Die Blickrichtung ist auch hier bidirektional und umschließt neben dem Vergleich der europäischen und der nationalen Begriffe auf horizontaler Ebene die Gegenüberstellung beider Systeme in vertikaler Sicht. Ein Blick auf sonstige, nicht obligatorische Angaben, wie etwa die wichtigsten Rebsortennamen, rundet die Untersuchung ab, wobei diese und ihre so genannten Synonyme kritisch hinterfragt werden.
Cortisolprofile, speziell morgentlicher Cortisolaufwachanstieg (CAR), wurden in der ersten Stunde nach dem Erwachen, waehrend Schichtarbeit und freier Tage untersucht (acht Speichelproben pro Schicht). In der Untersuchung waren 102 gesunde Dauertag- und Dauernachtschichtarbeiter (Kontrollgruppen) und fruehere Dauertag und Dauernachtschichtarbeiter die auf ein neues schnell vorwaerts rotierendes Schichtsystem umgestellt wurden, welches Morgen-, Abend- und Nachtschicht beinhaltete. Die Ergebnisse zeigen, dass der CAR sowohl bei Tag- als auch Nachtschichten klar erkennbar ist. Bei den Dauernachtschichtarbeitern scheinen die Cortisolprofile waehrend der Nachtschichten und freien Tage abgeflacht zu sein. Die Cortisolprofile ehemaliger Dauernachtschichtarbeiter die auf das neue, schnell vorwaerts rotierende System umgestellt wurden, zeigen schon nach kurzer Zeit keine Stoerungen mehr. Demgegenueber resultiert die Einfuehrung von Nachtarbeit bei ehemaligen Dauertagschichtarbeitern in einer anfaenglichen Abflachung der Cortisolprofile, die sich jedoch nach kurzer Zeit wieder normalisiert. Zusaetzliche psychologische Frageboegen zur Erschoepfung, chronischem Stress, Effort-Reward Imbalance, Schlafqualitaet und Schlaflaenge wurden begleitend eingesetzt.
Die Beobachtung und Bewertung von Wäldern ist eins der zentralen Themen der Fernerkundung. Wälder sind auf der Erde die größten Speicher von Biomasse und damit, neben den Ozeanen, die größte Senke für Kohlendioxid. Eine genaue Kenntnis über Zusammensetzung, Zustand und Entwicklung der Wälder ist wegen ihrer vielfältigen Funktionen und ihres großen Anteils an der Landesfläche von großem wissenschaftlichem und gesellschaftlichem Wert. Eine flächen-deckende detaillierte Beobachtung ist nur mit fernerkundlichen Mitteln möglich. Eine vielversprechende moderne Technik für hochauflösende Waldfernerkundung ist luftgestütztes Laser-¬scanning. Für die Arbeit stand ein Laserscanner-Datensatz aus dem Idarwald bei Morbach in Einzelpunkten und als Wellenformdatensatz zur Verfügung, der zur Ableitung von strukturellen Waldparametern genutzt wurde. Als wichtigster Bestandsstrukturparameter wurde die Baumhöhe sowohl aus Einzelpunktdaten als auch aus gerasterten Bilddaten flächendeckend mit hoher Genauigkeit abgeleitet. Die Kronenuntergrenzen konnten anhand der Wellenformdaten identifiziert werden und stimmten ebenfalls in hoher Genauigkeit mit Geländemessungen überein. Aus Baumhöhen und Höhe der Kronenuntergrenzen konnte die jeweilige Kronenlänge bestimmt werden. Eine größere Herausforderung ist die Bestimmung der Anzahl der Bäume pro Hektar. Während die einzelnen Kronen älterer Nadelbäume gut erkennbar sind, lassen sich Laubbäume und jüngere Nadelbäume nur schwer identifizieren. Trotzdem konnte mit Hilfe eines adaptiven Moving-Window-Ansatzes eine hohe Übereinstimmung mit im Gelände bestimmten Stammzahlen erzielt werden. Aus dem Anteil der Laserstrahlen, die im Bestand den Boden erreichen, können der Kronenschlussgrad und der Blattflächenindex bestimmt werden. Beide Größen sind für den Strahlungstransfer im Bestand und für ökologische Fragestellungen von Bedeutung und konnten ebenfalls flächendeckend und mit hoher Genauigkeit gemessen werden. Eng verknüpft mit dem Blattflächenindex sind die Biomasse und der Holzvorrat. Der Holzvorrat kann zwar nicht direkt aus den Laser-¬scannerdaten abgeleitet werden, da aber enge Beziehungen zu Baumhöhe und Stammzahl bestehen, kann er aus diesen statistisch abgeleitet werden. Auch die Biomasse wurde indirekt bestimmt: aus den Baumhöhen und dem Bedeckungsgrad. Die detaillierteste Charakterisierung von Waldbeständen kann durch Kombination unterschiedlicher Datensätze erreicht werden. Neben dem Laserscanningdatensatz stand auch ein hyperspektrales Bild des Untersuchungsgebiets zur Verfügung. Um diese zu kombinieren, wurde aus den Wellenformen die jeweils über der Fläche eines Hyperspektralpixels zurückgestreute Laserenergie in Höhenschritten von 0.5 m berechnet. Diese Höhenprofile zeigen die Position und Dichte der Baumkronen. Der kombinierte Datensatz wurde für eine Klassifikation zwischen Fichten und Douglasien in jeweils mehreren Altersstufen verwendet und konnte gegenüber dem Hyperspektralbild alleine eine deutliche Verbesserung der Klassifikationsgenauigkeit erzielen. Als weitere Methode, die Vorteile von hyperspektraler Fernerkundung mit denen von Laser-scanning zu verbinden, wurden Methoden zur Verwendung von Laserscanning für die Invertierung von zwei Reflexionsmodellen entwickelt und getestet. Da mit Laserscanning Größen bestimmt werden können, die aus einem Reflexionsspektrum nicht eindeutig ableitbar sind, können die Daten verwendet werden, um den Parameterraum bei der Invertierung zu verkleinern und damit die Invertierung zuverlässiger zu machen.
Ausgehend von einem multifaktoriellen biopsychosozialen Modell zur Entstehung und Aufrechterhaltung primärer Kopfschmerzen bei Kindern und Jugendlichen wurden n= 170 Mädchen im Alter von 12-17 Jahren hinsichtlich verschiedener stressbezogener Determinanten untersucht. Es wurde davon ausgegangen, dass sich Mädchen mit wiederkehrenden Kopfschmerzen sowohl in einem kontrollierten, messwiederholten Laborexperiment hinsichtlich ihrer physiologischen Reaktionen (Muskelspannung, Cortisolausschüttung) auf akuten Stress hin wie auch in der Cortisolaufwachreaktion im häuslichen Setting von einer gesunden Kontrollgruppe unterscheiden. Diese Annahmen konnten nach statistischer Auswertung der Studienergebnisse unter Kontrolle der familiären Schmerzbelastung und psychischen Stressbelastung jedoch nicht bestätigt werden. Somit kann nicht von einer dysregulierten Aktivität der Hypothalamus-Hypophysen-Nebennierenrinden-Achse ausgegangen werden, die eine zentrale Rolle in der biologischen Stressantwort spielt und auch die Schmerzverarbeitung mit beeinflusst. Ebenso wenig liegt bei Mädchen mit Kopfschmerzen eine erhöhte basale oder stressbedingte Muskelspannung im Kopf- und Schulterbereich vor. Lediglich auf subjektiver Ebene deutete sich ein tendenziell höheres Empfinden von Anspannung in Ruhephasen an. Auf psychologischer Ebene hingegen zeigte sich erwartungskonform eine höhere Stress-vulnerabilität bei den Mädchen mit Kopfschmerzen. Außerdem wurde bei ihnen der vermehrte Einsatz emotionsregulierender Stressbewältigungsstrategien, wie Ruhe und Entspannung, aber auch destruktiv-ärgerbezogenes Verhalten und Denken, bezogen auf soziale und leistungsbezogene Stresssituationen beobachtet. Auch unterschieden sie sich hinsichtlich der familiären Schmerzbelastung, körperlichen und psychischen Stress-symptomatik und Depressivität sowie Ängstlichkeit von der Kontrollgruppe. Sie zeigten durchweg höhere Ausprägungen auf diesen Variablen, die sich als signifikante Prädiktoren für Kopfschmerzen herausstellten. Die Verknüpfung von physiologischen Reaktionsmaßen mit der Stressverarbeitung zeigte, dass die Nutzung von konstruktiv-palliativer Emotionsregulation umso stärker ist, je höher der stressbedingte Anstieg der Cortisolausschüttung und der Muskelaktivität in der Frontalisregion ausfällt. Je stärker also die körperliche Reaktion auf Stress, umso mehr versuchen jugendliche Mädchen sich zu entspannen und auszuruhen.
The visualization of relational data is at the heart of information visualization. The prevalence of visual representations for this kind of data is based on many real world examples spread over many application domains: protein-protein interaction networks in the field of bioinformatics, hyperlinked documents in the World Wide Web, call graphs in software systems, or co-author networks are just four instances of a rich source of relational datasets. The most common visual metaphor for this kind of data is definitely the node-link approach, which typically suffers from visual clutter caused by many edge crossings. Many sophisticated algorithms have been developed to layout a graph efficiently and with respect to a list of aesthetic graph drawing criteria. Relations between objects normally change over time. Visualizing the dynamics means an additional challenge for graph visualization researchers. Applying the same layout algorithms for static graphs to intermediate states of dynamic graphs may also be a strategy to compute layouts for an animated graph sequence that shows the dynamics. The major drawback of this approach is the high cognitive effort for a viewer of the animation to preserve his mental map. To tackle this problem, a sophisticated layout algorithm has to inspect the whole graph sequence and compute a layout with as little changes as possible between subsequent graphs. The main contribution and ultimate goal of this thesis is the visualization of dynamic compound weighted multi directed graphs as a static image that targets at visual clutter reduction and at mental map preservation. To achieve this goal, we use a radial space-filling visual metaphor to represent the dynamics in relational data. As a side effect the obtained pictures are very aesthetically appealing. In this thesis we firstly describe static graph visualizations for rule sets obtained by extracting knowledge from software archives under version control. In a different work we apply animated node-link diagrams to code-developer relationships to show the dynamics in software systems. An underestimated visualization paradigm is the radial representation of data. Though this kind of data has a long history back to centuries-old statistical graphics, only little efforts have been done to fully explore the benefits of this paradigm. We evaluated a Cartesian and a radial counterpart of a visualization technique for visually encoding transaction sequences and dynamic compound digraphs with both an eyetracking and an online study. We found some interesting phenomena apart from the fact that also laymen in graph theory can understand the novel approach in a short time and apply it to datasets. The thesis is concluded by an aesthetic dimensions framework for dynamic graph drawing, future work, and currently open issues.
In politics and economics, and thus in the official statistics, the precise estimation of indicators for small regions or parts of populations, the so-called Small Areas or domains, is discussed intensively. The design-based estimation methods currently used are mainly based on asymptotic properties and are thus reliable for large sample sizes. With small sample sizes, however, this design based considerations often do not apply, which is why special model-based estimation methods have been developed for this case - the Small Area methods. While these may be biased, they often have a smaller mean squared error (MSE) as the unbiased design based estimators. In this work both classic design-based estimation methods and model-based estimation methods are presented and compared. The focus lies on the suitability of the various methods for their use in official statistics. First theory and algorithms suitable for the required statistical models are presented, which are the basis for the subsequent model-based estimators. Sampling designs are then presented apt for Small Area applications. Based on these fundamentals, both design-based estimators and as well model-based estimation methods are developed. Particular consideration is given in this case to the area-level empirical best predictor for binomial variables. Numerical and Monte Carlo estimation methods are proposed and compared for this analytically unsolvable estimator. Furthermore, MSE estimation methods are proposed and compared. A very popular and flexible resampling method that is widely used in the field of Small Area Statistics, is the parametric bootstrap. One major drawback of this method is its high computational intensity. To mitigate this disadvantage, a variance reduction method for parametric bootstrap is proposed. On the basis of theoretical considerations the enormous potential of this proposal is proved. A Monte Carlo simulation study shows the immense variance reduction that can be achieved with this method in realistic scenarios. This can be up to 90%. This actually enables the use of parametric bootstrap in applications in official statistics. Finally, the presented estimation methods in a large Monte Carlo simulation study in a specific application for the Swiss structural survey are examined. Here problems are discussed, which are of high relevance for official statistics. These are in particular: (a) How small can the areas be without leading to inappropriate or to high precision estimates? (b) Are the accuracy specifications for the Small Area estimators reliable enough to use it for publication? (c) Do very small areas infer in the modeling of the variables of interest? Could they cause thus a deterioration of the estimates of larger and therefore more important areas? (d) How can covariates, which are in different levels of aggregation be used in an appropriate way to improve the estimates. The data basis is the Swiss census of 2001. The main results are that in the author- view, the use of small area estimators for the production of estimates for areas with very small sample sizes is advisable in spite of the modeling effort. The MSE estimates provide a useful measure of precision, but do not reach in all Small Areas the level of reliability of the variance estimates for design-based estimators.
Surveys play a major role in studying social and behavioral phenomena that are difficult to
observe. Survey data provide insights into the determinants and consequences of human
behavior and social interactions. Many domains rely on high quality survey data for decision
making and policy implementation including politics, health, business, and the social
sciences. Given a certain research question in a specific context, finding the most appropriate
survey design to ensure data quality and keep fieldwork costs low at the same time is a
difficult task. The aim of examining survey research methodology is to provide the best
evidence to estimate the costs and errors of different survey design options. The goal of this
thesis is to support and optimize the accumulation and sustainable use of evidence in survey
methodology in four steps:
(1) Identifying the gaps in meta-analytic evidence in survey methodology by a systematic
review of the existing evidence along the dimensions of a central framework in the
field
(2) Filling in these gaps with two meta-analyses in the field of survey methodology, one
on response rates in psychological online surveys, the other on panel conditioning
effects for sensitive items
(3) Assessing the robustness and sufficiency of the results of the two meta-analyses
(4) Proposing a publication format for the accumulation and dissemination of metaanalytic
evidence
Unternehmen aus güterproduzierenden Industrien und Sektoren entdecken in immer stärkerem Maße das Differenzierungs- und Erlöspotenzial des Angebots ergänzender Dienstleistungen zur Erlangung von strategischen Wettbewerbsvorteilen. In vielen Branchen ist dies bereits ein notwendiger Bestandteil im Angebotsportfolios der Hersteller um sich zu positionieren und wettbewerbsfähig zu bleiben. Ein besonders prägnantes Beispiel stellt die Automobilbranche dar, die schon vor Jahren begonnen hat in ihr Geschäftsmodell um das Kernprodukt "Automobil" auch sog. produktbegleitende Dienstleistungen (wie beispielsweise Finanzierungsdienstleistungen) zu integrieren, um sich durch Erhöhung des Kundennutzens von den Angeboten der Mitbewerber zu differenzieren. Vor dem Hintergrund, dass Marketingkonstrukte, wie Marke, Reputation, Kundenloyalität, aber auch technische Spezifikationen wie Motorisierung, Ausstattung und Zubehör die Fahrzeugwahl beeinflussen, stellt sich die Autorin die Frage, inwiefern ein Zusatzangebot von reinen produktbegleitenden Dienstleistungen einen Einfluss auf die Marken- und Fahrzeugwahl beim Autokauf hat. In diesem Zusammenhang ist ein Forschungsziel der vorliegenden Untersuchung die Konzeption einer branchenunabhängigen Wertschöpfungskette für produktbegleitende Dienstleistungen, um eine Identifikation des strategischen Differenzierungspotenzials produktbegleitender Dienstleistungen zu ermöglichen. Den Bezugsrahmen der Forschungsarbeit wird dabei aus Perspektive des Endkonsumenten bei der Automobilkaufentscheidung konstruiert, um Aussagen zur Wahrnehmung existierender Angebote produktbegleitender Dienstleistungen den individuellen Phasen der Kaufentscheidung zuordnen zu können. Dies bildet das methodische Fundament dieses empirisch geprägten Forschungsbeitrags, um die folgende Frage der Untersuchung beantworten zu können: "Haben produktbegleitende Dienstleistungen einen Einfluss auf die Kaufwahrscheinlichkeit beim konsumentenseitigen Kaufentscheidungsprozess bei Automobilen im Segment des Privat-PKW?" Als Forschungsstrategie wird die Anwendung der Kausalanalyse gewählt, um anhand zwei aufeinander aufbauenden Primärerhebungen (quantitative Datenerhebung anhand eines Online-Fragebogens) potenzielle Autokäufer hinsichtlich ihres Wissens und ihrer Wahrnehmung bezüglich produktbegleitender Dienstleistungen der einzelnen Automobilherstellermarken zu untersuchen. Die Ergebnisse der Datenauswertung lassen die Schlussfolgerung zu, dass produktbegleitende Dienstleistungen zwar einen positiven Einfluss auf die Kaufentscheidung beim potentiellen Automobilkäufer ausüben, jedoch aufseiten der Automobilhersteller und -händler durchaus großes Verbesserungspotenzial bezüglich der Kommunikation von solchen Value-Added-Leistungen vorliegt. Die vorliegende Dissertationsschrift wurde am Lehrstuhl für Organisation und Strategisches Dienstleistungsmanagement verfasst und beim Fachbereich IV der Universität Trier eingereicht.
Die Markierung zählt zu den ältesten Instrumenten im Marketing und besitzt auch heute noch eine herausragende Bedeutung für den Markterfolg. Allerdings haben die technologischen Entwicklungen auch die Möglichkeiten der Markierung verändert, so dass "klassische" Markierungsmöglichkeiten an Bedeutung verlieren. Eine der ältesten Markierungsformen ist das Wasserzeichen, dessen Bedeutung als Marke bisher wissenschaftlich noch nicht untersucht wurde. Dieses Forschungsdefizit zu verringern, erweitert auf Papierrippungen, Papierprägungen, Markierungsdrucke und Markierungsstrukturen ist das Ziel der vorliegenden Arbeit. Ausführlich beschrieben und gewichtet werden dabei die einzelnen Markierungselemente, differenziert nach Herkunft, Marken-Namen und Marken-Bild, und ihre Auswirkung auf das Verbraucherverhalten. Eine besondere Beachtung erhalten Kuppelmarkierungen, die zusätzliche Synergien für die Kundenbindung entfalten. In der Vielfalt der Markierungen und über 1000 Abbildungen wird das Zusammenspiel von Markierung und Marketing deutlich gemacht.
Gerade in der heutigen Zeit im Spannungsfeld zwischen der globalen Klimaveränderung und einer stetig wachsenden Weltbevölkerung wird es immer wichtiger, die Oberflächenprozesse quantifizieren zu können. In fünf Untersuchungsgebieten in Deutschland, Luxemburg und Spanien wurden experimentelle Geländemessmethoden zur Quantifizierung von Oberflächenabflussbildung und Bodenerosion eingesetzt. Je nach geographischer Lage der Testgebiete sind unterschiedliche Einflussgrößen wichtig für die Abflussreaktion und den Bodenabtrag. Jahreszeit und Vorfeuchte des Bodens können zu verschiedenen Systemzuständen führen und damit die Oberflächenabflussbildungs- und Bodenerosionsraten beeinflussen. Die Verwendung von experimentellen Messmethoden (Beregnungen) ermöglicht es uns, die Reaktion derselben Flächen bei unterschiedlichen Ausgangsbedingungen auf ein und dasselbe (simulierte) Niederschlagsereignis zu messen. Durch die Kombination mit Geländekartierungen und GIS-Auswertungen wird eine qualitative Übertragung der punktuellen Messergebnisse auf die Fläche ermöglicht. In den beiden Untersuchungsgebieten in Deutschland wurden häufig hydrophobe Eigenschaften der Böden festgestellt. Durch diese Hydrophobizität dringt ein Teil des Niederschlagswassers gar nicht bis zum Mineralboden durch, sondern wird in der Streuschicht gehalten oder fließt innerhalb der Streuschicht ab. Dies führt zu einer Erhöhung der Oberflächenabflussraten. Auch der Einfluss der Landnutzung auf die Intensität der Oberflächenprozesse konnte für die Testgebiete in Deutschland und Luxemburg nachgewiesen werden. Auf Wegen und Fahrspuren, sowie auf Ackerflächen wurden die höchsten Oberflächenabfluss- und Bodenabtragsraten gemessen. Aber auch hydrophobe Waldstandorte zeigten hohe Oberflächenabflussraten, allerdings keinen nennenswerten Bodenabtrag, weil die Humusauflage die Bodenoberfläche schützt. Die im Rahmen dieser Arbeit verwendeten Rinnenerosionsversuche ermöglichen es, die Effizienz natürlicher Erosionsrinnen zu messen und zu vergleichen. Durch die Verwendung von beiden Methoden, Beregnung und Rinnenerosionsversuch, können die im Rinneneinzugsgebiet gemessenen Abtragsraten und -mengen mit den Abtragswerten der Erosionsrinne selbst verglichen werden. Insgesamt kann festgestellt werden, dass die Ergebnisse der experimentellen Messungen in Kombination mit einer Kartierung der aktuellen Geomorphodynamik sowie der Auswertung großmaßstäbiger Luftbilder, eine Quantifizierung der aktuellen Prozessdynamik ermöglichen.
Auf Grundlage von handlungstheoretischen Modellvorstellungen wird ein Schichtenmodell des Entschlussaktes "Berufswahl" entwickelt, das chronologische und diachronische sowie prozessuale und strukturelle Perspektiven verbindet. Vier ineinander eingebettete Schichten werden differenziert: Hintergrundvariablen (etwa schulische Umwelt, Geschlecht, sozioökonomischer Status) Lernerfahrungen (Explorationen, Selektionen, Widerfahrnisse; Menschen, Medien, Ereignisse; Alternativen, Wissen, Bewertung), Entscheidungsgrundlagen (Interessen, Kompetenzüberzeugungen, berufliche Werte; berufliche Optionen; Entscheidungsstile), Entscheidung (kurzfristige und langfristige Ziele, Entscheidungsstatus, Bewertung der Entscheidung). Zur Überprüfung des Modells wird ein umfangreicher Datensatz einer Stichprobe von insgesamt 504 Schülerinnen und Schülern der Abschlussklassen von Hauptschule, Realschule und Gymnasium sowie der achten bis zehnten Hauptschulklasse analysiert. Das Schichtenmodell konnte in seinem grundlegenden Aufbau bestätigt werden. Insbesondere erwies sich die entwickelte Taxonomie von Lernerfahrungen, zu der bislang keine vergleichbare Konzeption vorlag, als effiziente Vorlage für weitere Forschungsarbeiten. Tradierte, aber auch aktuelle Erwartungen hinsichtlich der Rolle des Geschlechts für berufliche Entscheidungen werden kritisch diskutiert. Die Bedeutung der schulischen Umwelt für berufswahlrelevante Lernerfahrungen und für die Ausgestaltung des beruflichen Entschlusses wird herausgearbeitet. Abschließend werden Forschungsdesiderata sowie Empfehlungen für die Beratungs- und Unterrichtspraxis abgeleitet.
Although it has been demonstrated that nociceptive processing can be modulated by heterotopically and concurrently applied noxious stimuli, the nature of brain processes involved in this percept modulation in healthy subjects remains elusive. Using functional magnetic resonance imaging (fMRI) we investigated the effect of noxious counter-stimulation on pain processing. FMRI scans (1.5 T; block-design) were performed in 34 healthy subjects (median age: 23.5 years; range: 20-31 yrs.) during combined and single application (duration: 15 s; ISI=36 s incl. 6 s rating time) of noxious interdigital-web pinching (intensity range: 6-15 N) and contact-heat (45-49 -°C) presented in pseudo-randomized order during two runs separated by approx. 15 min with individually adjusted equi-intense stimuli. In order to control for attention artifacts, subjects were instructed to maintain their focus either on the mechanical or on the thermal pain stimulus. Changes in subjective pain intensity were computed as percent differences (∆%) in pain ratings between single and heterotopic stimulation for both fMRI runs, resulting in two subgroups showing a relative pain increase (subgroup P-IN, N=10) vs. decrease (subgroup P-DE, N=12). Second level and Region of Interest analysis conducted for both subgroups separately revealed that during heterotopic noxious counter-stimulation, subjects with relative pain decrease showed stronger and more widespread brain activations compared to subjects with relative pain increase in pain processing regions as well as a fronto-parietal network. Median-split regression analyses revealed a modulatory effect of prefrontal activation on connectivity between the thalamus and midbrain/pons, supporting the proposed involvement of prefrontal cortex regions in pain modulation. Furthermore, the mid-sagittal size of the total corpus callosum and five of its subareas were measured from the in vivo magnetic resonance imaging (MRI) recordings. A significantly larger relative truncus size (P=.04) was identified in participants reporting a relative decrease of subjective pain intensity during counter-stimulation, when compared to subjects experiencing a relative pain increase. The above subgroup differences observed in functional and structural imaging data are discussed with consideration of potential differences in cognitive and emotional aspects of pain modulation.
In her poems, Tawada constructs liminal speaking subjects – voices from the in-between – which disrupt entrenched binary thought processes. Synthesising relevant concepts from theories of such diverse fields as lyricology, performance studies, border studies, cultural and postcolonial studies, I develop ‘voice’ and ‘in-between space’ as the frameworks to approach Tawada’s multifaceted poetic output, from which I have chosen 29 poems and two verse novels for analysis. Based on the body speaking/writing, sensuality is central to Tawada’s use of voice, whereas the in-between space of cultures and languages serves as the basis for the liminal ‘exophonic’ voices in her work. In the context of cultural alterity, Tawada focuses on the function of language, both its effect on the body and its role in subject construction, while her feminist poetry follows the general development of feminist academia from emancipation to embodiment to queer representation. Her response to and transformation of écriture féminine in her verse novels transcends the concept of the body as the basis of identity, moving to literary and linguistic, plural self-construction instead. While few poems are overtly political, the speaker’s personal and contextual involvement in issues of social conflict reveal the poems’ potential to speak of, and to, the multiply identified citizens of a globalised world, who constantly negotiate physical as well as psychological borders.
Psychotherapeutische Maßnahmen wirken im Mittel, doch ist unklar, ob eine Therapie bei einem konkreten Patienten auch ihre (maximale) Wirkung zeigt. Befunde der Patientenorientierten Versorgungsforschung zur Wirksamkeit von Feedback zeigen, dass eine Verbesserung des Therapieergebnisses durch Qualitätssicherungsmaßnahmen wie z.B. kontinuierliches Monitoring möglich ist. Diese Forschung und ihre praktische Anwendung machen es nötig, Daten am Einzelfall wiederholt zu erheben. Damit wird es unumgänglich, die Messungen effizienter zu gestalten. Diese Arbeit widmet sich der Frage, wie Mischverteilungsmodelle (Item Response/ Rasch-Modell sowie Latent Profile Analysis) dazu genutzt werden können, Fragebögen (weiter-) zu entwickeln, die mit kürzerem Umfang für diese Zwecke besser eingesetzt werden können. Gegen die Verwendung von Mischverteilungsmodellen sprach lange, dass spezielle Software und Training erforderlich waren und dies im Praxiskontext nicht machbar war. Mit R steht eine freie Softwareumgebung zur Verfügung, die die Schätzung einer ganzen Fülle von Modellen möglich macht, auch von Mischverteilungsmodellen. Da Qualitätssicherung bei frei verfügbarer Software nötig ist, widmet sich Studie I der Frage, ob drei zentrale Pakete zur Schätzung von Rasch-Modellen in der R-Umgebung (eRm, ltm, mixRasch; Details siehe unten) zu akzeptablen Schätzergebnissen führen, d.h. zur Nutzung empfohlen werden können. Hierzu wurden in einer Simulationsstudie die Itemzahl, Stichprobengröße und Verteilung der Stichprobe systematisch variiert und der Effekt auf die Schätzgenauigkeit geprüft. Es zeigte sich, dass alle drei Schätzalgorithmen unter den realisierten Bedingungen zu zufriedenstellenden Genauigkeiten kommen und die Verteilungsform unter den gewählten Bedingungen keinen Einfluss auf die Genauigkeit hatte. Studie II nutzte das Rasch-Modell um für ein Maß psychischer Belastung Kurzformen für spezifische Erhebungszwecke zu entwickeln: (1) verkürzte Erhebung beim Screening und (2) verkürzte Erfassung im hohen Belastungsbereich. Die Kurzformen wurden mittels Bootstrap und Kreuzvalidierung dahingehend geprüft, ob sie replizierbar eine bessere Messqualität erbrachten als andere Itemauswahlen aus dem Fragebogen, was sich bestätigte. Durch die Verwendung des Rasch-Modells sind die so erstellten Kurzformen miteinander und auch mit der Vollversion vergleichbar. Dies macht auch ohne die Verwendung spezieller Software (teil-)adaptives Testen möglich. Studie III untersuchte wie drei Methoden genutzt werden können um festzustellen, welche Items eines Tests sich über den Verlauf einer Therapie als veränderungssensitiv erweisen. Hierzu wurden mittels einer Bevölkerungsstichprobe und den Prä- und Post-Erhebungen einer ambulanten Behandlungsstichprobe Items aus einer Beschwerden-Skala verwendet. Die drei Methoden waren (1) herkömmliche Mittelwertsvergleiche, (2) Auswahl über Bootstrap-Konfidenzintervalle und (3) Auswahl mittels einer Latent Profile Analysis, die latente Klassen von Varianzmustern um die Itemmittelwerte schätzte. Das Bootstrap-Verfahren erwies sich am Konservativsten (4 Items) während die Auswahl mittels herkömmlicher Mittelwertsvergleiche am liberalsten war (9 Items). Die Effektstärken und Reliabilitäten der Kurzfassungen waren alle im akzeptablen Bereich. Die Diskussion beginnt mit einer knappen Zusammenfassung der Ergebnisse der drei Studien. Im Anschluss werden die Ergebnisse der Studien auf übergreifende Aspekte bezogen. Dies sind faktorielle Validität, die Angemessenheit von Item Response Modellen zur Repräsentation psychische Belastung und die Anforderungen, die Kurzversionen letztlich erfüllen können. Insgesamt lässt sich festhalten, dass die Methoden nützliche Werkzeuge zur spezifischen Untersuchung von Skalen und zur Erstellung von Kurzformen darstellen. Besonders der in Studie II vorgestellte Bootstrap-Test der Itemauswahl stellt eine relevante Ergänzung der etablierten Vorgehensweise dar, da er empirisch belegt, dass die Auswahl für den jeweiligen Zweck einer Kurzform besser geeignet ist, als andere Items. Klinisch lässt sich festhalten, dass mit statischen Kurzversionen etablierter Messinstrumente auch in Erhebungskontexten ohne computerisierte Erhebungsmethoden hochqualitative Erhebungen durchgeführt werden können.
Aggression is one of the most researched topics in psychology. This is understandable, since aggression behavior does a lot of harm to individuals and groups. A lot is known already about the biology of aggression, but one system that seems to be of vital importance in animals has largely been overlooked: the hypothalamic-pituitary-adrenal (HPA) axis. Menno Kruk and Jószef Haller and their research teams developed rodent models of adaptive, normal, and abnormal aggressive behavior. They found the acute HPA axis (re)activity, but also chronic basal levels to be causally relevant in the elicitation and escalation of aggressive behavior. As a mediating variable, changes in the processing of relevant social information is proposed, although this could not be tested in animals. In humans, not a lot of research has been done, but there is evidence for both the association between acute and basal cortisol levels in (abnormal) aggression. However, not many of these studies have been experimental of nature. rnrnOur aim was to add to the understanding of both basal chronic levels of HPA axis activity, as well as acute levels in the formation of aggressive behavior. Therefore, we did two experiments, both with healthy student samples. In both studies we induced aggression with a well validated paradigm from social psychology: the Taylor Aggression Paradigm. Half of the subjects, however, only went through a non-provoking control condition. We measured trait basal levels of HPA axis activity on three days prior. We took several cortisol samples before, during, and after the task. After the induction of aggression, we measured the behavioral and electrophysiological brain response to relevant social stimuli, i.e., emotional facial expressions embedded in an emotional Stroop task. In the second study, we pharmacologically manipulated cortisol levels 60min before the beginning of the experiment. To do that, half of the subjects were administered 20mg of hydrocortisone, which elevates circulating cortisol levels (cortisol group), the other half was administered a placebo (placebo group). Results showed that acute HPA axis activity is indeed relevant for aggressive behavior. We found in Study 1 a difference in cortisol levels after the aggression induction in the provoked group compared to the non-provoked group (i.e., a heightened reactivity of the HPA axis). However, this could not be replicated in Study 2. Furthermore, the pharmacological elevation of cortisol levels led to an increase in aggressive behavior in women compared to the placebo group. There were no effects in men, so that while men were significantly more aggressive than women in the placebo group, they were equally aggressive in the cortisol group. Furthermore, there was an interaction of cortisol treatment with block of the Taylor Aggression Paradigm, in that the cortisol group was significantly more aggressive in the third block of the task. Concerning basal HPA axis activity, we found an effect on aggressive behavior in both studies, albeit more consistently in women and in the provoked and non-provoked groups. However, the effect was not apparent in the cortisol group. After the aggressive encounter, information processing patterns were changed in the provoked compared to the non-provoked group for all facial expressions, especially anger. These results indicate that the HPA axis plays an important role in the formation of aggressive behavior in humans, as well. Importantly, different changes within the system, be it basal or acute, are associated with the same outcome in this task. More studies are needed, however, to better understand the role that each plays in different kinds of aggressive behavior, and the role information processing plays as a possible mediating variable. This extensive knowledge is necessary for better behavioral interventions.
The brain is the central coordinator of the human stress reaction. At the same time, peripheral endocrine and neural stress signals act on the brain modulating brain function. Here, three experimental studies are presented demonstrating this dual role of the brain in stress. Study I shows that centrally acting insulin, an important regulator of energy homeostasis, attenuates the stress related cortisol secretion. Studies II and III show that specific components of the stress reaction modulate learning and memory retrieval, two important aspects of higher-order brain function.
Die vorliegende Arbeit geht von der These aus, dass die Zeitthematik in ihren unterschiedlichen Aspekten eine konstitutive Rolle in Strauß" bis dato erschienenem Werk spielt und dass Strauß frühzeitig beginnt, einen eigenständigen Zugang zu dieser Problematik zu erkunden, der, ausgehend von der Alltagserfahrung, vor allem die Bereiche der Naturwissenschaften und Ästhetik einschließt. Die Kernphase dieser Aneignung wird dabei in einer über zehnjährigen Schaffensperiode in Strauß" früherem Werk verortet, in der Begrifflichkeiten aus diesem Komplex stark gehäuft auftreten. Sie lässt sich anhand von vier zentralen Werken umreißen: "Paare, Passanten", "Der junge Mann", "Die Zeit und das Zimmer" und "Beginnlosigkeit". Dabei liegt ein Hauptaugenmerk darauf, den oft tastenden, experimentellen Charakter der oft fragmentarischen Texte in einen Gesamtzusammenhang zu stellen und der chronologischen Entwicklung von Strauß" Zeitbegriff zu folgen. Als Ausgangspunkt wird ein fundamentales Ungenügen identifiziert, das der Autor in "Paare, Passanten" schrittweise anhand von Alltagsbeobachtungen konkretisiert. Strauß zeichnet hier das Bild des "Gegenwartsnarren", der in seiner beschleunigten, medial dominierten Umgebung zunehmend in die Rolle des passiven Konsument eines Informationsüberangebotes gedrängt wird. Er zieht den flüchtigen Reiz der wechselnden Bilder dem Ergründen von Sinnzusammenhängen vor und verliert dabei letztlich seinen Bezug zur Geschichte. Sowohl zu seiner eigenen, individuellen Herkunft als auch zum gemeinschaftlichen Narrativ, das zwischen den Schrecken von Holocaust und drohender atomarer Vernichtung eh bereits einen großen Teil seines sinnstiftenden Potenzials eingebüßt hat. "Der junge Mann" baut auf diesen Befund auf und verschreibt sich der Erkundung eines "neuen Zeitempfindens", das es ermöglichen soll, unsere moderne Lebenswelt in ihrer Beschleunigung und oberflächlichen Divergenz wieder als sinnerfüllt wahrzunehmen. Die Analyse der Einleitung und ersten Romankapitel zeigt, wie Strauß dazu zunächst tradierte Zeitbegriffe radikal hinterfragt und letztlich in Auseinandersetzung mit den Naturwissenschaften ein eigenes Konzept entwickelt, das er in der Folge erprobt. Anknüpfend an die Syntheseansätze von Arthur Eddington verbindet Strauß Erkenntnisse aus der Relativitätstheorie, der Thermodynamik, der Komplexitätstheorie und Kybernetik zu einem Ganzen, das der als zu eng empfundenen linearen Progression ein vielschichtiges Modell entgegensetzt, das auch Stillstand, zyklische Wiederkehr sowie zeitweilige Verjüngung und Rückläufigkeit als Konstituenten zeitlicher Abläufe begreift. Die spezielle Relativitätstheorie räumt dabei mit der Vorstellung einer absoluten physikalischen Zeit auf, die gleich einem universellen, transzendenten Uhrwerk der Welt ihren Takt und ihre Richtung aufzwänge. Sie begreift Zeit und Raum als Verhältnisse, in denen die Ereignisse zueinander stehen und die letztendlich den Dingen selbst entwachsen. Einen kontinuierlichen, gerichteten Fluss der Zeit kann die Relativitätstheorie nicht verbürgen; diese Lücke versuchen Physiker in Anschluss an Eddington mit dem Hinweis auf die Thermodynamik zu schließen. Nach deren zweiten Hauptsatz müsste das Universum als geschlossenes System einer stetigen Entropiezunahme unterliegen, die letztlich den Strom der Zeit konstituiere. In diesem globalen Fluss, und hier beruft Strauß sich auf die Komplexitätstheorie, gibt es jedoch immer wieder lokale Abweichungen und gegenläufige Entwicklungen. Strauß baut auf diesen Überlegungen auf und integriert sie tief in seine eigene Ästhetik. So greift der "Junge Mann" in seinen Erzählstimmen und in der Figurenrede nicht nur häufig Gedanken und Bilder aus der wissenschaftlichen Debatte auf, die ganze Struktur des Romans lässt sich als ein solcher Wechsel zwischen linear-gerichteten Rahmenstrukturen und divergenten Binnenelementen verstehen. Dieses Verfahren, naturwissenschaftliche Aspekte der Zeitthematik in der künstlerischen Form aufgehen zu lassen, baut Strauß in den nächsten Jahren weiter aus, wie die Arbeit exemplarisch an zwei weiteren Werken zeigt. "Die Zeit und das Zimmer" etwa zeugt in seiner ganzen Anlage von einer Auseinandersetzung mit der Quantentheorie und dem "Viele-Welten-Modell". Hier wird im fiktionalen Raum eine Welt erforscht, in der die Entscheidung zwischen mehreren Möglichkeiten keinen ausschließlichen Charakter mehr hat, sondern mehrere Alternativversionen eines Lebenswegs parallel zueinander koexistieren. "Beginnlosigkeit" schließlich entwirft analog zur "Steady-State-Theorie" eine Ästhetik, die ohne Anfang und Ende auskommt und deren "Botschaft" letztlich in die Textgestalt eingeschrieben ist. An Stelle einer linear-diskursiv aufgebauten Erzählung tritt ein Verbund von fragmentarischen Textblöcken, der zunächst inkohärent wirkt, aber durch lose thematische Bezüge, vor allem aber auch durch assoziative Anklänge und leitmotivisch wiederkehrende Bilder immer wieder auf sich selbst vor- und rückverweist. Dem Leser, der sich auf diese Textbewegung einlässt, offenbart sich im Vor- und Zurückblättern die gewünschte Leseerfahrung: Sinnkonstitution erschöpft sich nicht in einer linear-progressiven Verkettung von Vorher und Nachher, von Ursache und Wirkung. Erst wenn die "Linie" durch den "Fleck" ergänzt wird, d.h. durch Elemente des Richtungslos-Assoziativen, des Zyklus und selbst der Stase, ist eine Erkenntnishaltung erreicht, die der Vielschichtigkeit unserer Lebenswelt gerecht wird. Strauß" Projekt eines "neuen Zeitempfindens" ist damit zu einem vorläufigen Abschluss gekommen. Die Naturwissenschaften dienten dabei als zentrale Inspirationsquelle und gaben einen Erkenntnisstand vor, hinter den der Autor nicht zurückfallen wollte; letztlich gehen sie jedoch weitestgehend in ästhetischer Form auf.
Tropospheric ozone (O3) is known to have various detrimental effects on plants, such as visible leaf injury, reduced growth and premature senescence. Flux models offer the determination of the harmful ozone dose entering the plant through the stomata. This dose can then be related to phytotoxic effects mentioned above to obtain dose-response relationships, which are a helpful tool for the formulation of abatement strategies of ozone precursors. rnOzone flux models are dependant on the correct estimation of stomatal conductance (gs). Based on measurements of gs, an ozone flux model for two white clover clones (Trifolium repens L. cv Regal; NC-S (ozone-sensitive) and NC-R (ozone-resistant)) differing in their sensitivity to ozone was developed with the help of artificial neural networks (ANNs). White clover is an important species of various European grassland communities. The clover plants were exposed to ambient air at three sites in the Trier region (West Germany) during five consecutive growing seasons (1997 to 2001). The response parameters visible leaf injury and biomass ratio of NC-S/NC-R clone were regularly assessed. gs-measurements of both clones functioned as output of the ANN-based gs model, while corresponding climate parameters (i.e. temperature, vapour pressure deficit (VPD) and photosynthetic active radiation (PAR)) and various ozone concentration indices were inputs. The development of the model was documented in detail and various model evaluation techniques (e.g. sensitivity analysis) were applied. The resulting gs model was used as a basis for ozone flux calculations, which were related to above mentioned response parameters. rnThe results showed that the ANNs were capable of revealing and learning the complex relationship between gs and key meteorological parameters and ozone concentration indices. The dose-response relationships between ozone fluxes and visible leaf injury were reasonably strong, while those between ozone fluxes and NC-S/NC-R biomass ratio were fairly weak. The results were discussed in detail with respect to the suitability of the chosen experimental methods and model type.
Wegen der vielfältigen Kenntnisse und Perspektiven, die die Mitglieder von Gruppen besitzen, werden anstelle von Individuen oft Gruppen an Verhandlungen beteiligt. Allerdings konzentrierte sich die bisherige Forschung auf den Austausch und die Integration von Informationen zwischen Verhandlungsgruppen. Informationen innerhalb von Verhandlungsgruppen wurden dagegen als von den Gruppenmitgliedern geteilt angesehen. Daher wurde Informationsverarbeitung innerhalb von Verhandlungruppen und ihre Folgen für die gemeinsamen Ergebnisse der Parteien in integrativen Win-Win-Verhandlungen vernachlässigt. Im Rahmen dieser Dissertation wird angenommen, dass ein Unterschieds-Mindset (d.h. eine besondere Sensibilität für Unterschiede) (1) durch eine hohe Diversität in Gruppen aktiviert wird, (2) die Projektion von Gruppenmitgliedern auf andere Gruppenmitglieder reduziert, (3) die Qualität der ersten Forderung durch eine verbesserte Informationsverarbeitung innerhalb der Gruppen erhöht und (4) die gemeinsamen Verhandlungsergebnisse durch eine verbesserte Informationsverarbeitung innerhalb der Gruppen (5a) vor und während Zwischen-Gruppen-Verhandlungen und (5b) vor Repräsentantenverhandlungen steigert. These 1 wurde durch eine experimentelle Onlinestudie mit manipulierter Rückmeldung über hohe (vs. niedrige) Gruppendiversität (Studie 1) bestätigt. These 2 wurde durch eine experimentelle Studie mit manipulierten Online-Gruppen und komparativen Mindsets (Ähnlichkeiten vs. Unterschiede) als unabhängige Variablen (Studie 2) bestätigt. These 3 konnte von einer experimentellen Laborstudie mit Zwischen-Gruppen-Verhandlungen (Studie 3) nicht gestützt werden, wohl aber durch eine experimentelle Laborstudie mit Repräsentantenverhandlungen (Studie 4). Beide Studien unterstützen ebenfalls These 4 und 5, mit der Einschränkung, dass ein Unterschieds-Mindset die gemeinsamen Ergebnisse in einer Zwischen-Gruppen-Verhandlung nur durch die Informationsverarbeitung während der Verhandlung beeinflusst, nicht durch die Verarbeitung zuvor. Beiträge, Grenzen und Implikationen für die zukünftige Forschung werden diskutiert.
With the advent of highthroughput sequencing (HTS), profiling immunoglobulin (IG) repertoires has become an essential part of immunological research. The dissection of IG repertoires promises to transform our understanding of the adaptive immune system dynamics. Advances in sequencing technology now also allow the use of the Ion Torrent Personal Genome Machine (PGM) to cover the full length of IG mRNA transcripts. The applications of this benchtop scale HTS platform range from identification of new therapeutic antibodies to the deconvolution of malignant B cell tumors. In the context of this thesis, the usability of the PGM is assessed to investigate the IG heavy chain (IGH) repertoires of animal models. First, an innovate bioinformatics approach is presented to identify antigendriven IGH sequences from bulk sequenced bone marrow samples of transgenic humanized rats, expressing a human IG repertoire (OmniRatTM). We show, that these rats mount a convergent IGH CDR3 response towards measles virus hemagglutinin protein and tetanus toxoid, with high similarity to human counterparts. In the future, databases could contain all IGH CDR3 sequences with known specificity to mine IG repertoire datasets for past antigen exposures, ultimately reconstructing the immunological history of an individual. Second, a unique molecular identifier (UID) based HTS approach and network property analysis is used to characterize the CLLlike CD5+ B cell expansion of A20BKO mice overexpressing a natural short splice variant of the CYLD gene (A20BKOsCYLDBOE). We could determine, that in these mice, overexpression of sCYLD leads to unmutated subvariant of CLL (UCLL). Furthermore, we found that this short splice variant is also seen in human CLL patients highlighting it as important target for future investigations. Third, the UID based HTS approach is improved by adapting it to the PGM sequencing technology and applying a custommade data processing pipeline including the ImMunoGeneTics (IMGT) database error detection. Like this, we were able to obtain correct IGH sequences with over 99.5% confidence and correct CDR3 sequences with over 99.9% confidence. Taken together, the results, protocols and sample processing strategies described in this thesis will improve the usability of animal models and the Ion Torrent PGM HTS platform in the field if IG repertoire research.
This dissertation includes three research articles on the portfolio risks of private investors. In the first article, we analyze a large data set of private banking portfolios in Switzerland of a major bank with the unique feature that parts of the portfolios were managed by the bank, and parts were advisory portfolios. To correct the heterogeneity of individual investors, we apply a mixture model and a cluster analysis. Our results suggest that there is indeed a substantial group of advised individual investors that outperform the bank managed portfolios, at least after fees. However, a simple passive strategy that invests in the MSCI World and a risk-free asset significantly outperforms both the better advisory and the bank managed portfolios. The new regulation of the EU for financial products (UCITS IV) prescribes Value at Risk (VaR) as the benchmark for assessing the risk of structured products. The second article discusses the limitations of this approach and shows that, in theory, the expected return of structured products can be unbounded while the VaR requirement for the lowest risk class can still be satisfied. Real-life examples of large returns within the lowest risk class are then provided. The results demonstrate that the new regulation could lead to new seemingly safe products that hide large risks. Behavioral investors who choose products based only on their official risk classes and their expected returns will, therefore, invest into suboptimal products. To overcome these limitations, we suggest a new risk-return measure for financial products based on the martingale measure that could erase such loopholes. Under the mean-VaR framework, the third article discusses the impacts of the underlying's first four moments on the structured product. By expanding the expected return and the VaR of a structured product with its underlying moments, it is possible to investigate each moment's impact on them, simultaneously. Results are tested by Monte Carlo simulation and historical simulation. The findings show that for the majority of structured products, underlyings with large positive skewness are preferred. The preferences for variance and for kurtosis are ambiguous.
The complicated human alternative GR promoter region plays a pivotal role in the regulation of GR levels. In this thesis, both genomic and environmental factors linked with GR expression are covered. This research showed that GR promoters were susceptible to silencing by methylation and the activity of the individual promoters was also modulated by SNPs. E2F1 is a major element to drive the expression of GR 1F transcripts and single CpG dinucleotide methylation cannot mediate the inhibition of transcription in vitro. Also, the distribution of GR first exons and 3" splice variants (GRα and GR-P) is expressed throughout the human brain with no region-specific alternative first exon usage. These data mirrored the consistently low levels of methylation in the brain, and the observed homogeneity throughout the studied regions. Taken together, the research presented in this thesis explored several layers of complexity in GR transcriptional regulation.
Im Rückblick ist alles anders - Experimentelle Untersuchungen zu Distanzschätzungen mit Spiegeln
(2007)
In der vorliegenden Arbeit werden mit Hilfe von vier Experimenten die Vor- und Nachteile gekrümmter Spiegel im Verkehrskontext untersucht. Im ersten Experiment wurden hierzu Distanzschätzungen mittels der Methode der verbalen Größenschätzung erhoben. Im zweiten Experiment mussten Kollisionszeitpunkte geschätzt werden. Die Beurteilung der Situationen geschah in den ersten beiden Experimenten mit Hilfe von planen, sphärischen und asphärischen Spiegeln. Es ergaben sich keine Nachteile durch die Verwendung asphärischer Spiegel, mit dem planen Spiegel fanden sich jedoch ausgeprägte Unterschätzungen der realen Distanzen und Kollisionszeitpunkte. Im dritten Experiment wurden sphärische und teilasphärische Außenspiegel im Hinblick auf ihr nutzbares Sichtfeld und die zur Objekterkennung notwendigen Reaktionszeiten untersucht. Bei vergleichbaren Reaktionszeiten wurden bei der Objekterkennung mit teilasphärischen Spiegeln weniger Fehler gemacht. Im vierten Experiment mussten Distanzen sowohl mit Hilfe von planen und teilasphärischen Spiegeln als auch bei direkter Sicht mittels der Methode des Gehens ohne zu Sehen und der Methode der verbalen Größenschätzung beurteilt werden. Des Weiteren wurden egozentrische und exozentrische Distanzen geschätzt. Die Ergebnisse werden vor dem Hintergrund der bestehenden Literatur zu Distanzschätzungen mit Spiegeln und Kollisionszeitschätzungen diskutiert. Übereinstimmend zeigten sich mit planen Spiegeln deutliche Unterschätzungen. Dies kann nicht auf die Erhebungsmethode oder Perspektive (ego- vs. exozentrisch) zurückgeführt werden. Mit teilasphärischen Spiegeln werden Distanzen trotz starker Verzerrungen der abgebildeten Objekte relativ genau geschätzt. Die Ergebnisse werden dahingehend interpretiert, dass die Größe des verfügbaren Sichtfeldes einen stärkeren Einfluss auf die Schätzleistungen hat als die Abbildungsqualität.
This thesis considers the general task of computing a partition of a set of given objects such that each set of the partition has a cardinality of at least a fixed number k. Among such kinds of partitions, which we call k-clusters, the objective is to find the k-cluster which minimises a certain cost derived from a given pairwise difference between objects which end up the same set. As a first step, this thesis introduces a general problem, denoted by (||.||,f)-k-cluster, which models the task to find a k-cluster of minimum cost given by an objective function computed with respect to specific choices for the cost functions f and ||.||. In particular this thesis considers three different choices for f and also three different choices for ||.|| which results in a total of nine different variants of the general problem. Especially with the idea to use the concept of parameterised approximation, we first investigate the role of the lower bound on the cluster cardinalities and find that k is not a suitable parameter, due to remaining NP-hardness even for the restriction to the constant 3. The reductions presented to show this hardness yield the even stronger result which states that polynomial time approximations with some constant performance ratio for any of the nine variants of (||.||,f)-k-cluster require a restriction to instances for which the pairwise distance on the objects satisfies the triangle inequality. For this restriction to what we informally refer to as metric instances, constant-factor approximation algorithms for eight of the nine variants of (||.||,f)-k-cluster are presented. While two of these algorithms yield the provably best approximation ratio (assuming P!=NP), others can only guarantee a performance which depends on the lower bound k. With the positive effect of the triangle inequality and applications to facility location in mind, we discuss the further restriction to the setting where the given objects are points in the Euclidean metric space. Considering the effect of computational hardness caused by high dimensionality of the input for other related problems (curse of dimensionality) we check if this is also the source of intractability for (||.||,f)-k-cluster. Remaining NP-hardness for restriction to small constant dimensionality however disproves this theory. We then use parameterisation to develop approximation algorithms for (||.||,f)-k-cluster without restriction to metric instances. In particular, we discuss structural parameters which reflect how much the given input differs from a metric. This idea results in parameterised approximation algorithms with parameters such as the number of conflicts (our name for pairs of objects for which the triangle inequality is violated) or the number of conflict vertices (objects involved in a conflict). The performance ratios of these parameterised approximations are in most cases identical to those of the approximations for metric instances. This shows that for most variants of (||.||,f)-k-cluster efficient and reasonable solutions are also possible for non-metric instances.
Ausgehend davon, daß die nachweislich prominente Berichterstattung über bezahltes Dating sich nicht auf einen hohen Nachrichtenwert zurückführen läßt, sondern auf verkaufstechnische Faktoren und vor allem auf das "kulturelle Potential" des Themas Jugend, untersucht die folgende Arbeit, welche Normen und Werte in der Darstellung des Phänomens propagiert wurden, und ob sich in der Darstellung Muster erkennen lassen.
This doctoral thesis includes five studies that deal with the topics work, well-being, and family formation, as well as their interaction. The studies aim to find answers to the following questions: Do workers’ personality traits determine whether they sort into jobs with performance appraisals? Does job insecurity result in lower quality and quantity of sleep? Do public smoking bans affect subjective well-being by changing individuals’ use of leisure time? Can risk preferences help to explain non-traditional family forms? And finally, are differences in out-of-partnership birth rates between East and West Germany driven by cultural characteristics that have evolved in the two separate politico-economic systems? To answer these questions, the following chapters use basic economic subjects such as working conditions, income, and time use, but also employ a range of sociological and psychological concepts such as personality traits and satisfaction measures. Furthermore, all five studies use data from the German Socio-Economic Panel (SOEP), a representative longitudinal panel of private households in Germany, and apply state-of-the-art microeconometric methods. The findings of this doctoral thesis are important for individuals, employers, and policymakers. Workers and employers benefit from knowing the determinants of occupational sorting, as vacancies can be filled more accurately. Moreover, knowing which job-related problems lead to lower well-being and potentially higher sickness absence likely increases efficiency in the workplace. The research on smoking bans and family formation in chapters 4, 5, and 6 is particularly interesting for policymakers. The results on the effects of smoking bans on subjective well-being presented in chapter 4 suggest that the impacts of tobacco control policies could be weighed more carefully. Additionally, understanding why women are willing to take the risks associated with single motherhood can help to improve policies targeting single mothers.
Die Internationalisierung eines MNUs bezieht sich auf seine Nationalität. Prozesse, die die Aktivitäten von Firmen internationalisieren und koordinieren, sind mit den dominierenden nationalen Institutionen verbunden, die in ihren heimischen Ökonomien gegründet werden. Die dominierende Gesellschaft, die erfolgreiche Praktiken und Methoden entwickelt hat, versucht diese auf andere zu übertragen und diese zum Nachahmen zu bringen. Wenn es eine im Vergleich zu rein national operierenden Firmen größere Komplexität der Organisationsumwelt sowie eine bedeutende physische und kulturelle Distanz zwischen den Unternehmenseinheiten gibt, stellen Koordinationsstrategie und Kontrolle der Host-Country-Subsidiaries durch die MNU-Zentrale eine nicht zu unterschätzende Herausforderung dar. Bei der Betrachtung der Konzepte der Personalpolitik der MNUs ergibt sich ein Spannungsfeld zwischen konzernweiter Integration und Anpassung an die lokalen Institutionen. Wenn sich die üblichen Arbeitsbeziehungen und HRM-Praktiken der Host-Country-Subsidiary von denen des Country-of-Origin unterscheiden, so stellt sich die Frage, welche Personalpolitik die Host-Country-Subsidiaries verfolgen. Der Trade-off zwischen globaler Homogenisierung und lokaler Anpassung in den internationalen HRM-Praktiken ist in besonderem Maße von international divergierenden kulturellen und institutionellen Faktoren abhängig. Die jeweiligen nationalen Institutionen sind sicherlich eine der wichtigsten Hemmnisfaktoren. Institutionen, kulturelle Werthaltung und Rechtsvorschriften sind gerade im arbeitspolitischen Bereich stark an nationale Wirtschaftsräume gebunden und wirken daher einer international homogenen Personalpolitik entgegen. Es ist das Ziel, die Verknüpfung zwischen der HRM-Politik des Country-of-Origin der MNUs und dem Management ihrer Host-Country-Subsidiaries zu untersuchen. Im Mittelpunkt der Untersuchung stehen die Country-of-Origin-Effekte deutscher MNUs beim Ausbildungss- und Entgeltsystem und bei der Arbeitnehmermitbestimmung in deutschen Host-Country-Subsidiaries in Südkorea. Man stellt sich die Frage, welche HRM-Politik die in Korea tätigen Host-Country-Subsidiaries der deutschen MNUs betreiben. Passt sich die HRM-Politik der Host-Country-Subsidiary dem Standard des Host-Country (Korea) an oder werden die Country-of-Origin-Praktiken des deutschen MNUs grenzüberschreitend transferiert? Als empirische Untersuchungsmethode wurde hinsichtlich der Untersuchung des Country-of-Origin-Effektes die qualitative Methode gewählt. Qualitative Interviews haben sich als sehr fruchtbar erwiesen, um organisationale Prozesse in ihrem Verlauf zu untersuchen.
Wilhelm Windelband (1848-1915) gilt als ein wegbereitender Denker, der die wertphilosophische Ausrichtung der sogenannten Südwestdeutschen Schule vorzeichnet. Aufgrund dieser Vorreiterrolle sowie seiner fragmentarischen Denkweise gerät die Eigenständigkeit seines Philosophierens oft in Vergessenheit oder wird meistens im Schatten der Rezeptionsgeschichte gesehen. Die vorliegende Arbeit macht sich zur Aufgabe, Windelbands Philosophie zunächst in ihrer Eigentümlichkeit wiederherzustellen, um anschließend nach ihrer systematischen Bedeutung fragen zu können. Neben den entwicklungsgeschichtlichen Aspekten, anhand derer Windelbands gedanklicher Werdegang in drei Phasen (Psychologismus, Wertphilosophie und Kulturphilosophie) eingeteilt wird, geht die vorliegende Arbeit vor allem der Frage nach, in wie fern die von ihm konzipierte Wertphilosophie als Kulturphilosophie zu verstehen ist. Die Forderung des späten Windelbands, den Kantischen Kritizismus zu einer umfassenden Kulturphilosophie zu erweitern, dient dabei als roter Faden dieses Interpretationsversuchs. Die Herausarbeitung möglicher systematischer Ansatzpunkte innerhalb seiner Werttheorie, die dieser Forderung genügen, soll Windelbands Status als Kulturphilosoph untermauern.
The dissertation includes three published articles on which the development of a theoretical model of motivational and self-regulatory determinants of the intention to comprehensively search for health information is based. The first article focuses on building a solid theoretical foundation as to the nature of a comprehensive search for health information and enabling its integration into a broader conceptual framework. Based on subjective source perceptions, a taxonomy of health information sources was developed. The aim of this taxonomy was to identify most fundamental source characteristics to provide a point of reference when it comes to relating to the target objects of a comprehensive search. Three basic source characteristics were identified: expertise, interaction and accessibility. The second article reports on the development and evaluation of an instrument measuring the goals individuals have when seeking health information: the ‘Goals Associated with Health Information Seeking’ (GAINS) questionnaire. Two goal categories (coping focus and regulatory focus) were theoretically derived, based on which four goals (understanding, action planning, hope and reassurance) were classified. The final version of the questionnaire comprised four scales representing the goals, with four items per scale (sixteen items in total). The psychometric properties of the GAINS were analyzed in three independent samples, and the questionnaire was found to be reliable and sufficiently valid as well as suitable for a patient sample. It was concluded that the GAINS makes it possible to evaluate goals of health information seeking (HIS) which are likely to inform the intention building on how to organize the search for health information. The third article describes the final development and a first empirical evaluation of a model of motivational and self-regulatory determinants of an intentionally comprehensive search for health information. Based on the insights and implications of the previous two articles and an additional rigorous theoretical investigation, the model included approach and avoidance motivation, emotion regulation, HIS self-efficacy, problem and emotion focused coping goals and the intention to seek comprehensively (as outcome variable). The model was analyzed via structural equation modeling in a sample of university students. Model fit was good and hypotheses with regard to specific direct and indirect effects were confirmed. Last, the findings of all three articles are synthesized, the final model is presented and discussed with regard to its strengths and weaknesses, and implications for further research are determined.
Soziale Dienste in Taiwan
(2001)
Soziale Dienste sind Ausdruck einer wichtigen Form von Helfen innerhalb einer Gesellschaft. Die Entfaltungsmöglichkeit und der Entwicklungsgrad der sozialen Dienste sind nicht unabhängig von spezifischen räumlichen und zeitlichen Hintergründen, und sie werden auch von den gesamtgesellschaftlichen Bedingungen (z. B. politisch-rechtlichen, wirtschaftlichen, soziokulturellen Faktoren) beeinflusst. Um die Besonderheiten der sozialen Dienste innerhalb der taiwanesischen Gesellschaft zu verdeutlichen, sollen die oben erwähnten Hintergründe und Bedingungen analysiert und dargestellt werden. In Taiwan erfolgte die Entwicklung wohlfahrtsstaatlicher Institutionen und Programmen im Vergleich zu Westeuropa zeitlich schnellen. Dabei ist ein Zusammenhang zu sehen mit der gezielt vorangetriebenen wirtschaftlichen Modernisierung. Dies gilt auch für die Demokratisierungsbewegung, die gleichzeitig auf Druck von unten wie auf Initiative von oben ausging. Sozialpolitische Maßnahmen konnten nur dann Erfolg haben, wenn Systemvertrauen gewonnen werden konnte. Dies erwies sich in Taiwan als notwendig, weil in der taiwanesischen Gesellschaft traditionell nur eine Vertrauensbasis innerhalb überschaubarer Personenkreise bestand. In dieser Arbeit zeigte es sich, dass entgegen einer häufig geäußerten Behauptung von der Überlegenheit "asiatischer Werte" bestimmte kulturelle Muster (z. B. Drei-Generationen-Zusammenleben) angesichts eines rasanten sozialen Wandels anpassungshemmend wirken werden können. Es handelt sich im vorliegenden Fall um die innerfamiliäre Solidarität bei der Versorgung älterer Angehöriger. Wenn dieses Leitbild weiterhin Orientierung geben soll, müssen in der sich verändernden Gesellschaft unterstützende Maßnahmen entwickelt werden. Ohne entsprechende Innovationen auf diesem Gebiet und in verwandten Bereichen gerät der "Confucian welfare state" in Gefahr.
Basierend auf der konstruktivistischen Lehrtheorie wurde eine Qualifizierung zum Online-Trainer entwickelt, die den neuen Anforderungen der virtuellen Weiterbildung begegnet. Die Wirkung dieser Qualifizierung und deren Einfluss auf den Erfolg der Online-Trainer wurde untersucht. Transparenz in die Aufgaben der Trainer wird durch die Darstellung der Online-Strategie der Trainer ermöglicht. Aus der betrieblichen Weiterbildung nahmen 59 Trainer an der Experimentalgruppe und 53 Trainer an der Kontrollgruppe der untersuchten Stichprobe teil. Entgegen der Annahmen hat die Qualifizierung keinen signifikanten Einfluss auf die Online-Selbstwirksamkeit und Kohäsion der Trainer. Weiterführende Analysen mittels multidimensionaler Skalierung wiesen aber eine Wirkung auf die Online-Strategie nach. Selbststeuerung, Erfahrung und Motivation wurden als moderierende Variablen in Bezug auf die Online-Strategie bestätigt. Zudem moderiert Selbststeuerung auch den Zusammenhang zwischen Qualifizierung und Kohäsion. Die Skala Modellstruktur, die den Einsatz der Online-Strategie als Strukturierungshilfe erfasst, stellt sich als der einzige bedeutende Prädiktor für Online-Trainererfolg heraus. Ergänzend zur Untersuchung stützt ein weiterer Vergleich, der Trainer einbezieht, die weder an der Kontroll- noch Experimentalgruppe teilnahmen, dass die Qualifizierung Einfluss auf den Online-Trainererfolg hat.
This dissertation develops a rationale of how to use fossil data in solving biogeographical and ecological problems. It is argued that large amounts of fossil data of high quality can be used to document the evolutionary processes (the origin, development, formation and dynamics) of Arealsystems, which can be divided into six stages in North America: the Refugium Stage (before 15,000 years ago: > 15 ka), the Dispersal Stage (from 8,000 to 15,000 years ago: 8.0 - 15 ka), the Developing Stage (from 3,000 to 8,000 years ago: 3.0 - 8.0 ka), the Transitional Stage (from 1,000 to 3,000 years ago: 1 - 3 ka), the Primitive Stage (from 5,00 to 1,000 years ago: 0.5 - 1 ka) and the Human Disturbing Stage (during the last 500 years: < 0.5 ka). The division into these six stages is based on geostatistical analysis of the FAUNMAP database that contains 43,851 fossil records collected from 1860 to 1994 in North America. Fossil data are one of the best materials to test the glacial refugia theory. Glacial refugia represent areas where flora and fauna were preserved during the glacial period, characterized by richness in species and endemic species at present. This means that these (endemic) species should have distributed purely or primarily in these areas during the glacial period. The refugia can therefore be identified by fossil records of that period. If it is not the case, the richness in (endemic) species may not be the result of the glacial refugia. By exploring where mammals lived during the Refugium Stage (> 15 ka), seven refugia in North America can be identified: the California Refugium, the Mexico Refugium, the Florida Refugium, the Appalachia Refugium, the Great Basin Refugium, the Rocky Mountain Refugium and the Great Lake Refugium. The first five refugia coincide well with De Lattin- dispersal centers recognized by biogeographical methods using data on modern distributions. The individuals of a species are not evenly distributed over its Arealsystem. Brown- Hot Spots Model shows that in most cases there is an enormous variation in abundance within an areal of a species: In a census, zero or only a very few individuals occur at most sample locations, but tens or hundreds are found at a few sample sites. Locations where only a few individuals can be sampled in a survey are called "cool spots", and sites where tens or hundreds of individuals can be observed in a survey are called "hot spots". Many areas within the areal are uninhabited, which are called "holes". This model has direct implications for analyzing fossil data: Hot spots have a much higher local population density than cool spots. The chances to discover fossil individuals of a species are much higher in sediments located in a "hot spot" area than in a "cool spot" area. Therefore much higher MNIs (Minimum Number of Individuals) of the species should be found in fossil localities located in the hot spot than in the cool spot area. There are only a few hot spots but many cool spots within an areal of a single hypothetical species, consequently only a few fossil sites can provide with much high MNIs, whereas most other sites can only provide with very low MNIs. This prediction has been proved to be true by analysis of 70 species in FAUMAP containing over 100 fossil records. The temporal and spatial variation in abundance can be reconstructed from the temporospatial distribution of the MNIs of a species over its Arealsystem. Areas with no fossil records from the last thousands of years may be holes, and sites with much higher MNIs may be hot spots, while locations with low MNIs may be cool spots. Although the hot spots of many species can remain unchanged in an area over thousands of years, our study shows that a large shift of hot spots occurred mainly around 1,500-1,000 years ago. There are three directions of movement: from the west side to the east side of the Rockies, from the East of the USA to the east side of the Rockies and from the west side of the Rockies to the Southwest of the USA. The first two directions of shift are called Lewis and Clark- pattern, which can be verified with the observations mad by Lewis and Clark during their expedition in 1805-1806. The historical process of this pattern may well explain the 200-year-old puzzle why big game then abundant on the east side were rare on the west side of the Rocky Mountains noted by modern ecologists and biogeographers. The third direction of shift is called Bayham- pattern. This pattern can be tested by the model of Late Holocene resource intensification first described by Frank E. Bayham. The historical process creating the Bayham pattern will challenge the classic explanation of the Late Holocene resource intensification. An environmental change model has been proposed to account for the shift of hot spots. Implications of glacial refugia and hot spots areas for wildlife management and effective conservation are discussed. Suggestions for paleontologists and zooarchaeologists regarding how to provide more valuable information in their future excavation and research for other disciplines are given.
Die ubiquitäre Verbreitung von Computern hat dazu geführt, daß immer mehr Arbeitsabläufe durch Software unterstützt werden. Mit der ISO 13407 liegt eine Normierung vor, die den Entwickler von Software dazu anhält, die Anforderungen der Benutzer an sein Produkt zu berücksichtigen. In den letzten Jahrzehnten hat sich die objektorientierte Softwareentwicklung als gängige Entwicklungsmethode durchgesetzt, die durch eine Kapselung von Methoden und Daten zu Objekten und durch ein iteratives Vorgehen geprägt ist. Dieses Vorgehen und die Anforderungen der Norm rücken die Perspektive des Benutzers ins Zentrum des Interesses des Softwareentwicklers. Damit die Anforderungen der Nutzer berücksichtigt werden können, fehlt ein Werkzeug, mit dem die Sicht auf den Arbeitsvorgang effizient, vollständig und zutreffend erhoben werden kann. In der Dissertationsschrift werden zuerst die Bedürfnisse der Beteiligten am Softwareentwicklungsprozeß, nämlich die der objektorientierten Entwickler einerseits und der Benutzer andererseits, aus den gängigen theoretischen Konzepten abgeleitet. Dann wird das Instrument zur Vorgangsanalyse (IVA) vorgestellt und die Konstruktion anhand der Bedürfnissen der Beteiligten erläutert. Beim Instrument zur Vorgangsanalyse handelt es sich um eine Kombination aus strukturierten Interview und Strukturlegetechnik, die die Aufgabe des Befragten und den umgebenden Arbeitsvorgang mit Hilfe eines einfachen Paper-Pencil- Verfahrens visualisiert. Im Anschluß an die Vorstellung des Verfahrens werden anhand der Gütekriterien für qualitative Verfahren Prüfkriterien abgeleitet, um das Instrument zu validieren. Es werden vier unterschiedliche Untersuchungen mit verschiedenen Herangehensweisen an die Klärung der Prüfkriterien vorgestellt. Die Ergebnisse dieser Überprüfung belegen, daß das Instrument zur Vorgangsanalyse geeignet ist, im Prozeß der objektorientierten Softwareentwicklung die Zusammenarbeit zwischen den Entwicklern und den Benutzern zu unterstützen.
Die Beschäftigung mit dem Luxemburgischen unter phraseologischem Gesichtspunkt ist ein Phänomen der jüngsten Forschungen, das erst im Laufe der letzten beiden Jahrzehnte vermehrt Aufmerksam gefunden hat. Trotz einer bereits soliden Grundsteinlegung bietet die Phraseologie des Luxemburgischen noch reichlich Untersuchungsfläche. Die Dissertation "Formelhafte Sprache in der Chambre des Députés: Eine empirische Untersuchung der Phrasemverwendung im Luxemburgischen anhand der öffentlichen Sitzungsprotokolle der Abgeordnetenkammer" befasst sich mit dem Gebrauch des Luxemburgischen in politischen Reden, mit Schwerpunkt auf formelhafter Sprache, sogenannten Phraseologismen, wie etwa Routineformeln (z. B.: Dir Dammen an Dir Hären…; wéi scho gesot…), Sprichwörter (z. B.: Déi aarm Leit kache mat Waasser; Wie schnell geet, geet duebel), Paarformeln (z. B.: de Sënn an den Zweck; ëmmer an iwwerall), komparative Phraseologismen (z. B.: eppes läit engem um Mo wéi eng Zill) und andere vorgefertigte Sprachelemente, die meistens in einer verfestigten Form vorkommen und häufig dazu dienen, bestimmte Kommunikationssituationen zu bewältigen. In diesen Reden spielen Phraseologismen unbestreitbar eine wichtige Rolle, seien es bewusst eingesetzte Wortverbindungen, die rhetorisch überzeugen sollen oder unbewusst vorkommende Phraseologismen, die den Redefluss und die Formulierung erleichtern. Zudem zeigt die Formelhaftigkeit sich in dieser Textsorte umso stärker, weil es in den Sitzungen der Abgeordnetenkammer, ebenso wie in anderen Parlamenten auch, eine Fülle von fest vorgeschriebenen Abläufen und festgelegte Rollen mit eigenen ritualisierten Redeanteilen gibt. Die in den stenographischen Protokollen aufgezeichneten Reden und Debatten aus dem luxemburgischen Parlament bilden also die Grundlage der Untersuchung. Im Vorfeld wurde ein Untersuchungkorpus zusammengestellt, indem die betreffenden Sprachelemente (Phraseme) manuell exzerpiert wurden. Diese wurden in eine Datenbank eingetragen, nach mehreren Kriterien klassifiziert und mit zusätzlichen Metainformationen angereichert. Der Hauptteil der Untersuchung besteht in der Analyse der im Textkorpus vorkommenden Phraseme innerhalb ihres Kontextes in den Abgeordnetenreden, um die unterschiedlichen (stilistischen, rhetorischen, etc.) Funktionen und Effekte herauszuarbeiten, die sie in den jeweiligen Redestellen erfüllen. Dieses Vorgehen ist von großer Bedeutung, um zu erkennen, wie wichtig solche verfestigten Ausdrücke und formelhaften Elemente für die Sprache sind und welche zentrale Rolle sie in den untersuchten Reden und im Luxemburgischen im Allgemeinen spielen. Daneben werden auch quantitative Aspekte untersucht (z. B. allgemeine Phraseologismenfrequenz; Verteilung auf unterschiedliche Phraseologismusklassen; Phrasemvorkommen in unterschiedlichen Zeitschnitten), damit die ausgewählten Texte auch mit anderen Textsorten oder mit Parlamentsreden aus anderen Sprachen vergleichbar sind hinsichtlich des Gebrauchs von formelhaften/phraseologischen Elementen.
Background and rationale: Changing working conditions demand adaptation, resulting in higher stress levels in employees. In consequence, decreased productivity, increasing rates of sick leave, and cases of early retirement result in higher direct, indirect, and intangible costs. Aims of the Research Project: The aim of the study was to test the usefulness of a novel translational diagnostic tool, Neuropattern, for early detection, prevention, and personalized treatment of stress-related disorders. The trial was designed as a pilot study with a wait list control group. Materials and Methods: In this study, 70 employees of the Forestry Department Rhineland-Palatinate, Germany, were enrolled. Subjects were block-randomized according to the functional group of their career field, and either underwent Neuropattern diagnostics immediately, or after a waiting period of three months. After the diagnostic assessment, their physicians received the Neuropattern Medical Report, including the diagnostic results and treatment recommendations. Participants were informed by the Neuropattern Patient Report, and were eligible to an individualized Neuropattern Online Counseling account. Results: The application of Neuropattern diagnostics significantly improved mental health and health-related behavior, reduced perceived stress, emotional exhaustion, overcommitment and possibly, presenteeism. Additionally, Neuropattern sensitively detected functional changes in stress physiology at an early stage, thus allowing timely personalized interventions to prevent and treat stress pathology. Conclusion: The present study encouraged the application of Neuropattern diagnostics to early intervention in non-clinical populations. However, further research is required to determine the best operating conditions.
Die ältesten bekannten jüdischen Grabsteine in den Rheinlanden befinden sich in Mainz und Worms. Ihre Inschriften werden dem 11. Jahrhundert n. Chr. zugeordnet und sind meistens datiert. Möglicherweise noch früher ist die undatierte Inschrift von Heilbronn anzusetzen, die aber vielleicht gar kein Epitaph ist. In dieser Untersuchung wird nach der Einleitung (Vorstellung eines namenkundlich-geschichtswissenschaftlichen Projekts) zunächst der Wert jüdischer Epitaphe für die onomastische Forschung aufgezeigt, die regionale Verteilung der rheinischen jüdischen Grabsteine des Mittelalters beschrieben und die Abgrenzung historischer Phasen erörtert. Bei der Prüfung der Heilbronner Inschrift und ihres Umfelds ergaben sich bisher unbeachtete Aspekte, deren Bedeutung für die Einordnung dieses Epigraphs aufgezeigt wird. Die anschließenden Analysen und Erörterungen richten sich nach einer Abfolge, die auch bei der Untersuchung der datierten Grabinschriften beachtet wird: Nach der Behandlung von Datierungsfragen wird der Blick auf die onomastischen Felder Name(n), Attribut(e), Bindeglied(er), Schrift(en), Sprache(n) und Kette(n) gerichtet. Der jeweils angefügte Vergleich mit antiken jüdischen Inschriften ist nach ebendiesem Muster aufgebaut. So wird beispielsweise nicht nur die Verbreitung des mit der Heilbronner Inschrift überlieferten Namens Nathan im Mittelalter skizziert, sondern auch konstatiert, daß dieser biblische Name in dem betreffenden Vergleichsmaterial der Antike nicht zu finden ist. Aus arbeits- und darstellungsökonomischen Gründen wird bei der Behandlung der erwähnten Grabsteine in Mainz und Worms unterschieden zwischen denjenigen Teilaufgaben, die alle diesbezüglichen Inschriften der Zeit vor dem Ersten Kreuzzug betreffen, und denjenigen, die sich auf die speziellen Angaben des einzigen bekannten Epitaphs der Phase Ia (bis ca. a. 1050) beziehen. Die erstgenannten Teilaufgaben werden in dieser Grundlegung erörtert, dagegen die speziellen Angaben der Epitaphe der Phase Ib (ca. a. 1050-1100) erst in einer künftigen Publikation ausführlicher besprochen. Zu den generellen Beobachtungen bei den Vergleichen nicht nur mit antiken, sondern auch mit späteren jüdischen (Grab-)Inschriften u. a. in Italien (bes. Venosa), Spanien und Frankreich gehört, dass man sich in der Antike bei der Zählung der Jahre auf die nichtjüdische Herrschaftsausübung (wie römische Konsuln) bezog, während man im Mittelalter spezifisch jüdisch ("nach der Zerstörung des Tempels", "nach der Erschaffung der Welt") zählte. Weiterhin ist z. B. bemerkenswert, dass die jüdischen Epitaphe nach ca. 750 ausschließlich mit hebräischen Buchstaben geschrieben wurden ("Schriftgrenze") und dass von den untersuchten nur rheinische den Zusatz Lifrat "nach der Zählung" aufweisen. Eine rheinische Spezialität ist zudem die auffällige Häufigkeit des biblischen Namens Jehuda und die Verbreitung von Senior/Schneior, wobei, von dem lateinischen Wort ausgehend, in der Untersuchung verschiedene Positionen zur sprach- und regionalhistorischen Einordnung dieses Namens erwogen und linguistische Fakten und Faktoren besonders aus der Perspektive der germ.-deutschen Majoritätskomponente des Jiddischen und aus romanistischer Sicht erörtert werden. Spezifika der jüdischen Namenwelt werden bei der Darstellung onomastischer Ketten erstmals in angemessener Detailbeachtung berücksichtigt, was entsprechende Vergleiche entscheidend befördert. Ergänzt wird die Abhandlung nicht nur u. a. durch Kontextwiedergaben und 28 Tabellen, sondern auch durch sechs umfangreiche Exkurse, in denen neben philologischen (z. B. Diminutivbildungen) und literarischen Fragen auch solche anderer Disziplinen wie archäologisch-historischer in den Blick genommen werden.
During and after application, pesticides enter the atmosphere by volatilisation and by wind erosion of particles on which the pesticide is sorbed. Measurements at application sites revealed that sometimes more than half of the amount applied is lost into the atmosphere within a few days. The atmosphere is an important part of the hydrologic cycle that can transport pesticides from their point of application and deposit them into aquatic and terrestrial ecosystems far from their point of use. In the region of Trier pesticides are widely used. In order to protect crops from pests and increase crop yields in the viniculture, six to eight pesticide applications take place between May and August. The impact that these applications have on the environmental pollution of the region is not yet well understood. The present study was developed to characterize the atmospheric presence, temporal patterns, transport and deposition of a variety of pesticides in the atmosphere of the area of Trier. To this purpose, rain samples were weekly collected at eight sites during the growing seasons 2000, 2001 and 2002, and air samples (gas and particle phases) were collected during the growing season 2002. Multiresidue analysis methods were developed to determine multiple classes of pesticides in rain water, particle- and gas-phase samples. Altogether 24 active ingredients and 3 metabolites were chosen as representative substances, focussing mainly on fungicides. Twenty-four of the 27 measured pesticides were detected in the rain samples; seventeen pesticides were detected in the air samples. The most frequently detected pesticides and at the highest concentrations, both in rain and air, were compounds belonging to the class of fungicides. The insecticide methyl parathion was also detected in several rain samples as well as two substances that are banned in Germany, such as the herbicides atrazine and simazine. Concentration levels varied during the growing season with the highest concentrations being measured in the late spring and summer months, coinciding with application times and warmer months. Concentration levels measured in the rain samples were, generally, in the order of rnng l-1. Though average concentrations for single substances were less than 100 ng l-1, total concentrations were considerable and in some instances well above the EU drinking water quality standard of 500 ng l-1 for total pesticides. Compared to the amounts applied for pest control, the amounts deposited by rain resulted between 0,004% and 0,10% of the maximum application rates. These low pesticide inputs from precipitation to surface-water bodies is not of concern in vinicultural areas where the impact of other sources, such as superficial runoff inputs from the treated areas and cleaning of field crop sprayers, is more important. However, the potential impacts of these aerial pesticide inputs to non-target sites, such as organic crops, and sensitive ecosystems are as yet not known. Concentration levels in the air samples were in the order of ng m-3 at sites close to the fields were pesticides were applied, while lower values, in the order of pg m-3, were detected at the site located further away from fields where applications were performed. The measured air concentration levels found in this study do not represent a concern for human health in terms of acute risk. Inhalation toxicity studies have shown that an acute potential risk only arises at air concentrations in the range of g m-3. Finally, it must be kept in mind that only a small number of chemicals that were applied in the area were analysed for in this study. In order to gain a better evaluation of the local atmospheric load of pesticides, a wider spectrum of applied substances (including metabolites) needs to be investigated.
Die vorliegende empirische Untersuchung nimmt eine gezielte Betrachtung der Auswirkungen des Working Capital Managements als Ganzem sowie seiner Teilkomponenten für die operative Profitabilität und das Bonitätsrating (d.h. im Ergebnis über seine Bedeutung für die Innen- und die Außenfinanzierung) deutscher mittelständischer Unternehmen vor. Darüber hinaus wird untersucht, in wie weit größenspezifische Unterschiede bei der Wirkung der einzelnen Komponenten des Working Capital Managements auf die operative Profitabilität und das Bonitätsrating bestehen, ob also die Stärke der ggf. zu beobachtenden Effekte für kleinere Unternehmen anders ausgeprägt ist als für größere Unternehmen. Zudem wird untersucht, ob sich die Stärke der zu beobachtenden Effekte in unterschiedlichen konjunkturellen Rahmenbedingungen jeweils verändert, um Erkenntnisse darüber zu gewinnen, ob und in wie weit Working Capital Management zur Verbesserung der Krisenresistenz mittelständischer Unternehmen beitragen kann.
Markenaufbau von Destinationen ist eine kostenintensive und langfristige Angelegenheit. In den vergangenen Jahren stieg das Interesse von Kommunen, Regionen und Ländern die Markenbildung zu verstärken. Gleichzeitig wird aber auch immer mehr der Ruf lauter ein Instrument zu schaffen, das Markenbewertung für Destinationen vornimmt. Vor allem in der Konsumgüter und Investitionsgüterindustrie finden sich zahlreiche Ansätze zur Markenbewertung, im Destinationsmanagement gibt es das bisher kaum. Es gibt drei verschiedene Arten von Verfahren, die meist von Unternehmensberatungen oder Wissenschaftlern entwickelt wurden: Messung des Markenwertes, Messung der Markenstärke und hybride Verfahren. Für Destinationen machen rein quantitative Verfahren wenig Sinn, da es beim Thema "Reise" auch auf eine Vielzahl von qualitativen Merkmalen ankommt. Von daher wurde im Rahmen dieser Dissertation entschieden, sich primär auf ein qualitatives Verfahren zu konzentrieren und verschiedene Modelle der Markenbewertung zu überprüfen. Das Resultat der Überprüfung zeigte, dass es notwendig war verschiedene Modelle zu kombinieren, um damit die Markenstärke einer Destination zu messen. Als empirisches Beispiel wurde hier Spanien ausgewählt, da dies als ein erfolgreiches Beispiel für Branding in der Fachliteratur gesehen wird. Dieses neu entwickelte Verfahren wurde an der Destination Spanien überprüft im Rahmen einer Projektstudie mit Studierenden der Universität Trier. Das Ergebnis zeigte, dass der Ansatz eines qualitativen Verfahrens richtig war, allerdings könnte es in ein hybrides Verfahren überführt werden. Kooperationspartner für die Dissertation war Turespana, Berlin.
My study attempts to illustrate the generic development of the family novel in the second half of the twentieth century. At its beginning stands a preliminary classification of the various types of family fiction as they are referred to in secondary literature, which is then followed by a definition of the family novel proper. With its microscopic approach to novels featuring the American family and its (post-)postmodern variations, my study marks a first step into as yet uncharted territory. Assuming that the family novel has emerged as a result of the twentieth century's emphasis on the modern nuclear family, focuses on the family as a gestalt rather than on a single protagonist, and is concerned with issues of social and cultural significance, this study examines how the family, its forms and its conflicts are functionalized for the respective author's cultural critique. From post-war to post-millennium, family novelists have sketched the American family in various precarious conditions, and their texts are critical assessments of contemporary socioeconomic and cultural conditions. My close reading of John Cheever's The Wapshot Chronicle (1957), Don DeLillo's White Noise (1985) and Jonathan Franzen's The Corrections (2001) intends to reveal, shared values as well as significant differences on a formal as well as on a thematic level. As my examination of the respective novel shows, authors react to social and cultural change with new functionalizations of the family in fiction. Unlike the general assumption of literary crticism, family novels do not approach new cultural developments in a conventional or even traditionalist manner. A comparison of White Noise with The Wapshot Chronicle demonstrates that DeLillo's postmodern family novel transcends the rather nostalgic perspective of Cheever's 1950s work. Similarly, Jonathan Franzen's fin de millennium family novel The Corrections holds a post-postmodern position, which can be aptly described by Franzen's own term 'tragical realism'. The significant changes and developments of the family novel in the past five decades demonstrate the need for a continuous reassessment of the genre, and in this respect, my study is merely a beginning.
Die Vermittlung des Grauens
(2018)
Im Rahmen meiner zweiteiligen Dissertation „Die Vermittlung des Grauens“ untersuchte ich das Einsatzpotential von Multimedia-Technologien an museal aufbereiteten Originalschauplätzen des Opfergedenkens in Frankreich und Deutschland. Vordergründig stand die Klärung der Frage, ob die heute verfügbaren technischen Hilfsmittel die traditionelle Vermittlungsarbeit sinnvoll ergänzen können. Die Forts Douaumont und Vaux in Verdun und die Alte Synagoge Essen schienen mir aufgrund ihrer stark divergierenden Musealisierungen für eine dahingehende Analyse besonders geeignet. Vor Ort widmete ich mich zum einen dem Prozess der „Vergegenwärtigung der Vergangenheit am nahezu originalbelassenen Erinnerungsort durch Multimediaguides“ und begab mich ebenso auf „Spurensuche in der Alten Synagoge Essen“, da die Neukonzeptionierung der Stätte sämtliche Erinnerungen an das örtliche Geschehen im Nationalsozialismus überzeichnet hat. Diese Umstände wirken sich dementsprechend auch unterschiedlich auf die Authentizität des jeweiligen Ortes aus, worauf das dortige Konzept reagieren und für einen angemessenen Ausgleich sorgen muss. Um die Aussagekraft demgemäß zu fördern, bieten sich heutzutage insbesondere Technologien wie Audio- und Multimediaguides an, deren Potential anhand der genannten Objekte überprüft wurde. Neben diese mittlerweile schon traditionellen Maßnahmen, traten im Laufe der Zeit weitere Präsentationsmöglichkeiten wie die Touchscreen-, Virtual oder Augmented Reality-Technologien, der QR-Code, die Nahbereichskommunikation NFC und die sogenannten Museums-Apps, die ebenso zur Sprache kamen. Dieser Umstand trägt sich nicht zuletzt dadurch, dass bei der musealen Vermittlungsarbeit das Zusammenwirken von formalen Bildungsträgern und informellen Lernorten immer mehr an Bedeutung gewinnt. Die große Herausforderung hierbei ist die altersgerechte Darbietung der Inhalte.
Objective: Only 20-25% of the variance for the two to four-fold increased risk of developing breast cancer among women with family histories of the disease can be explained by known gene mutations. Other factors must exist. Here, a familial breast cancer model is proposed in which overestimation of risk, general distress, and cancer-specific distress constitute the type of background stress sufficient to increase unrelated acute stress reactivity in women at familial risk for breast cancer. Furthermore, these stress reactions are thought to be associated with central adiposity, an independent well-established risk factor for breast cancer. Hence, stress through its hormonal correlates and possible associations with central adiposity may play a crucial role in the etiology of breast cancer in women at familial risk for the disease. Methods: Participants were 215 healthy working women with first-degree relatives diagnosed before (high familial risk) or after age 50 (low familial risk), or without breast cancer in first-degree relatives (no familial risk). Participants completed self-report measures of perceived lifetime breast cancer risk, intrusive thoughts and avoidance about breast cancer (Impact of Event Scale), negative affect (Profile of Mood States), and general distress (Brief Symptom Inventory). Anthropometric measurements were taken. Urine samples during work, home, and sleep were collected for assessment of cortisol responses in the naturalistic setting where work was conceptualized as the stressful time of the day. Results: A series of analyses indicated a gradient increase of cortisol levels in response to the work environment from no, low, to high familial risk of breast cancer. When adding breast cancer intrusions to the model with familial risk status predicting work cortisol levels, significant intrusion effects emerged rendering the familial risk group non-significant. However, due to a lack of association between intrusions and cortisol in the low and high familial risk group separately, as well as a significant difference between low and high familial risk on intrusions, but not on work cortisol levels, full mediation of familial risk group effects on work cortisol by intrusions could not be established. A separate analysis indicated increased levels of central but not general adiposity in women at high familial risk of breast cancer compared to the low and no risk groups. There were no significant associations between central adiposity and cortisol excretion. Conclusion: A hyperactive hypothalamus-pituitary-adrenal axis with a more pronounced excretion of its end product cortisol, as well as elevated levels of central but not overall adiposity in women at high familial risk for breast cancer may indicate an increased health risk which expands beyond that of increased breast cancer risk for these women.
The startle response in psychophysiological research: modulating effects of contextual parameters
(2013)
Startle reactions are fast, reflexive, and defensive responses which protect the body from injury in the face of imminent danger. The underlying reflex is basic and can be found in many species. Even though it consists of only a few synapses located in the brain stem, the startle reflex offers a valuable research method for human affective, cognitive, and psychological research. This is because of moderating effects of higher mental processes such as attention and emotion on the response magnitude: affective foreground stimulation and directed attention are validated paradigms in startle-related research. This work presents findings from three independent research studies that deal with (1) the application of the established "affective modulation of startle"-paradigm to the novel setting of attractiveness and human mating preferences, (2) the question of how different components of the startle response are affected by a physiological stressor and (3) how startle stimuli affect visual attention towards emotional stimuli. While the first two studies treat the startle response as a dependent variable by measuring its response magnitude, the third study uses startle stimuli as an experimental manipulation and investigates its potential effects on a behavioural measure. The first chapter of this thesis describes the basic mechanisms of the startle response as well as the body of research that sets the foundation of startle research in psychophysiology. It provides the rationale for the presented studies, and offers a short summary of the obtained results. Chapter two to four represent primary research articles that are published or in press. At the beginning of each chapter the contribution of all authors is explained. The references for all chapters are listed at the end of this thesis. The overall scope of this thesis is to show how the human startle response is modulated by a variety of factors, such as the attractiveness of a potential mating partner or the exposure to a stressor. In conclusion, the magnitude of the startle response can serve as a measure for such psychological states and processes. Beyond the involuntary, physiological startle reflex, startle stimuli also affect intentional behavioural responses, which we could demonstrate for eye movements in a visual attention paradigm.
Der digitale Fortschritt der vergangenen Jahrzehnte beruht zu einem großen Teil auf der Innovationskraft junger aufstrebender Unternehmen. Während diese Unternehmen auf der einen Seite ihr hohes Maß an Innovativität eint, entsteht für diese zeitgleich auch ein hoher Bedarf an finanziellen Mitteln, um ihre geplanten Innovations- und Wachstumsziele auch in die Tat umsetzen zu können. Da diese Unternehmen häufig nur wenige bis keine Unternehmenswerte, Umsätze oder auch Profitabilität vorweisen können, gestaltet sich die Aufnahme von externem Kapital häufig schwierig bis unmöglich. Aus diesem Umstand entstand in der Mitte des zwanzigsten Jahrhunderts das Geschäftsmodell der Risikofinanzierung, des sogenannten „Venture Capitals“. Dabei investieren Risikokapitalgeber in aussichtsreiche junge Unternehmen, unterstützen diese in ihrem Wachstum und verkaufen nach einer festgelegten Dauer ihre Unternehmensanteile, im Idealfall zu einem Vielfachen ihres ursprünglichen Wertes. Zahlreiche junge Unternehmen bewerben sich um Investitionen dieser Risikokapitalgeber, doch nur eine sehr geringe Zahl erhält diese auch. Um die aussichtsreichsten Unternehmen zu identifizieren, sichten die Investoren die Bewerbungen anhand verschiedener Kriterien, wodurch bereits im ersten Schritt der Bewerbungsphase zahlreiche Unternehmen aus dem Kreis potenzieller Investmentobjekte ausscheiden. Die bisherige Forschung diskutiert, welche Kriterien Investoren zu einer Investition bewegen. Daran anschließend verfolgt diese Dissertation das Ziel, ein tiefergehendes Verständnis darüber zu erlangen, welche Faktoren die Entscheidungsfindung der Investoren beeinflussen. Dabei wird vor allem auch untersucht, wie sich persönliche Faktoren der Investoren, sowie auch der Unternehmensgründer, auf die Investitionsentscheidung auswirken. Ergänzt werden diese Untersuchungen zudem durch die Analyse der Wirkung des digitalen Auftretens von Unternehmensgründern auf die Entscheidungsfindung von Risikokapitalgebern. Des Weiteren verfolgt diese Dissertation als zweites Ziel einen Erkenntnisgewinn über die Auswirkungen einer erfolgreichen Investition auf den Unternehmensgründer. Insgesamt umfasst diese Dissertation vier Studien, die im Folgenden näher beschrieben werden.
In Kapitel 2 wird untersucht, inwiefern sich bestimmte Humankapitaleigenschaften des Investors auf dessen Entscheidungsverhalten auswirken. Mithilfe vorangegangener Interviews und Literaturrecherchen wurden insgesamt sieben Kriterien identifiziert, die Risikokapitalinvestoren in ihrer Entscheidungsfindung nutzen. Daraufhin nahmen 229 Investoren an einem Conjoint Experiment teil, mithilfe dessen gezeigt werden konnte, wie wichtig die jeweiligen Kriterien im Rahmen der Entscheidung sind. Von besonderem Interesse ist dabei, wie sich die Wichtigkeit der Kriterien in Abhängigkeit der Humankapitaleigenschaften der Investoren unterscheiden. Dabei kann gezeigt werden, dass sich die Wichtigkeit der Kriterien je nach Bildungshintergrund und Erfahrung der Investoren unterscheidet. So legen beispielsweise Investoren mit einem höheren Bildungsabschluss und Investoren mit unternehmerischer Erfahrung deutlich mehr Wert auf die internationale Skalierbarkeit der Unternehmen. Zudem unterscheidet sich die Wichtigkeit der Kriterien auch in Abhängigkeit der fachlichen Ausbildung. So legen etwa Investoren mit einer fachlichen Ausbildung in Naturwissenschaften einen deutlich stärkeren Fokus auf den Mehrwert des Produktes beziehungsweise der Dienstleistung. Zudem kann gezeigt werden, dass Investoren mit mehr Investitionserfahrung die Erfahrung des Managementteams wesentlich wichtiger einschätzen als Investoren mit geringerer Investitionserfahrung. Diese Ergebnisse ermöglichen es Unternehmensgründern ihre Bewerbungen um eine Risikokapitalfinanzierung zielgenauer auszurichten, etwa durch eine Analyse des beruflichen Hintergrunds der potentiellen Investoren und eine damit einhergehende Anpassung der Bewerbungsunterlagen, zum Beispiel durch eine stärkere Schwerpunktsetzung besonders relevanter Kriterien.
Die in Kapitel 3 vorgestellte Studie bedient sich der Daten des gleichen Conjoint Experiments aus Kapitel 2, legt hierbei allerdings einen Fokus auf den Unterschied zwischen Investoren aus den USA und Investoren aus Kontinentaleuropa. Dazu wurden Subsamples kreiert, in denen 128 Experimentteilnehmer in den USA angesiedelt sind und 302 in Kontinentaleuropa. Die Analyse der Daten zeigt, dass US-amerikanische Investoren, im Vergleich zu Investoren in Kontinentaleuropa, einen signifikant stärkeren Fokus auf das Umsatzwachstum der Unternehmen legen. Zudem legen kontinentaleuropäische Investoren einen deutlich stärkeren Fokus auf die internationale Skalierbarkeit der Unternehmen. Um die Ergebnisse der Analyse besser interpretieren zu können, wurden diese im Anschluss mit vier amerikanischen und sieben europäischen Investoren diskutiert. Dabei bestätigen die europäischen Investoren die Wichtigkeit der hohen internationalen Skalierbarkeit aufgrund der teilweise geringen Größe europäischer Länder und dem damit zusammenhängenden Zwang, schnell international skalieren zu können, um so zufriedenstellende Wachstumsraten zu erreichen. Des Weiteren wurde der vergleichsweise geringere Fokus auf das Umsatzwachstum in Europa mit fehlenden Mitteln für eine schnelle Expansion begründet. Gleichzeitig wird der starke Fokus der US-amerikanischen Investoren auf Umsatzwachstum mit der höheren Tendenz zu einem Börsengang in den USA begründet, bei dem hohe Umsätze als Werttreiber dienen. Die Ergebnisse dieses Kapitels versetzen Unternehmensgründer in die Lage, ihre Bewerbung stärker an die wichtigsten Kriterien der potenziellen Investoren auszurichten, um so die Wahrscheinlichkeit einer erfolgreichen Investitionsentscheidung zu erhöhen. Des Weiteren bieten die Ergebnisse des Kapitels Investoren, die sich an grenzüberschreitenden syndizierten Investitionen beteiligen, die Möglichkeit, die Präferenzen der anderen Investoren besser zu verstehen und die Investitionskriterien besser auf potenzielle Partner abzustimmen.
Kapitel 4 untersucht ob bestimmte Charaktereigenschaften des sogenannten Schumpeterschen Entrepreneurs einen Einfluss auf die Wahrscheinlichkeit eines zweiten Risikokapitalinvestments haben. Dazu wurden von Gründern auf Twitter gepostete Nachrichten sowie Information von Investitionsrunden genutzt, die auf der Plattform Crunchbase zur Verfügung stehen. Insgesamt wurden mithilfe einer Textanalysesoftware mehr als zwei Millionen Tweets von 3313 Gründern analysiert. Die Ergebnisse der Studie deuten an, dass einige Eigenschaften, die typisch für Schumpetersche Gründer sind, die Chancen für eine weitere Investition erhöhen, während andere keine oder negative Auswirkungen haben. So erhöhen Gründer, die auf Twitter einen starken Optimismus sowie ihre unternehmerische Vision zur Schau stellen die Chancen auf eine zweite Risikokapitalfinanzierung, gleichzeitig werden diese aber durch ein zu starkes Streben nach Erfolg reduziert. Diese Ergebnisse haben eine hohe praktische Relevanz für Unternehmensgründer, die sich auf der Suche nach Risikokapital befinden. Diese können dadurch ihr virtuelles Auftreten („digital identity“) zielgerichteter steuern, um so die Wahrscheinlichkeit einer weiteren Investition zu erhöhen.
Abschließend wird in Kapitel 5 untersucht, wie sich die digitale Identität der Gründer verändert, nachdem diese eine erfolgreiche Risikokapitalinvestition erhalten haben. Dazu wurden sowohl Twitter-Daten als auch Crunchbase-Daten genutzt, die im Rahmen der Erstellung der Studie in Kapitel 4 erhoben wurden. Mithilfe von Textanalyse und Paneldatenregressionen wurden die Tweets von 2094 Gründern vor und nach Erhalt der Investition untersucht. Dabei kann gezeigt werden, dass der Erhalt einer Risikokapitalinvestition das Selbstvertrauen, die positiven Emotionen, die Professionalisierung und die Führungsqualitäten der Gründer erhöhen. Gleichzeitig verringert sich allerdings die Authentizität der von den Gründern verfassten Nachrichten. Durch die Verwendung von Interaktionseffekten kann zudem gezeigt werden, dass die Steigerung des Selbstvertrauens positiv durch die Reputation des Investors moderiert wird, während die Höhe der Investition die Authentizität negativ moderiert. Investoren haben durch diese Erkenntnisse die Möglichkeit, den Weiterentwicklungsprozess der Gründer nach einer erfolgreichen Investition besser nachvollziehen zu können, wodurch sie in die Lage versetzt werden, die Aktivitäten ihrer Gründer auf Social Media Plattformen besser zu kontrollieren und im Bedarfsfall bei ihrer Anpassung zu unterstützen.
Die in den Kapiteln 2 bis 5 vorgestellten Studien dieser Dissertation tragen damit zu einem besseren Verständnis der Entscheidungsfindung im Venture Capital Prozess bei. Der bisherige Stand der Forschung wird um Erkenntnisse erweitert, die sowohl den Einfluss der Eigenschaften der Investoren als auch der Gründer betreffen. Zudem wird auch gezeigt, wie sich die Investition auf den Gründer selbst auswirken kann. Die Implikationen der Ergebnisse, sowie Limitationen und Möglichkeiten künftiger Forschung werden in Kapitel 6 näher beschrieben. Da die in dieser Dissertation verwendeten Methoden und Daten erst seit wenigen Jahren im Kontext der Venture Capital Forschung genutzt werden, beziehungsweise überhaupt verfügbar sind, bietet sie sich als eine Grundlage für weitere Forschung an.
Im Leistungssport ist ein gesunder Körper die Hauptvoraussetzung für das Erbringen sportlicher Höchstleistungen. Allerdings müssen Leistungssportler tagtäglich in Training und Wettkampf gesundheitliche Risiken eingehen. Aus diesem Dilemma wird ein Trilemma, sobald es sich um jugendliche Leistungssportler handelt, da das Jugendalter mit all den Veränderungen auf psychischer, physischer und sozialer Ebene, die es mit sich bringt, häufig das Einstiegsalter für gesundheitsrelevante Risikoverhaltensweisen wie den Konsum von Alkohol, Tabak und Marihuana bildet. Diese können zusätzlich Auswirkungen auf die Gesundheit und damit das Erbringen sportlicher Leistung haben. Aus diesem Grund war es das Ziel dieser Dissertation, das gesundheitsrelevante Risikoverhalten und die subjektive Gesundheit in der speziellen Gruppe jugendlicher Leistungssportler zu untersuchen, mit einer jugendlicher Referenzstichprobe bestehend aus Nicht-Leistungssportlern zu vergleichen und assoziierte Determinanten - sowohl individueller als auch kontextueller Natur - zu identifizieren. Dazu wurden im Rahmen der GOAL Study (German Young Olympic Athletes" Lifestyle and Health Management Study) 1.138 jugendliche Leistungssportler aller olympischer Disziplinen schriftlich befragt. Ausgewertet wurden neben der subjektiven Gesundheit der Konsum von Alkohol, Tabak und Marihuana, das Ernährungsverhalten und die Nutzung von Nahrungsergänzungsmitteln. Als Vergleichspopulation wurde der KiGGS (Kinder- und Jugendgesundheitssurvey) des Robert Koch-Instituts herangezogen. Es zeigte sich, dass jugendliche Leistungssportler zwar selten rauchten (3%) oder Marihuana konsumierten (3%), aber dass sie durchaus Alkohol zu sich nahmen (86%) und insbesondere Binge Drinking betrieben (24%). Bezüglich des Rauchverhaltens, des Konsums von Marihuana und des Jemalskonsums von Alkohol zeigten sie jedoch niedrigere Prävalenzen als jugendliche Nicht-Leistungssportler. Bei der Ernährung der Athleten ergaben sich teilweise Defizite. Lediglich 52% der Athleten nahmen täglich eine Auswahl an vitamin- und ballaststoffreichen Nahrungsmitteln zu sich, jedoch waren dies mehr als in der Referenzpopulation. Neun von zehn Athleten nutzten Nahrungsergänzungsmittel, davon konsumierten rund 30% täglich Supplemente. Die Mehrheit der Athleten bezeichnete ihre Gesundheit als gut oder sehr gut (89%), was einem größeren Anteil entspricht als in der Referenzgruppe (86%). Es fanden sich eine Vielzahl an individuellen und kontextuellen Determinanten mit den einzelnen Risikoverhaltensweisen und der subjektiven Gesundheit verknüpft. Insgesamt lässt sich festhalten, dass Beratung und Aufklärung bezüglich der einzelnen Risikoverhaltensweisen immens wichtig erscheinen. Beispiele für bestehenden Aufklärungsbedarf sind der übermäßige Alkoholkonsum, welcher Auswirkungen auf die Leistungsfähigkeit haben kann, die Einnahme von Nahrungsergänzungsmitteln wie Kreatin, welche für Jugendliche nicht unbedenklich ist, und der häufig vorliegende nicht-tägliche Konsum von vitamin- und ballaststoffreichen Lebensmitteln, welcher wichtig für eine adäquate Ernährung ist. Daher sollten bereits Athleten in niedrigeren Kaderstufen Experten (z. B. Ernährungsberater) zur Seite gestellt werden. Aber nicht nur die Athleten sollten besser geschult werden sondern auch deren Trainer, Betreuer und Eltern, die allesamt wichtige Bezugspersonen darstellen.
Stress has been considered one of the most relevant factors promoting aggressive behavior. Animal and human pharmacological studies revealed the stress hormones corticosterone in rodents and cortisol in humans to constitute a particularly important neuroendocrine determinate in facilitating aggression and beyond that, assumedly in its continuation and escalation. Moreover, cortisol-induced alterations of social information processing, as well as of cognitive control processes, have been hypothesized as possible influencing factors in the stress-aggression link. So far, the immediate impact of a preceding stressor and thereby stress-induced rise of cortisol on aggressive behavior as well as higher-order cognitive control processes and social information processing in this context have gone mostly unheeded. The present thesis aimed to extend the hitherto findings of stress and aggression in this regard. For this purpose two psychophysiological studies with healthy adults were carried out, both using the socially evaluated-cold pressor test as an acute stress induction. Additionally to behavioral data and subjective reports, event related potentials were measured and acute levels of salivary cortisol were collected on the basis of which stressed participants were divided into cortisol-responders and "nonresponders. Study 1 examined the impact of acute stress-induced cortisol increase on inhibitory control and its neural correlates. 41 male participants were randomly assigned to the stress procedure or to a non-stressful control condition. Beforehand and afterwards, participants performed a Go Nogo task with visual letters to measure response inhibition. The effect of acute stress-induced cortisol increase on covert and overt aggressive behavior and on the processing of provoking stimuli within the aggressive encounter was investigated in study 2. Moreover, this experiment examined the combined impact of stress and aggression on ensuing affective information processing. 71 male and female participants were either exposed to the stress or to the control condition. Following this, half of each group received high or low levels of provocation during the Taylor Aggression Paradigm. At the end of the experiment, a passive viewing paradigm with affective pictures depicting positive, negative, or aggressive scenes with either humans or objects was realized. The results revealed that men were not affected by a stress-induced rise in cortisol on a behavioral level, showing neither impaired response inhibition nor enhanced aggressive behavior. In contrast, women showed enhanced overt and covert aggressive behavior under a surge of endogenous cortisol, confirming previous results, albeit only in case of high provocation and only up to the level of the control group. Unlike this rather moderate impact on behavior, cortisol showed a distinct impact on neural correlates of information processing throughout inhibitory control, aggression-eliciting stimuli, and emotional pictures for both men and women. At this, stress-induced increase of cortisol resulted in enhanced N2 amplitudes to Go stimuli, whereas P2 amplitudes to both and N2 to Nogo amplitudes retained unchanged, indicating an overcorrection and caution of the response activation in favor of successful inhibitory control. The processing of aggression-eliciting stimuli during the aggressive encounter was complexly altered by stress differently for women and men. Under increased cortisol levels, the frontal or parietal P3 amplitude patterns were either diminished or reversed in the case of high provocation compared to the control group and to cortisol-nonresponders, indicating a desensitization towards aggression-eliciting stimuli in males, but a more elaborate processing of those in women. Moreover, stress-induced cortisol and provocation jointly altered subsequent affective information processing at early as well as later stages of the information processing stream. Again, increased levels of cortisol led opposite directed amplitudes in the case of high provocation relative to the control group and cortisol-nonresponders, with enhanced N2 amplitudes in men and reduced P3 and LPP amplitudes in men and women for all affective pictures, suggesting initially enhanced emotional reactivity in men, but ensuing reduced motivational attention and enhanced emotion regulation in both, men and women. As a result, these present findings confirm the relevance of HPA activity in the elicitation and persistence of human aggressive behavior. Moreover, they reveal the significance of compensatory and emotion regulatory strategies and mechanisms in response to stress and provocation, indorsing the relevance of social information and cognitive control processes. Still, more research is needed to clarify the conditions which lead to the facilitation of aggression and by which compensatory mechanisms this is prevented.