Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (836) (entfernen)
Sprache
- Deutsch (490)
- Englisch (335)
- Mehrsprachig (7)
- Französisch (4)
Schlagworte
- Stress (37)
- Deutschland (33)
- Modellierung (18)
- Optimierung (18)
- Fernerkundung (17)
- Hydrocortison (16)
- stress (15)
- Motivation (12)
- Stressreaktion (12)
- cortisol (12)
Institut
- Psychologie (181)
- Raum- und Umweltwissenschaften (148)
- Mathematik (62)
- Wirtschaftswissenschaften (61)
- Fachbereich 4 (56)
- Fachbereich 1 (29)
- Geschichte, mittlere und neuere (28)
- Germanistik (26)
- Informatik (26)
- Kunstgeschichte (22)
Nicht von einer Hand Fallbeispiele der künstlerischen Zusammenarbeit in der Gemäldeproduktion vom 17. bis 19. Jahrhundert Das Phänomen der künstlerischen Zusammenarbeit mehrerer Maler auf einem Bildträger wurde in den vergangenen zehn Jahren in der Forschung und in der praktischen Museumsarbeit mit immer größerem Interesse betrachtet. Das hängt mit dem generellen Wandel in der Wahrnehmung von historischen Sammlungen und der Hinterfragung von tradierten Wahrnehmungsmustern in der Kunstgeschichte zusammen. Diese Dissertation hat sich die Frage nach der Entstehung dieser Form der Zusammenarbeit in verschiedenen Regionen und deren Rezeption im 18. und 19. Jahrhundert gestellt. Wenngleich in der Forschung die Kooperationstätigkeiten einzelner Künstler zunehmend Beachtung finden, so war es mein Anliegen, das Phänomen der Kooperationspraxis umfassend anhand verschiedener Fallbeispiele zu beschreiben. In vielen Fällen können diese Beispiele ergänzt und erweitert werden. Im Kern aber bleibt die Feststellung, dass die Kooperationspraxis als künstlerische Produktionsweise eine Entwicklung vollzogen hat. Kooperationen im beschriebenen Umfang hat es immer gegeben. Die produktive Phase der niederländischen und flämischen Malerei wäre im 17. Jahrhundert nicht möglich gewesen, hätten sich vor allem in Antwerpen die Maler nicht zu Kooperationsgemeinschaften zusammengeschlossen. Die Entwicklung der Genres, der Transfer unterschiedlichster Bildthemen und Motive hängt im engen Maße mit der Kooperationstätigkeit zusammen. Entscheidend für die horizontale Kooperation, also die Kooperation unter (mehr oder minder) gleichgestellten autonomen Meistern, war die Entwicklung dieser verschiedenen Genres. Einige dieser Gattungen eigneten sich besonders gut für die Praxis der Künstlerkooperation. Sie wurden zum Teil überhaupt erst durch diesen intensiven Austausch unter den Malern so erfolgreich und konnten erst durch eine ökonomische Produktionsweise in großer Menge für den freien Kunstmarkt hergestellt werden. Bei der Gegenüberstellung der Kooperationsbedingungen in Deutschland und in den Niederlanden wurden signifikante Gründe für die unterschiedliche Entwicklung der künstlerischen Zusammenarbeit herausgestellt. Im Alten Reich unterschieden sich im 16. und 17. Jahrhundert die sozial-ökonomischen Verhältnisse deutlich von denen in den südlichen und nördlichen Niederlanden. Die Grenzen zwischen der werkstattinternen Arbeitsteilung und der Kooperation zwischen autonomen Meistern verliefen fließend. Die Entwicklung in der Arbeitsweise der Maler verlief über einen langen Zeitraum und kann nicht als homogener Entwicklungsstrang festgeschrieben werden. Waren es anfangs die herrschaftlich motivierten Ansprüche für die Ausstattung der Residenzen oder für exorbitante Memorialprojekte, welche die bekanntesten Maler an einem Projekt unter der Koordination eines Höflings wirken ließen, so ging mit dem Erstarken des freien Kunstmarktes die Künstlerkooperation mit dem Ziel einer effektiven und absatzstarken Gemäldeproduktion einher. Die Produktionsverfahren des 18. und 19. Jahrhunderts folgten, mehr und mehr politischen, gesellschaftlichen und ökonomischen Motiven, wobei die Künstlerkooperation als soziales Arbeitsmodell bestätigt wurde. Damit wurde gleichsam der Weg für Künstlergemeinschaften und Künstlerkolonien geebnet, die vor allem im 20. Jahrhundert ein globales Phänomen darstellten und das künstlerische Selbstverständnis bis zum heutigen Tag prägen.
Die Arbeit versucht einen Beitrag zum besseren Verständnis von Identitifikations- und Migrationsprozessen von Russlandddeutschen zu leisten. Dabei werden die folgenden zentralen Froschungsfragen behandelt:rnGibt es die Gruppe der Russlanddeutschen aus einer Binnenperspektive? Was führt dazu, dass sich jemand als Mitglied der Gemeinschaft der Russlanddeutschen fühlt? Welche Parameter üben entscheidenden Einfluss auf Migrationsprozesse aus? Welchen Einfluss üben Identitätskonstrukte auf soziale Handlungen, wie Migration aus?
Seit 2005 wird auf der Deponie Muertendall (Luxemburg) der Wasserhaushalt einer Oberflächenabdeckung anhand eines Testfeldes untersucht. Die Deponie wurde 1979 in Betrieb genommen. 1991 wurde sie erstmals geschlossen, da ihre Kapazität ausgeschöpft war. Anschließend wurde die Deponie saniert und mit einer Basisabdichtung ausgestattet. Der sanierte Altmüllkörper wurde mit einer 80 cm starken Oberflächenabdeckung versehen. In diesem Bereich der Deponie wurde 2005 ein Testfeld angelegt, um den Wasserhaushalt der Abdeckung zu untersuchen. Ziel dieser Arbeit ist es den Wasserhaushalt der derzeitigen Abdeckung zu bilanzieren und ihre Wasserdurchlässigkeit zu beurteilen. Die Auswertung der Daten zeigt, dass zwischen 30 und 66% des Niederschlages jährlich unterhalb der Abdeckung als Drainageabfluss auftreten. Deutlich zu erkennen ist eine jahreszeitliche Abhängigkeit mit höheren Abflüssen im Winter. Der auftretende Oberflächenabfluss ist vernachlässigbar. In Hinblick auf die Wasserdurchlässigkeit ist die auf der Deponie bestehende Abdeckung nicht geeignet um die Sickerwassermengen deutlich zu minimieren. Da der Wasserhaushalt von Oberflächenabdeckungen die biologischen Abbauprozesse im Deponiekörper maßgeblich beeinflusst, wurden auf der Deponie ebenfalls Untersuchungen am Altmüllkörper durchgeführt, um Rückschlüsse auf den Fortschritt der biologischen Abbauprozesse zu gewinnen. Die ermittelten Wassergehalte im Deponiekörper liegen bei nur 33 Gew. % und sind somit nicht optimal für die biologischen Abbauprozesse. Der untersuchte Altmüll besteht zum Großteil nur noch aus der Fraktion <20 mm als Resultat der biologischen Abbauprozesse. Der übrige Teil besteht größtenteils aus Stoffgruppen, die nur noch schwer biologisch abbaubar sind. Weitere chemisch- physikalische Untersuchungen zeigen, dass im Altmüll immer noch Organik vorhanden ist, die aber durch die biologischen Abbauprozesse nur noch schwer abgebaut werden kann. Aus den gewonnen Ergebnissen werden Vorschläge für die endgültige Abdeckung der Deponie Muertendall gemacht.
Matching problems with additional resource constraints are generalizations of the classical matching problem. The focus of this work is on matching problems with two types of additional resource constraints: The couple constrained matching problem and the level constrained matching problem. The first one is a matching problem which has imposed a set of additional equality constraints. Each constraint demands that for a given pair of edges either both edges are in the matching or none of them is in the matching. The second one is a matching problem which has imposed a single equality constraint. This constraint demands that an exact number of edges in the matching are so-called on-level edges. In a bipartite graph with fixed indices of the nodes, these are the edges with end-nodes that have the same index. As a central result concerning the couple constrained matching problem we prove that this problem is NP-hard, even on bipartite cycle graphs. Concerning the complexity of the level constrained perfect matching problem we show that it is polynomially equivalent to three other combinatorial optimization problems from the literature. For different combinations of fixed and variable parameters of one of these problems, the restricted perfect matching problem, we investigate their effect on the complexity of the problem. Further, the complexity of the assignment problem with an additional equality constraint is investigated. In a central part of this work we bring couple constraints into connection with a level constraint. We introduce the couple and level constrained matching problem with on-level couples, which is a matching problem with a special case of couple constraints together with a level constraint imposed on it. We prove that the decision version of this problem is NP-complete. This shows that the level constraint can be sufficient for making a polynomially solvable problem NP-hard when being imposed on that problem. This work also deals with the polyhedral structure of resource constrained matching problems. For the polytope corresponding to the relaxation of the level constrained perfect matching problem we develop a characterization of its non-integral vertices. We prove that for any given non-integral vertex of the polytope a corresponding inequality which separates this vertex from the convex hull of integral points can be found in polynomial time. Regarding the calculation of solutions of resource constrained matching problems, two new algorithms are presented. We develop a polynomial approximation algorithm for the level constrained matching problem on level graphs, which returns solutions whose size is at most one less than the size of an optimal solution. We then describe the Objective Branching Algorithm, a new algorithm for exactly solving the perfect matching problem with an additional equality constraint. The algorithm makes use of the fact that the weighted perfect matching problem without an additional side constraint is polynomially solvable. In the Appendix, experimental results of an implementation of the Objective Branching Algorithm are listed.
Globalization and the emergence of global value chains have not only changed the way we live, but also the way economists study international economics. These changes are visible in various areas and dimension. This dissertation deals " mostly empirically " with some of these issues related to global value chains. It starts by critically examining the political economy forces determining the occurrence and the extent of trade liberalization conditions in World Bank lending agreements. The focal point is whether these are affected by the World Bank- most influential member countries. Afterwards, the thesis moves on to describe trade of the European Union member countries at each stage of the value chain. The description is based on a new classification of goods into parts, components and final products as well as a newly developed measure describing the average level of development of a countries trading partners. This descriptive exercise is followed by critically examining discrepancies between gross trade and trade in value added with respect to comparative advantage. A gravity model is employed to contrast results when studying the institutional determinants of comparative advantage. Finally, the thesis deals with determinants of regional location choices for foreign direct investment. The analysis is based on a theoretical new economic geography model and employs a newly developed index that accounts for the presence of potentially all suppliers and buyers at all stages of the value chain.
Die vorliegende empirische Untersuchung nimmt eine gezielte Betrachtung der Auswirkungen des Working Capital Managements als Ganzem sowie seiner Teilkomponenten für die operative Profitabilität und das Bonitätsrating (d.h. im Ergebnis über seine Bedeutung für die Innen- und die Außenfinanzierung) deutscher mittelständischer Unternehmen vor. Darüber hinaus wird untersucht, in wie weit größenspezifische Unterschiede bei der Wirkung der einzelnen Komponenten des Working Capital Managements auf die operative Profitabilität und das Bonitätsrating bestehen, ob also die Stärke der ggf. zu beobachtenden Effekte für kleinere Unternehmen anders ausgeprägt ist als für größere Unternehmen. Zudem wird untersucht, ob sich die Stärke der zu beobachtenden Effekte in unterschiedlichen konjunkturellen Rahmenbedingungen jeweils verändert, um Erkenntnisse darüber zu gewinnen, ob und in wie weit Working Capital Management zur Verbesserung der Krisenresistenz mittelständischer Unternehmen beitragen kann.
Weltweit untersuchen viele Wissenschaftler die Ursachen für die Entstehung und Ausdehnung industrieller Cluster. Die Ergebnisse dieser Bemühungen sind in zahlreichen empirischen Studien dokumentiert worden. Die Mehrheit der Arbeiten legt ihren Fokus auf die Entwicklung einer präzisen Messmethodik für die Konzentrationsstärke. Hierzu ist ein breites Instrumentarium an Maßzahlen bereits verfügbar und lässt sich je nach Forschungsziel erkenntnisbringend einsetzen. Dennoch bleibt die Trennung zwischen unterschiedlichen geographischen Grundmustern unzureichend. Insbesondere trifft dies auf unterschiedliche Typen der Konzentration zu. Die vorliegende Arbeit bietet eine umfassende Konzentrationsanalyse des Wirtschaftsstandorts Deutschland auf unterschiedlichen regionalen und sektoralen Aggregationsebenen. Dabei verfolgt sie das Ziel, durch eine detaillierte Untersuchung der räumlichen Verteilungsmuster der wirtschaftlichen Aktivität einen Beitrag zur Erklärung der Ansiedlungsstrukturen der einzelnen Wirtschaftszweige zu leisten. Hierfür wird eine gänzlich neue Methodik entwickelt, die das Identifizieren einer breiteren Palette an geographischen Grundmustern sowohl statisch als auch dynamisch zulässt. Da die Unterscheidung zwischen verschiedenen Typen der Konzentration bisher kaum Gegenstand wissenschaftlicher Untersuchung war, stößt der hier verfolgte Ansatz auf ein relativ neues Forschungsfeld vor. Die Existenz unterschiedlicher Typen bzw. Formen der Konzentration beruht auf einer einfachen Überlegung: Neben städtisch konzentrierten Wirtschaftszweigen muss es zwangsläufig auch ländlich konzentrierte Wirtschaftszweige geben. Hiervon ausgehend werden sieben geographische Grundmuster identifiziert. Neben dem dispersen und dem zufälligen Grundmuster wird zwischen fünf verschiedenen Typen der Konzentration unterschieden. Die Identifikation der einzelnen Grundmuster erfolgt auf Basis des Rangkorrelationskoeffizienten von Goodman-Kruskal. Dem entwickelten Ansatz wird mithilfe bivariater Konfidenzregionen eine exakte und durch statistische Signifikanz fundierte Aussagekraft verliehen. Des Weiteren wird im Rahmen der Arbeit festgestellt, dass ein Vernachlässigen der unterschiedlichen geographischen Grundmuster in inhaltlich irreführenden und fragwürdigen Konzentrationsvergleichen münden kann. Parallel dazu werden acht Indizes zur Erfassung der Konzentrationsstärke behandelt. Sie werden hinsichtlich der Datenanforderungen in drei Gruppen unterteilt und im Hinblick auf ihre Verlässlichkeit und Aussagekraft ausführlich untersucht. Die empirische Konzentrationsanalyse belegt für alle drei Gruppen, dass die durchschnittliche Konzentration der deutschen Wirtschaftsgruppen von 1995 bis 2010 kontinuierlich gefallen ist. Darüber hinaus wird in der Arbeit gezeigt, dass die Wirtschaftszweige in Deutschland sehr unterschiedlichen Konzentrationstypen folgen und dass weder die traditionellen noch die komplexen, distanzbasierten Maßzahlen imstande sind, zwischen verschiedenen Typen der Konzentration zu unterscheiden.
Floods are hydrological extremes that have enormous environmental, social and economic consequences.The objective of this thesis was a contribution to the implementation of a processing chain that integrates remote sensing information into hydraulic models. Specifically, the aim was to improve water elevation and discharge simulations by assimilating microwave remote sensing-derived flood information into hydraulic models. The first component of the proposed processing chain is represented by a fully automated flood mapping algorithm that enables the automated, objective, and reliable flood extent extraction from Synthetic Aperture Radar images, providing accurate results in both rural and urban regions. The method operates with minimum data requirements and is efficient in terms of computational time. The map obtained with the developed algorithm is still subject to uncertainties, both introduced by the flood mapping algorithm and inherent in the image itself. In this work, particular attention was given to image uncertainty deriving from speckle. By bootstrapping the original satellite image pixels, several synthetic images were generated and provided as input to the developed flood mapping algorithm. From the analysis performed on the mapping products, speckle uncertainty can be considered as a negligible component of the total uncertainty. In the final step of the proposed processing chain real event water elevations, obtained from satellite observations, were assimilated in a hydraulic model with an adapted version of the Particle Filter, modified to work with non-Gaussian distribution of observations. To deal with model structure error and possibly biased observations, a global and a local weight variant of the Particle Filter were tested. The variant to be preferred depends on the level of confidence that is attributed to the observations or to the model. This study also highlighted the complementarity of remote sensing derived and in-situ data sets. An accurate binary flood map represents an invaluable product for different end users. However, deriving from this binary map additional hydraulic information, such as water elevations, is a way of enhancing the value of the product itself. The derived data can be assimilated into hydraulic models that will fill the gaps where, for technical reasons, Earth Observation data cannot provide information, also enabling a more accurate and reliable prediction of flooded areas.
In the first part of this work we generalize a method of building optimal confidence bounds provided in Buehler (1957) by specializing an exhaustive class of confidence regions inspired by Sterne (1954). The resulting confidence regions, also called Buehlerizations, are valid in general models and depend on a designated statistic'' that can be chosen according to some desired monotonicity behaviour of the confidence region. For a fixed designated statistic, the thus obtained family of confidence regions indexed by their confidence level is nested. Buehlerizations have furthermore the optimality property of being the smallest (w.r.t. set inclusion) confidence regions that are increasing in their designated statistic. The theory is eventually applied to normal, binomial, and exponential samples. The second part deals with the statistical comparison of pairs of diagnostic tests and establishes relations 1. between the sets of lower confidence bounds, 2. between the sets of pairs of comparable lower confidence bounds, and 3. between the sets of admissible lower confidence bounds in various models for diverse parameters of interest.
Auf der Grundlage großer Datensätze bereits behandelter Psychotherapiepatienten werden typische Veränderungsmuster identifiziert, die Therapeuten dabei unterstützen sollen, den beobachteten Verlauf ihrer Patienten besser einordnen und Erfolgswahrscheinlichkeiten ableiten zu können. Dabei werden Unterschiede und Gemeinsamkeiten dieser Muster und deren Implikationen in Bezug auf Therapieerfolg und -länge für verschiedene Störungsbilder, Erhebungsinstrumente, Therapiephasen und Untersuchungsdesigns herausgearbeitet sowie rechenintensive Identifikationsmethoden mit einfacheren verglichen.
Die Arbeit untersucht das Potential kleiner unbemannter Luftfahrtsysteme (UAS) in Landwirtschaft und Archäologie. Der Begriff UAS beinhaltet dabei: Fluggerät, Antriebsmechanismus, Sensorik, Bodenstation, Kommunikationsmittel zwischen Bodenstation und Fluggerät und weiteres Equipment. Aufgrund ihrer Flexibilität, fanden UAS seit der Jahrtausendwende eine blühende Entwicklung. Um die wachsende Weltbevölkerung zu ernähren, muss die landwirtschaftliche Produktion sensibel und nachhaltig intensiviert werden, um Nahrungssicherheit für alle zu gewährleisten und weitere Boden- und Landdegradation zu vermeiden. Präzisionslandwirtschaft umfasst technologische Verbesserungen hin zur effizienteren und weniger schädlichen landwirtschaftlichen Praxis. Hierbei ist die Verfügung über zeitnahe, leicht zugängliche hoch aufgelöste räumliche Daten eine Voraussetzung für die Nahrungsmittelproduktion. UAS schließen hier die Lücke zwischen Bodendaten und teuren bemannten Luftfahrtsysteme und selteneren Satellitenbildern. Die Vorteile der UAS-Daten liegen in der ad-hoc Akquisition großmaßstäbiger Fernerkundungsdaten, den geringeren Kosten gegenüber der bemannten Systeme und einer relativen Wetterunabhängigkeit, da auch unter Wolken geflogen werden kann. Den größten Anteil innerhalb der UAS stellen die Mini-UAS (Abfluggewicht von 5kg) und dabei vertikale Start- und Landesysteme. Diese können über Untersuchungsgebieten schweben, sind dadurch jedoch langsamer und eher geeignet für kleinere Flächen. Flugregularien und die Integration in den bemannten Luftraum werden derzeit europaweit harmonisiert und in den Mitgliedstaaten umgesetzt. Die Hauptziele dieser Arbeit lagen in der Evaluierung wie Schlüsselparametern landwirtschaftlicher Nutzpflanzen (Chlorophyll-, Stickstoffgehalt, Erntemenge, sonnendinduzierter Chlorophyll-Fluoreszenz) mittels UAS abgeleitet und wie UAS-Daten für archäologische Aufklärung genutzt werden können. Dazu wurde ein Quadrokopter (md4-1000, microdrones GmbH) mit einer digitalen Spiegelreflexkamera, einem Multispektralsensor (MiniMCA-6, Tetracam Inc.) und einer Thermalkamera (UCM, Zeiss) ausgestattet. Eine Sensitivitätsanalyse führte zur Ableitung geeigneter Wellenlängenbereiche und untersuchte bidirektionale und Flughöheneffekte auf das Multispektralsignal. Die Studie beschreibt außerdem die Vorgehensweise bei Bildaufnahme und Vorprozessierung mit besonderem Schwerpunkt auf die Multispektralkamera (530-900 nm). Die Vorprozessierung beinhaltet die Korrektur von Sensorfehlern (Linsenverzeichnung, Vignettierung, Kanalkalibrierung), die radiometrische Kalibrierung über eine empirische Korrektur mit Hilfe von Referenzspektren, Atmosphärenkorrektur und schließlich die geometrische Verarbeitung unter Verwendung von Structure from Motion Programme zur Generierung von Punktwolkenmodellen bis hin zum digitalen Orthophotomosaik und Höhenmodell in Zentimeterauflösung. In einer Weinbergsstudie (2011, 2012) wurden geeignete Beobachtungswinkel für die Untersuchung des Einflusses von Bodenbearbeitungsstrategien auf das Multispektralsignal evaluiert. Schrägichtaufnahmen von 45-° Beobachtungswinkel gegenüber Nadir waren am besten geeignet zur Ableitung pflanzenphysiolgischer Parameter und multispektraler Unterscheidung von Bodenbearbeitungstypen. So konnten Chlorophyll-Gehalte über Regressionsanalysen über mehrere saisonale Aufnahmen mit einem kreuzvalidierten R-² von 0.65, Stickstoffgehaltsindex von 0.76 (2012) und Ernte mit 0.84 (2011) und für verschiedene Zeitpunkte nach der Blüte (0.87) und während der Reifephase (0.73) ermittelt werden. Desweiteren wurde die (Fs) in einem Stickstoff-Düngung-Experiment bei Zuckerrüben von Multispektral-, Indizes und Thermaldaten untersucht (HyFlex-Kampagne 2012). Zuckerrübenvarietäten konnten spektral und thermal unterschieden werden, die Fluoreszenzindizes waren wetterbedingt, weniger erfolgreich. Außerdem konnte der Tagesgang der Fs trotz instabiler Einstrahlungsverhältnisse am Morgen abgeleitet werden. Die Werte waren jedoch gegenüber Bodenmessungen um ein Vielfaches erhöht. Archäologische Fernerkundung durch UAS wird bereits seit Jahren (z.B. mit Fesselballons) durchgeführt. Die Mustererkennung profitiert von der spektralen Ausdehnung vom menschlichen Auge hin zu multispektralen, neuerdings auch hyperspektralen Sensoren. Studien in Los Bañales, Spanien, zeigten die Möglichkeiten des Informationsgewinns durch Bildverarbeitung von UAS-Daten: vermutliche historische Siedlungsmuster konnten durch Landoberflächenklassifikation von Multispektraldaten mittels Support Vector Machines und Bestandsmusterdetektion beschrieben werden. Um qualitative hochwertige, hochaufgelöste UAS-Daten zu erhalten, sollten die Daten mit hoher Überlappung (80%) und auch Schrägsicht akquiriert und ggf. durch Referenzmessungen zur radiometrischen Kalibrierung und GPS-Messungen für geometrische Referenzierung ergänzt werden.
Diese Arbeit betrachtet die formalen, semantischen und pragmatischen Eigenschaften produktiv gebildeter Partikelverben mit präpositionenähnlichen Verbzusätzen. Der empirische Teil basiert auf zahlreichen Belegen für mehr als 2500 Partikelverb-Neubildungen mit "ab-", "an-", "auf-", "aus-" und "ein-", die im Zuge einer exhaustiven Korpusstudie mitsamt ihren Kontexten in einem pressesprachlichen Korpus erhoben wurden. Im Zentrum steht die Untersuchung von mehr als 500 neologistischen Partikelverben mit "an-". Zunächst anhand von formalen Kriterien (vorrangig der Argumentstruktur) in fünf Gruppen sortiert, werden die semantischen und pragmatischen Eigenschaften dieser Gruppen mittels einer Betrachtung der einzelnen Verbvorkommen in ihren authentischen Gebrauchskontexten untersucht. Dabei wird insbesondere eine pragmatische Funktionalisierung der ursprünglichen Richtungssemantik nachvollzogen. Zwei offene Fragen der Partikelverb-Forschung werden in ergänzenden Fallstudien detailliert untersucht. Die erste widmet sich sogenannten "Kontaminationsbildungen" und zeigt, dass diese im Bereich der Partikelverben präzise angebbaren Regularitäten folgen. Die zweite beleuchtet anhand von 99 neologistischen Analogiebildungen zum lexikalisierten Verb "aufwerten" formale und semantisch-pragmatische Aspekte der Bildung von Partikelverben und revidiert damit das problematische Verhältnis von Analogie und Produktivität in der Wortbildungstheorie. Die an den Neubildungen gewonnenen Erkenntnisse werden schließlich auf den Wortschatzausschnitt der etablierten, lexikalisierten Partikelverben abgebildet. Dabei wird gezeigt, wie die Untersuchung produktiver Schemata anhand von Neubildungen zur Entwicklung von Objektivierungsheuristiken führen kann, die auch bei den lexikalisierten Formen die systematisch-regelhaften von den irregulär-idiosynkratischen zu trennen vermögen. Von unmittelbarem praktischem Nutzen ist das beispielsweise für die Sprachdidaktik, wie abschließend erläutert wird.
In recent years, the study of dynamical systems has developed into a central research area in mathematics. Actually, in combination with keywords such as "chaos" or "butterfly effect", parts of this theory have been incorporated in other scientific fields, e.g. in physics, biology, meteorology and economics. In general, a discrete dynamical system is given by a set X and a self-map f of X. The set X can be interpreted as the state space of the system and the function f describes the temporal development of the system. If the system is in state x ∈ X at time zero, its state at time n ∈ N is denoted by f^n(x), where f^n stands for the n-th iterate of the map f. Typically, one is interested in the long-time behaviour of the dynamical system, i.e. in the behaviour of the sequence (f^n(x)) for an arbitrary initial state x ∈ X as the time n increases. On the one hand, it is possible that there exist certain states x ∈ X such that the system behaves stably, which means that f^n(x) approaches a state of equilibrium for n→∞. On the other hand, it might be the case that the system runs unstably for some initial states x ∈ X so that the sequence (f^n(x)) somehow shows chaotic behaviour. In case of a non-linear entire function f, the complex plane always decomposes into two disjoint parts, the Fatou set F_f of f and the Julia set J_f of f. These two sets are defined in such a way that the sequence of iterates (f^n) behaves quite "wildly" or "chaotically" on J_f whereas, on the other hand, the behaviour of (f^n) on F_f is rather "nice" and well-understood. However, this nice behaviour of the iterates on the Fatou set can "change dramatically" if we compose the iterates from the left with just one other suitable holomorphic function, i.e. if we consider sequences of the form (g∘f^n) on D, where D is an open subset of F_f with f(D)⊂ D and g is holomorphic on D. The general aim of this work is to study the long-time behaviour of such modified sequences. In particular, we will prove the existence of holomorphic functions g on D having the property that the behaviour of the sequence of compositions (g∘f^n) on the set D becomes quite similarly chaotic as the behaviour of the sequence (f^n) on the Julia set of f. With this approach, we immerse ourselves into the theory of universal families and hypercyclic operators, which itself has developed into an own branch of research. In general, for topological spaces X, Y and a family {T_i: i ∈ I} of continuous functions T_i:X→Y, an element x ∈ X is called universal for the family {T_i: i ∈ I} if the set {T_i(x): i ∈ I} is dense in Y. In case that X is a topological vector space and T is a continuous linear operator on X, a vector x ∈ X is called hypercyclic for T if it is universal for the family {T^n: n ∈ N}. Thus, roughly speaking, universality and hypercyclicity can be described via the following two aspects: There exists a single object which allows us, via simple analytical operations, to approximate every element of a whole class of objects. In the above situation, i.e. for a non-linear entire function f and an open subset D of F_f with f(D)⊂ D, we endow the space H(D) of holomorphic functions on D with the topology of locally uniform convergence and we consider the map C_f:H(D)→H(D), C_f(g):=g∘f|_D, which is called the composition operator with symbol f. The transform C_f is a continuous linear operator on the Fréchet space H(D). In order to show that the above-mentioned "nice" behaviour of the sequence of iterates (f^n) on the set D ⊂ F_f can "change dramatically" if we compose the iterates from the left with another suitable holomorphic function, our aim consists in finding functions g ∈ H(D) which are hypercyclic for C_f. Indeed, for each hypercyclic function g for C_f, the set of compositions {g∘f^n|_D: n ∈ N} is dense in H(D) so that the sequence of compositions (g∘f^n|_D) is kind of "maximally divergent" " meaning that each function in H(D) can be approximated locally uniformly on D via subsequences of (g∘f^n|_D). This kind of behaviour stands in sharp contrast to the fact that the sequence of iterates (f^n) itself converges, behaves like a rotation or shows some "wandering behaviour" on each component of F_f. To put it in a nutshell, this work combines the theory of non-linear complex dynamics in the complex plane with the theory of dynamics of continuous linear operators on spaces of holomorphic functions. As far as the author knows, this approach has not been investigated before.
Diese Untersuchungen beinhalten eine Diskussion von Hintergründen, Konzepten und Herausforderungen der aktuellen Qualitätsdiskussion im tertiären Tourismusbildungs-system des südlichen Afrikas. Dabei werden Fragen wie: "Welche Aspekte haben in diesen Ländern zu einer verstärkten Fokussierung auf Qualität geführt?", "Inwieweit lassen sich Erkenntnisse zu Qualitätsentwicklungen aus westlichen Industrienationen auf afrikanische Länder wie z.B. Namibia übertragen?", als auch "Welche Qualitätskriterien werden in der tertiären namibischen Tourismusbildungsinstitutionen als wichtig erachtet?" diskutiert. In diesen Untersuchungen wird diskursiv aufgezeigt, dass sich in vielen Ländern des südlichen Afrikas aufgrund rechtlicher Rahmenbedingungen in der tertiären Tourismus-bildung unterschiedliche Qualitätsansätze etablieren konnten. Eine fundierte Analyse der stark wachsenden Tourismusdestination Namibia als ausgewählte Fallstudie dient dabei als Basis zur Erarbeitung eines spezifischen Qualitätsinstruments. Neben einer Analyse der bestehende Situation versuchen diese vorliegenden Untersuchungen, einen konstruktiven Beitrag zur Qualtätsentwicklung in der namibischen tertiären Tourismusbildung zu liefern. So steht denn auch als Ziel die Erarbeitung eines namibiaspezifischen Qualitätsinstrumentes im Mittelpunkt des Interesses. Zu dessen Entwicklung wird als zentrale Methode eine angepasste Form des Delphi-Verfahrens angewendet, bei welchem eine breite Anzahl relevanter Stakeholder der namibischen tertiären Tourismusbildung eingebunden ist.
Die Arbeit analysiert Bedeutungen von Körperlichkeit im Straßenprotest. Ausgehend von den Selbstwahrnehmungen von Aktivist_innen wird dabei der Frage nachgegangen, wie Erfahrungen den reflexiven Umgang mit Verletzlichkeit und Verletzungsmacht prägen. Zunächst wird dafür eine theoretische Konzeption einer leibkörperlich gebundenen Reflexivität entwickelt. Pierre Bourdieus Theorie der Praxis, die sich der Verkörperung von Wissen widmet, wird ergänzt durch den Rückbezug auf Maurice Merlau-Ponty, der konsequenter herausstellt, dass jegliche Wahrnehmung immer nur körperlich-leiblich möglich ist. Während Merleau-Pontys Fokus auf dem wahrnehmenden Leib liegt, wird mit der philosophischen Anthropologie Helmuth Plessners die Verschränkung von wahrnehmendem Leib und wahrgenommenem Körper, bzw. wie Wahrgenommenes reflexiv auf das Spüren und Erleben zurückwirkt, nachvollziehbar. Aufbauend auf Plessner hat Heinrich Popitz eine Phänomenologie der Macht entwickelt, in deren Zentrum die anthropologischen Grundkonstanten von menschlicher Verletzungsoffenheit und Verletzungsmacht stehen. Diese Konzeption, verbunden mit Ergebnissen aus verschiedenen Vorstudien zur vorliegenden Arbeit, leitet die empirische Analyse von zehn leitfadengestützten Interviews, in denen Aktivist_innen mit teilweise langjähriger Straßenprotestbiographie zu ihren Erfahrungen und Praktiken in Straßenprotesten befragt werden. Die Arbeit ist an der Schnittstelle der drei Teildisziplinen Politische Soziologie, Körpersoziologie und Wissenssoziologie angesiedelt. Innerhalb der Politischen Soziologie liegen die Anknüpfungspunkte insbesondere in der sozial- und kulturwissenschaftlichen Protestforschung. Hier ist der Körper nach wie vor weitgehend marginalisiert und es existieren bisher in Anbetracht des insgesamt kaum noch überschaubaren Umfangs der Protestforschung vergleichsweise wenige Studien. Hinsichtlich der Körpersoziologie zielt die Arbeit - insbesondere mit der Bezugnahme auf Plessners philosophische Anthropologie - auf einen Erkenntnisgewinn hinsichtlich der Verbindung von Körpersoziologie und politischer Soziologie. Es lässt sich vor allem in den letzten Jahren eine deutliche Renaissance Plessners innerhalb der allerdings fast ausschließlich deutschsprachigen Körpersoziologie feststellen. Die körpersoziologischen Arbeiten sind bisher jedoch kaum im Rahmen einer politischen Soziologie aufgegriffen worden. Eine solche Brücke möchte die vorliegende Arbeit insbesondere via Popitz (und z.T. Michel Foucault) schlagen. Wissenssoziologisch folgt die Arbeit dem Verständnis eines verkörperten Wissens, wie es vor allem in Bezug auf Bourdieu konzeptionalisiert wird. Es werden Überlegungen aufgegriffen, die sich u.a. auch Analysen und Konzepten der Dance Studies oder der Sportsoziologie hinsichtlich körperlicher Reflexion verdanken. Im Anschluss an die phänomenologisch orientierten Arbeiten Bourdieus und Merleau-Pontys sowie an Plessners philosophische Anthropologie werden dabei sogenanntes kognitives und körperliches Wissen integriert und die unmittelbare Verschränkung beider Wissensformen aufgezeigt.
Die zukünftige Landwirtschaft steht vor großen Herausforderungen: Zum einen sollen mit knapper werdenden Ressource wie Wasser und Boden mehr Menschen ernährt, die Wirtschaftlichkeit gesteigert und Pflanzen zur Energiegewinnung sowie für die Industrie erzeugt werden. Zum anderen sollen Umweltbelastungen deutlich verringert werden, damit die Landwirtschaft nicht ihre eigene Grundlage zerstört und Anpassungsstrategien für das zukünftige Klima gefunden werden. Die Erstellung eines Modells, mit deren Hilfe die Auswirkungen von Klimavariabilität, Standortbedingung, verschiedenartiger Kultivierung, Umwelteinflüsse und nachhaltigem Wirtschaften auf das Pflanzenwachstum simuliert werden können, also eine ökonomisch-ökologischen Bewertung vorgenommen werden kann, ist daher das Hauptziel vorliegender Dissertation. Zur Erlangung dieses Ziels sollte ein ökologisches (STICS) und ein ökonomische Modell (Produktionsfunktion) miteinander gekoppelt werden. Eine Sensitivitätsanalyse des Pflanzenwachstumsmodells STICS verdeutlicht, dass dieses Modell geeignet ist den Einfluss unterschiedlicher Bewirtschaftungsmethoden und Klimakenngrößen auf das Pflanzenwachstum bzw. den Ertrag sowie die Bodenfruchtbarkeit, z.B. über die Nitratauswaschung, realitätsnah abzubilden. Die Voraussetzung dafür ergibt sich auch aus dem Verwenden des statistischen Klimamodells WETTREG 2010, welches hochaufgelöste Klimadaten, die in Anzahl der Klimaelemente und zeitlicher Auflösung der Messreihen von Klimastationen gleichen, liefert. Die natürliche Variabilität des Klimas wird damit gut widergeben und Aussagen über zukünftiges Wachstum und Pflanzenentwicklung sowie Auswirkungen von Extremwetterlagen berechenbar. Die Ergebnisse des Pflanzenwachstumsmodells dienen als Grundlage einer Produktionsfunktion des Cobb-Douglas-Typs. Der graphische Zusammenhang, die Verteilung der Produktionsfaktoren und die Regressionsergebnisse zeigen allerdings, dass eine einfache lineare Regression zur Bestimmung der Funktion auf Mittel- und Summenwertbasis zu schlechten Ergebnissen, insbesondere hinsichtlich der Anpassung an Extremereignisse, führt. Die Klimafaktoren Niederschlag bzw. Wasser und Temperatur, aber auch die Nachhaltigkeit im Sinne der Erhaltung der Bodenfruchtbarkeit können in der Funktion nicht eindeutig bestimmt werden. Anhand von Simulationen mit künstlichen Klimadaten, d.h. stetig steigenden Temperaturen und immer gleicher Verteilung des Niederschlags (gute und schlechte Verteilung), konnten die Fehlerquellen herauskristallisiert und die fehlenden Faktoren in der Produktionsfunktion gefunden werden. Ein Lösungsansatz ist das Einbeziehen von Stressindizes für Wasser- und Stickstoffmangel, welche die zeitliche Verteilung von Niederschlag und Temperatur bzw. deren Auswirkungen auf das Pflanzenwachstum darstellen. Zudem ist über den Stickstoffstress die Verfügbarkeit von Nitrat für die Pflanze ableitbar und kann in der Produktionsfunktion miteinbezogen werden. Die Ergebnisse der Regression mit Berücksichtigung der Wasser- und Stickstoffstressindizes zeigen deutlich bessere Ergebnisse. Die Variabilität kann deutlich erhöht und die zeitliche Verteilung von Niederschlag und Temperatur sowie die Bodenfruchtbarkeit berücksichtigt werden. Allerdings ist die Anpassung gerade in den extremen Bereichen (überdurchschnittlich niedrige oder hohe Ernten) zu systematisch. Das Pflanzenwachstumsmodell wird demnach nicht durch eine einfache Produktionsfunktion ersetzbar, da es wichtige Informationen zu Ertrag, Einfluss der Klimavariabilität auf den Ertrag, Umwelteinflüssen, wie Stickstoffaustrag, oder Stressindizes liefert. Vielmehr wird erst durch Verwendung des Pflanzenwachstumsmodells die direkte Abhängigkeit zwischen Bewirtschaftung, Ertrag und Nachhaltigkeit im Sinne der Erhaltung der Bodenfruchtbarkeit bzw. der Vermeidung hoher Nitratauswaschung deutlich. Eine nicht angepasste Bewirtschaftung, z.B. Überdüngung und/oder hohe Bewässerung, führt sowohl zu mehr Nitrataustrag als auch zu niedrigerem Ertrag sowie höheren Kosten. Deutlich wird die Unersetzbarkeit des Pflanzenwachstumsmodells durch eine einfache Kostenanalyse. Hierbei konnte die Unrentabilität sehr intensiver Bewirtschaftung und Rentabilität einer zusätzlichen Bewässerung nur unter Berücksichtigung der Nitratauswaschung und klimatischer Gegebenheiten herausgestellt werden. Erst durch das Zusammenspiel von ökologischem und ökonomischem Modell werden die Auswirkungen von Klimavariabilität, Standortbedingung, verschiedenartiger Kultivierung und nachhaltigem Wirtschaften auf das Pflanzenwachstum berechenbar. Eine ökologisch-ökonomische Bewertung, wie die Beurteilung von Auswirkungen bestimmter Klimaelemente (Wasser, Temperatur) auf Pflanzenwachstum und Ertrag, Adaptionsstrategien, effizienter und ressourcenschonender Bewirtschaftung, Rentabilität, Umweltbelastung oder Nachhaltigkeit wird damit letztendlich möglich.
Evapotranspiration (ET) is one of the most important variables in hydrological studies. In the ET process, energy exchange and water transfer are involved. ET consists of transpiration and evaporation. The amount of plants transpiration dominates in ET. Especially in the forest regions, the ratio of transpiration to ET is in general 80-90 %. Meteorological variables, vegetation properties, precipitation and soil moisture are critical influence factors for ET generation. The study area is located in the forest area of Nahe catchment (Rhineland-Palatinate, Germany). The Nahe catchment is highly wooded. About 54.6 % of this area is covered by forest, with deciduous forest and coniferous forest are two primary types. A hydrological model, WaSiM-ETH, was employed for a long-term simulation from 1971-2003 in the Nahe catchment. In WaSiM-ETH, the potential evapotranspiration (ETP) was firstly calculated by the Penman-Monteith equation, and subsequently reduced according to the soil water content to obtain the actual evapotranspiration (ETA). The Penman-Monteith equation has been widely used and recommended for ETP estimation. The difficulties in applying this equation are the high demand of ground-measured meteorological data and the determination of surface resistance. A method combined remote sensing images with ground-measured meteorological data was also used to retrieve the ETA. This method is based on the surface properties such as surface albedo, fractional vegetation cover (FVC) and land surface temperature (LST) to obtain the latent heat flux (LE, corresponding to ETA) through the surface energy balance equation. LST is a critical variable for surface energy components estimation. It was retrieved from the TM/ETM+ thermal infrared (TIR) band. Due to the high-quality and cloudy-free requirements for TM/ETM+ data selection as well as the overlapping cycle of TM/ETM+ sensor is 16 days, images on only five dates are available during 1971-2003 (model ran) " May 15, 2000, July 05, 2001, July 19, August 04 and September 21 in 2003. It is found that the climate conditions of 2000, 2001 and 2003 are wet, medium wet and dry, respectively. Therefore, the remote sensing-retrieved observations are noncontinuous in a limited number over time but contain multiple climate conditions. Aerodynamic resistance and surface resistance are two most important parameters in the Penman-Monteith equation. However, for forest area, the aerodynamic resistance is calculated by a function of wind speed in the model. Since transpiration and evaporation are separately calculated by the Penman-Monteith equation in the model, the surface resistance was divided into canopy surface resistance rsc and soil surface resistance rse. rsc is related to the plants transpiration and rse is related to the bare soil evaporation. The interception evaporation was not taken into account due to its negligible contribution to ET rate under a dry-canopy (no rainfall) condition. Based on the remote sensing-retrieved observations, rsc and rse were calibrated in the WaSiM-ETH model for both forest types: for deciduous forest, rsc = 150 sm−1, rse = 250 sm−1; for coniferous forest, rsc = 300 sm−1, rse = 650 sm−1. We also carried out sensitivity analysis on rsc and rse. The appropriate value ranges of rsc and rse were determined as (annual maximum): for deciduous forest, [100,225] sm−1 for rsc and [50,450] sm−1 for rse; for coniferous forest, [225,375] sm−1 for rsc and [350,1200] sm−1 for rse. Due to the features of the observations that are in a limited number but contain multiple climate conditions, the statistical indices for model performance evaluation are required to be sensitive to extreme values. In this study, boxplots were found to well exhibit the model performance at both spatial and temporal scale. Nush-Sutcliffe efficiency (NSE), RMSE-observations standard deviation ratio (RSR), percent bias (PBIAS), mean bias error (MBE), mean variance of error distribution (S2d), index of agreement (d), root mean square error (RMSE) were found as appropriate statistical indices to provide additional evaluation information to the boxplots. The model performance can be judged as satisfactory if NSE > 0.5, RSR ≤ 0.7, PBIAS < -±12, MBE < -±0.45, S2d < 1.11, d > 0.79, RMSE < 0.97. rsc played a more important role than rse in ETP and ETA estimation by the Penman-Monteith equation, which is attributed to the fact that transpiration dominates in ET. The ETP estimation was found the most correlated to the relative humidity (RH), followed by air temperature (T), relative sunshine duration (SSD) and wind speed (WS). Under wet or medium wet climate conditions, ETA estimation was found the most correlated to T, followed by RH, SSD and WS. Under a water-stress condition, there were very small correlations between ETA and each meteorological variable.
Kooperationen sind in den unterschiedlichsten Industrien und Wirtschaftszweigen ein fester Bestandteil zur Entwicklung von Unternehmensstrategien und vielfach die Reaktion auf branchenspezifische wie auch -übergreifende Bedingungen des Unternehmensumfeldes. Durch das Eingehen von Kooperationen wird sich erhofft Zugang zu Ressourcen zu gewinnen, Marktbarrieren zu umgehen, Kostensenkungspotenziale durch Synergieeffekte zu realisieren, spezifisches Know-how zu erlangen, Informations- und Wissenstransfer zu ermöglichen oder integrativ Kompetenzen in einem technologisierten Umfeld aufzubauen. Angesichts seit Jahren steigender weltweiter Tourismusausgaben für Urlaubsreisen, einem zunehmendem Wettbewerbsdruck zwischen Reisezielen und touristischen Anbietern sowie branchenspezifisch hoher Krisenanfälligkeit sind Kooperationen auch in der Tourismuswirtschaft omnipräsent. Vor dem Hintergrund sich wandelnder Aufgaben traditioneller Tourismusorganisationen (Touristen Info) einerseits sowie der den Kooperationen inhärenten Spannung zwischen Zusammenarbeit und Wettbewerb der beteiligten Akteure (Leistungsträger, Stakeholder) andererseits, steht im Mittelpunkt dieser Untersuchung die Frage: "Kooperationen von Destinationen: zufällige Einzelphänomen oder Entscheidungen eines strategischen Destinationsmanagements?" Dabei beschränkt sich der Untersuchungsgegenstand nicht auf Kooperationen zwischen Leistungsträgern innerhalb einer Destination, sondern setzt jene Kooperationen in den Fokus, die sowohl zwischen konkurrierenden Touristenorganisationen als auch zwischen Touristenorganisationen und nicht-originär touristischen Unternehmen zu beobachten sind. Ziel der Arbeit ist die theorie- und empiriegeleitete Exploration von Zielsystemen und Erfolgsfaktoren, um so einen Beitrag zum effektiven Kooperationsmanagement von Tourismusorganisationen liefern zu können. Somit positioniert sich diese Arbeit im Kontext der wirtschaftswissenschaftlichen Kooperationsforschung im strategischen Dienstleistungs- sowie Tourismus- und Destinationsmanagement. Basierend auf einem kritisch-reflektierenden Literaturüberblick wird ein konzeptioneller Bezugsrahmen entwickelt und die verfolgte qualitative Forschungsstrategie einer Fallanalyse in ein konkretes empirisches Untersuchungsdesign umgesetzt: die im Rahmen der Datenerhebung geführten Experteninterviews mit Geschäftsführern ausgewählter Unternehmen wurden transkribiert und mittels einer strukturierenden Inhaltsanalyse untersucht. Neben der Konzeption einer Systematisierung zu Kooperationen im Destinationskontext dienen die zentralen empirischen Ergebnisse der Identifikation neun eigenständiger Zielkategorien sowie sieben Erfolgsfaktoren. Davon abgeleitetes wird ein phasenorientiertes Entscheidungsmodell für Entscheidungsträger im Destinationsmanagement entwickelt.
The last decades of stress research have yielded substantial advancements highlighting the importance of the phenomenon for basic psychological functions as well as physical health and well-being. Progress in stress research heavily relies on the availability of suitable and well validated laboratory stressors. Appropriate laboratory stressors need to be able to reliably provoke a response in the relevant parameters and be applicable in different research settings or experimental designs. This thesis focuses on the Cold Pressor Test (CPT) as a stress induction technique. Three published experiments are presented that show how the advantages of the CPT can be used to test stress effects on memory processes and how some of its disadvantages can be met by a simple modification that retains its feasibility and validity. The first experiment applies the CPT in a substantial sample to investigate the consolidation effects of post-learning sympathetic arousal. Stressed participants with high increases in heart rate during the CPT showed enhanced memory performance one day after learning compared to both the warm water control group and low heart rate responders. This finding suggests that beta-adrenergic activation elicited shortly after learning enhances memory consolidation and that the CPT induced heart rate response is a predictor for this effect. Moreover, the CPT proved to be an appropriate stressor to test hypothesis about endogenous adrenergic effects on memory processes. The second experiment addresses known practical limitations of the standard dominant hand CPT protocol. A bilateral feet CPT modification is presented, the elicited neuroendocrine stress response assessed and validated against the standard CPT in a within-subjects design. The bilateral feet CPT elicited a substantial neuroendocrine stress response. Moreover, with the exception of blood pressure responses, all stress parameters were enhanced compared to the standard CPT. This shows that the bilateral feet CPT is a valid alternative to the standard CPT. The third experiment further validates the bilateral feet CPT and its corresponding control procedure by employing it in a typical application scenario. Specifically, the bilateral feet CPT was used to modulate retrieval of event files in a distractor-response binding paradigm that required lateralized bimanual responses. Again, the bilateral feet CPT induced significant increases in heart rate, blood pressure and cortisol, no such increases could be observed in the warm water control condition. Moreover, stressed participants showed diminished retrieval compared to controls. These results provide further evidence for the feasibility and validity of the bilateral feet CPT and its warm water control procedure. Together the experiments presented here highlight the usefulness of the CPT as a tool in psychophysiological stress research. It is especially well suited to test hypothesis concerning stress effects on memory processes and its applicability can be further increased by the bilateral feet modification.
Climate change and habitat fragmentation modify the natural habitat of many wetland biota and lead to new compositions of biodiversity in these ecosystems. While the direct effects of climate are often well known, indirect effects due to biotic interactions remain poorly understood. The water meadow grasshopper, Chorthippus montanus, is a univoltine habitat specialist, which is adapted to permanently moist habitats. Land use change and drainage led to highly fragmented populations of this generally flightless species. In large parts of the Palaearctic Ch. montanus occurs sympatrically with its widespread congener, the meadow grasshopper Chorthippus parallelus. Due to their close relationship and their similar songs, hybridization is likely to occur in syntopic populations. Such a species pair of a habitat specialist and a habitat generalist represents an ideal model system to examine the role of ongoing climate change and an accumulation of extreme climatic events on the life history strategies, population dynamics and inter-specific interactions. In Chapter I a laboratory experiment was conducted to identify the impact of environmental factors on intra-specific life-history traits of Ch. montanus. Like other Orthoptera species, Ch. montanus follows a converse temperature size rule. In line with the dimorphic niche hypothesis, which states that sexual size dimorphism evolved in response to the different sexual reproductive roles, both sexes showed different responses to increasing density at lower temperatures. Males attained smaller body sizes at high densities, whereas females had a prolonged development time. This is the first evidence for a sex-specific phenotypic plasticity in Ch. montanus. Females benefit from the prolonged development as their reproductive success depends on the size and number of egg clutches they may produce. By contrast, the reproductive success of males depends on the chance to fertilize virgin females, which increases with faster development. This may become a disadvantage for Ch. montanus as an intraspecific phenology shift may increase hybridization risk with the sibling species. Despite the widespread assumption that hybridization between two sympatric species is rare due to complete reproductive barriers, the genetic analyses of 16 populations (Chapter II) provided evidence for wide prevalence of hybridization between both species in the wild. As no complete admixture was found in the examined population, it is assumed that hybridization only occurs in ecotones between wetlands and drier parts. Reproductive barriers (habitat isolation, behavior, phenology) seem to prevent the genetic swamping of Ch. montanus populations. Although a behavioral experiment showed that mate choice presents an important reproductive barrier between both species, the experiment also revealed that reproductive barriers could be altered by environmental change (e.g. increasing heterospecific frequency). Chapter III analyzes the impact of extreme climatic events on population dynamics and interspecific hybridization. A mark-recapture analysis combined with weather records over five years provides evidence that the embryonic development in Ch. montanus is vulnerable to extreme climatic events. Strong population declines in Ch. montanus lead to a disequilibrium between Ch. montanus and Ch. parallelus populations and increases the risk of hybridization. The highest hybridization risk was found in the first weeks of a season, when both species had an overlapping phenology. Furthermore, hybrids were generally localized at the edge of the Ch. montanus distribution with higher heterospecific encounter probabilities. The hybridization rate reached up to 19.6%. The genetic analyses in Chapter II and III show that hybridization differentially affects specialists and generalists. While generalists may benefit from hybridization by an increasing genetic diversity, such a positive correlation was not found for Ch. montanus. The results underline the importance of reproductive barriers for the co-existence of these sympatric species. However, climate change and other anthropogenic disturbances alter reproductive barriers and promote hybridization, which may threaten small populations by genetic displacement. As anthropogenic hybridization is recognized as a major threat to biodiversity, it should be considered in environmental law and policy. In Chapter IV the role of hybrids and hybridization in three levels of law and the historical backgrounds of hybrids becoming a part of legal instruments is analyzed. Due to legal uncertainties and the complexity of this topic a legal assessment of hybrids is challenging and argues for species-specific approaches. Nonetheless, existing legal norms provide a suitable basis, but need to be specified. Finally, this chapter discusses different opportunities for the management of hybrids and hybridization in a conservation perspective and their necessity.
Zum wechselseitigen Einfluss epistemologischer Überzeugungen und Förderung von Informationskompetenz
(2015)
Die Dissertation zielt darauf ab, den wechselseitigen Zusammenhang zwischen epistemologischen Überzeugungen und der Förderung von Informationskompetenz im Hochschulbereich zu untersuchen. Hinsichtlich der aktuellen Literatur zu epistemologischen Überzeugungen wird dabei zunächst ein Mangel an Fragebogen-Verfahren zur Erfassung epistemologischer Überzeugungen bei Hochschulstudierenden identifiziert. Demnach unterscheiden bisher verfügbare Fragebögen lediglich zwischen absoluten und nicht-absoluten Überzeugungen, nicht aber zwischen undifferenzierten und differenzierten multiplistischen Überzeugungen. Die Arbeit ist daher in zwei Teile untergliedert. Im ersten Teil wird ein epistemologischer Fragebogen, bestehend aus Items mit absoluten und multiplistischen Aussagen entwickelt (vier Studien, Gesamt-N = 416). Im zweiten Teil werden mittels dieses Fragebogens und eines Informationskompetenz-Wissenstests der Einfluss absoluter und multiplistischer Überzeugungen auf den Lerngewinn in einem Blended-Learning Training zur Förderung von Informationskompetenz Psychologie-Studierender (N = 67) sowie die kurzzeitigen Veränderungen dieser Überzeugungen infolge der Trainingsteilnahme untersucht. Faktorenanalysen zeigen, dass Items mit absoluten und multiplistischen Aussagen auf unterschiedlichen Faktoren laden. Die finale Faktoren-Lösung umfasst k = 23 (von ursprünglich k = 35) Items mit zwei Faktoren, wobei Items mit absoluten Aussagen hauptsächlich auf dem ersten und Items mit multiplistischen Aussagen hauptsächlich auf dem zweiten Faktor laden. Die daraus abgeleiteten Skalen zeigen eine zufriedenstellende interne Konsistenz. Die konvergente Validität der Skalen wird durch signifikante Korrelationen mit den beiden Skalen des Fragebogens "Connotative Aspects of Epistemological Beliefs" (CAEB) und der Skala "Need for Cognitive Closure" (NCC) belegt. Querschnittsanalysen zeigen signifikant niedrigere Mittelwerte der multiplistischen Skala bei zunehmendem Studienfortschritt, wohingegen sich auf der absoluten Skala keine signifikanten Unterschiede zeigen. Multiple Regressionsanalysen zeigen, dass höhere Werte auf der multiplistischen Skala mit einem signifikant geringeren Lernerfolg im Informationskompetenz-Training einhergehen. Hinsichtlich der absoluten Skala zeigt sich demgegenüber kein signifikanter Zusammenhang. Abhängig von der Teilnahme am Informationskompetenz-Training lässt sich eine signifikante Zunahme absoluter Überzeugungen nachweisen. Multiplistische Überzeugungen hingegen verändern sich nicht in Abhängigkeit der Trainingsteilnahme. Ausgehend von den Ergebnissen wird diskutiert, dass durch die messtheoretische Differenzierung zwischen absoluten und multiplistischen Überzeugungen zusätzliche Informationen (z.B. über die Entwicklung epistemologischer Überzeugungen) gewonnen werden können, die mit herkömmlichen Fragebögen nicht abgebildet werden. Die Ergebnisse stützen überdies die Annahme eines wechselseitigen Zusammenhangs zwischen epistemologischen Überzeugungen und Informationskompetenz. Es wird vermutet, dass dieser wechselseitige Zusammenhang auf einen tendenziell absoluten Charakter von Lerninhalten zur Informationskompetenz zurückführbar ist.
Service innovation has increasingly gained acknowledgement to contribute to economic growth and well-being. Despite this increased relevance in practice, service innovation is a developing research field. To advance literature on service innovation, this work analyzes with a qualitative study how firms manage service innovation activities in their organization differently. In addition, it evaluates the influence of top management commitment and corporate service innovativeness on service innovation capabilities of a firm and their implications for firm-level performance by conducting a quantitative study. Accordingly, the main overall research questions of this dissertation are: 1.) How and why do firms manage service innovation activities in their organization differently? 2.) What influence do top management commitment and corporate service innovativeness have on service innovation capabilities of a firm and what are the implications for firm-level performance? To respond to the first research question the way firms manage service innovation activities in their organization is investigated and by whom and how service innovations are developed. Moreover, it is examined why firms implement their service innovation activities differently. To achieve this a qualitative empirical study is conducted which included 22 semi-structured interviews with 15 firms in the sectors of construction, financial services, IT services, and logistics. Addressing the second research question, the aim is to improve the understanding about factors that enhance firm-level performance through service innovations. Deploying a dynamic capabilities perspective, a quantitative study is performed which underlines the importance of service innovation capabilities. More specifically, a theoretical framework is developed that proposes a positive relationship of top management commitment and corporate service innovativeness with service innovation capabilities and a positive relationship between service innovation capabilities and the firm-level performance indicators market performance, competitive advantage, and efficiency. A survey with double respondents from 87 companies from the sectors construction, financial services, IT services, and logistics was conducted to test the proposed theoretical framework by applying partial least squares structural equation modeling (PLS-SEM).
Part-time entrepreneurship has become increasingly popular and is a rather new field of research. Two important research topics are addressed in this dissertation: (a) the impact of culture on part-time and full-time entrepreneurship and (b) the motivational aspects of the transition from part-time to full-time entrepreneurship. Specifically, this dissertation advances prior research by highlighting the direct and indirect differential impact of macro-level societal culture on part-time and full-time entrepreneurship. Gender egalitarianism, uncertainty avoidance and future orientation have a significantly stronger impact on full-time than on part-time entrepreneurship. Furthermore the moderating impact of societal culture on micro-level relationships for both forms of entrepreneurship is explored. The age-old and well-established relationship between education and entrepreneurial activity is moderated by different forms of collectivism for part-time and full-time entrepreneurship. Regarding the motivation of part-time entrepreneurs to transition to full-time entrepreneurship, the entrepreneurial motives of self-realization and independence are significantly positively associated with the transition, whereas the entrepreneurial motives of income supplementation and recognition are significantly negatively associated with the transition. This dissertation advances academic research by indicating conceptual differences between part-time and full-time entrepreneurship in a multi country setting and by showing that both forms of entrepreneurship are impacted through different cultural mechanisms. Based on the findings, policy makers can identify the direct and indirect impact of societal culture on part-time and full-time entrepreneurship. As a result, policy makers can better target support and transition programs to foster entrepreneurial activity.
This study examines the relationship between media content, its production, and its reception in Japanese popular culture with the example of the so-called yuri ("lily") genre that centers on representations of intimate relationships between female characters. Based on contemporary genre theory, which posits that genres are not inherent properties of texts, the central question of this study is how the yuri genre is discursively produced in Japan. To examine this question, the study takes a variety of sources into consideration: Firstly, it discusses ten exemplary texts from the 1910s to 2010s that in the Japanese discourse on the yuri genre are deemed the milestone texts of the yuri genre's historical development (Hana monogatari, Otome no minato, Secret Love, Shiroi heya no futari, BishÅjo senshi Sailor Moon, Maria-sama ga miteru, ShÅjo Sect, Aoi hana, Yuru yuri, and Yuri danshi). Secondly, interviews with ten editors working for Japanese manga magazines shed light on their assessment of the yuri genre. Finally, the results of an online survey among Japanese fans of the yuri genre, which returned 1,352 completed questionnaires, question hitherto assumptions about the fans and their reasons for liking the yuri genre. The central argument of this study is that the yuri genre is for the most part constructed not through assignments on part of the genre's producers but through interpretations on part of the genre's fans. The intimacy portrayed in the texts ranges from "friendship" to "love," and often the ideas of "innocence" and "beauty" are emphasized. Nevertheless, the formation of the yuri genre occurs outside the bounds of the texts, most importantly in fan works, i.e. derivative texts created by fans. The actual content of the originals merely serves as a starting point for these interpretations. Located at the intersection of Japanese studies, cultural studies, media studies, and sociology, this study contributes to our understanding of contemporary Japanese popular culture by showing the mutual dependencies between media content, production, and reception. It provides a deeper look at these processes through first-hand accounts of both producers and fans of the yuri genre.
Death is perceived as a severe threat to the self. Although it is certain that everyone has to die, people usually don't think about the finiteness of their life. Everything reminding of death is ignored, rationalized and death-related thoughts and fears are pushed out of mind (TMT; Pyszczynski et al., 1999). However, people differ in their ability to regulate negative affect and to access their self-system (Kuhl, 2001). As death is assumed to arouse existential fears, the ability to regulate such fears is particularly important, higher self-access could be relevant in defending central personal values. This thesis aimed at showing existential fears under mortality salience and effects of self-regulation of affect under mortality salience. In two studies (Chapter 2) implicit negative affect under mortality salience was demonstrated. An additional study (Chapter 3) shows the effects of self-regulation on implicit negative affect, whereas four studies in Chapter 4 displayed differences in self-access under mortality salience depending on people- ability of self-regulating negative affect.
Financing of Small and Medium-Sized Enterprises in Europe - Financing Patterns and 'Crowdfunding'
(2015)
Small and medium-sized enterprises (SMEs) play a vital role for the innovativeness, economic growth and competitiveness of Europe. One of the most pressing problems of SMEs is access to finance to ensure their survival and growth. This dissertation uses both quantitative and qualitative exploratory research methods and increases with its holistic approach the transparency in SME financing. The results of a cluster analysis including 12,726 SMEs in 28 European countries reveal that SME financing in Europe is not homogenous but that different financing patterns exist which differ according to the number of financing instruments used and the combinations thereof. Furthermore, the SME financing types can be profiled according to their firm-, product-, industry- and country-specific characteristics. The results of this analysis provide some support for prior findings that smaller, younger and innovative SMEs suffer from a financing gap which cannot be closed with traditional financing instruments. One alternative to close this financing gap is crowdfunding. Even though crowdfunding has shown tremendous growth rates over the past few years, little is known about the determinants of this financing alternative. This dissertation systematically analyses the existing scientific literature on crowdfunding as an alternative in SME financing and reveals existing research gaps. Afterwards, the focus is on the role of investor communication as a way to reduce information asymmetries of the crowd in equity-based crowdfunding. The results of 24 interviews with market participants in equity-based crowdfunding reveal that crowd investors seem to replace personal contacts with alternative ways of communicating, which can be characterized as pseudo-personal (i.e., by using presentation videos, social media and investor relations channels). In addition, it was found that third party endorsements (e.g., other crowd investors, professional investors, customers and platforms) reduce the information asymmetries of crowd investors and hence, increase the likelihood of their investment.
In politics and economics, and thus in the official statistics, the precise estimation of indicators for small regions or parts of populations, the so-called Small Areas or domains, is discussed intensively. The design-based estimation methods currently used are mainly based on asymptotic properties and are thus reliable for large sample sizes. With small sample sizes, however, this design based considerations often do not apply, which is why special model-based estimation methods have been developed for this case - the Small Area methods. While these may be biased, they often have a smaller mean squared error (MSE) as the unbiased design based estimators. In this work both classic design-based estimation methods and model-based estimation methods are presented and compared. The focus lies on the suitability of the various methods for their use in official statistics. First theory and algorithms suitable for the required statistical models are presented, which are the basis for the subsequent model-based estimators. Sampling designs are then presented apt for Small Area applications. Based on these fundamentals, both design-based estimators and as well model-based estimation methods are developed. Particular consideration is given in this case to the area-level empirical best predictor for binomial variables. Numerical and Monte Carlo estimation methods are proposed and compared for this analytically unsolvable estimator. Furthermore, MSE estimation methods are proposed and compared. A very popular and flexible resampling method that is widely used in the field of Small Area Statistics, is the parametric bootstrap. One major drawback of this method is its high computational intensity. To mitigate this disadvantage, a variance reduction method for parametric bootstrap is proposed. On the basis of theoretical considerations the enormous potential of this proposal is proved. A Monte Carlo simulation study shows the immense variance reduction that can be achieved with this method in realistic scenarios. This can be up to 90%. This actually enables the use of parametric bootstrap in applications in official statistics. Finally, the presented estimation methods in a large Monte Carlo simulation study in a specific application for the Swiss structural survey are examined. Here problems are discussed, which are of high relevance for official statistics. These are in particular: (a) How small can the areas be without leading to inappropriate or to high precision estimates? (b) Are the accuracy specifications for the Small Area estimators reliable enough to use it for publication? (c) Do very small areas infer in the modeling of the variables of interest? Could they cause thus a deterioration of the estimates of larger and therefore more important areas? (d) How can covariates, which are in different levels of aggregation be used in an appropriate way to improve the estimates. The data basis is the Swiss census of 2001. The main results are that in the author- view, the use of small area estimators for the production of estimates for areas with very small sample sizes is advisable in spite of the modeling effort. The MSE estimates provide a useful measure of precision, but do not reach in all Small Areas the level of reliability of the variance estimates for design-based estimators.
Die vorliegende Arbeit teilt sich in die zwei titelgebenden Themengebiete. Inhalt des ersten Teils dieser Arbeit ist die Untersuchung der Proximität, also einer gewissen Messung der Nähe, von Binomial- und Poisson-Verteilungen. Speziell wird die uniforme Struktur des Totalvariationsabstandes auf der abgeschlossenen Menge aller Binomial- und Poisson-Verteilungen charakterisiert, und zwar mit Hilfe der die Verteilungen eindeutig bestimmenden zugehörigen Erwartungswerte und Varianzen. Insbesondere wird eine obere Abschätzung des Totalvariationsabstandes auf der Menge der Binomial- und Poisson-Verteilungen durch eine entsprechende Funktion der zugehörigen Erwartungswerte und Varianzen angegeben. Der zweite Teil der Arbeit widmet sich Konfidenzintervallen für Durchschnitte von Erfolgswahrscheinlichkeiten. Eine der ersten und bekanntesten Arbeiten zu Konfidenzintervallen von Erfolgswahrscheinlichkeiten ist die von Clopper und Pearson (1934). Im Binomialmodell werden hier bei bekanntem Stichprobenumfang und Konfidenzniveau Konfidenzintervalle für die unbekannte Erfolgswahrscheinlichkeit entwickelt. Betrachtet man bei festem Stichprobenumfang statt einer Binomialverteilung, also dem Bildmaß einer homogenen Bernoulli-Kette unter der Summationsabbildung, das entsprechende Bildmaß einer inhomogenen Bernoulli-Kette, so erhält man eine Bernoulli-Faltung mit den entsprechenden Erfolgswahrscheinlichkeiten. Für das Schätzen der durchschnittlichen Erfolgswahrscheinlichkeit im größeren Bernoulli-Faltungs-Modell sind z. B. die einseitigen Clopper-Pearson-Intervalle im Allgemeinen nicht gültig. Es werden hier optimale einseitige und gültige zweiseitige Konfidenzintervalle für die durchschnittliche Erfolgswahrscheinlichkeit im Bernoulli-Faltungs-Modell entwickelt. Die einseitigen Clopper-Pearson-Intervalle sind im Allgemeinen auch nicht gültig für das Schätzen der Erfolgswahrscheinlichkeit im hypergeometrischen Modell, das ein Teilmodell des Bernoulli-Faltungs-Modells ist. Für das hypergeometrische Modell mit festem Stichprobenumfang und bekannter Urnengröße sind die optimalen einseitigen Konfidenzintervalle bekannt. Bei festem Stichprobenumfang und unbekannter Urnengröße werden aus den im Bernoulli-Faltungs-Modell optimalen Konfidenzintervallen optimale Konfidenzintervalle für das hypergeometrische Modell entwickelt. Außerdem wird der Fall betrachtet, dass eine obere Schranke für die unbekannte Urnengröße gegeben ist.
In Mitteleuropa steigt der Anteil befestigter und damit zumeist undurchlässiger Oberflächen durch Flächenerschließung und Urbanisierung stetig. Die Verdichtung und Befestigung natürlicher Oberflächen und das einhergehende Sammeln und Abführen des Niederschlagswassers vergrößert nicht nur den Oberflächenabfluss, sondern reduziert auch die Grundwasserneubildung. Das an Regenwettertagen anfallende Oberflächenwasser von befestigten Flächen wird zwar in den Kanalnetzen gesammelt, kann jedoch nicht vollständig zur Kläranlage abgeführt werden. Das überschüssige Wasser im Kanalsystem wird dann an neuralgischen Punkten dem nächstgelegenen Gewässer zugeleitet. Auf diese Weise gelangt eine große Bandbreite an Substanzen in die Gewässer und beeinflusst den natürlichen Stoffhaushalt. Häufig sind kleine und mesoskalige Gewässersysteme in Ballungsräumen mit einem hohen Versiegelungsgrad betroffen. Neben der schadlosen Ableitung des Ereignisabflusses tritt im Zuge der Umsetzung der Europäischen Wasserrahmenrichtlinie (WRRL, 2000/60/EG) das Ziel des guten ökologischen und chemischen Zustandes des Gewässers in den Vordergrund. Mit Blick auf die Reduktion von angereichertem und vermischtem Niederschlagswasser in den Gewässern ist das Niederschlagswassermanagement das wichtigste Instrument. Die vorliegende Arbeit betrachtet beispielhaft zwei mesoskalige, urban geprägte Gewässer in der Großregion Luxemburg-Trier, die luxemburgische Mess und den deutschen Olewiger Bach. Dabei werden ebenfalls zwei unmittelbar durch Trenn- und Mischwasserkanalisation beeinflusste Teileinzugsgebiete des Olewiger Bachs untersucht. Ziel ist es, die Auswirkungen der urbanen Einleitungen an Regenwettertagen in den verschiedenen Phasen der Hochwasserwelle (Anstieg, Plateau und Rezessionsast) zu analysieren. Ein Schwerpunkt wird dabei auf den Nachweis anthropogener Spurenstoffe sowie wiederkehrende Strukturen im Wellenverlauf gelegt. Die Untersuchung der urban geprägten Bäche erfolgt mit zeitlich hochaufgelösten Einzelstichproben. Im Gegensatz zur gängigen Beprobung mittels volumen-proportionaler Mischproben kann mit diesem Ansatz der Einfluss der anthropogenen Systeme auf Hydro- und Chemographen im Hochwasserereignis analysiert werden. Auch Stoßbelastungen werden besser erfasst und abgebildet. In allen Untersuchungsgebieten werden in jeder Hochwasserwelle anthropogene Spurenstoffe nachgewiesen. Die Konzentrationen variieren sowohl während eines Hochwasserereignisses, als auch im Vergleich zwischen Ereignissen erheblich. Die nachgewiesenen Maximalkonzentrationen in Mess und Olewiger Bach übersteigen die mittleren Gehalte der einzelnen Spurenstoffe um das zwei bis 30-fache. Einige Pestizidgehalte in der Mess überschreiten zudem zeitweise die Grenzwerte der Umweltqualitätsnormen Richtlinie (UQN, 2008/105/EG). Die größten stofflichen Belastungen in Form maximaler Spurenstoffgehalte treten in der Regel bei mäßigen Niederschlagsereignissen in Kombination mit geringem Basisabfluss im Gewässer auf. Die Gesamtfracht hingegen steigt meist mit der Ereignisfülle. Die hydraulischen und stoffrelevanten Auswirkungen an der Schnittstelle von Kanal und Gewässer lassen sich in vielen urban geprägten Bächen wiederfinden. Diese Einleitungen an Regenwettertagen sind bedeutsam für die Komplexität des Abflussverhaltens sowie die Chemodynamik der betroffenen Vorfluter. Die Ergebnisse zeigen, dass es zukünftig mit Blick auf ein erfolgreiches Einzugsgebietsmanagement notwendig ist, die Niederschlagswasserbewirtschaftung in die Maßnahmenplanung einzubeziehen. Bei urbanen Gewässern muss darauf geachtet werden, dass die Maßnahmen zur Verbesserung des chemischen und ökologischen Zustandes nach der WRRL nicht im Konflikt mit der schadlosen Ableitung des Niederschlagswassers stehen. Vor allem hinsichtlich der stofflichen Dynamik, welche in der Regel mittels volumenproportionaler Mischproben untersucht wird, besteht weiterer Forschungsbedarf.
Amphibien sind weltweit stark bedroht, was neben anderen Gründen auch durch Umweltverschmutzung bedingt scheint, wobei hier oft der vermehrte Einsatz von Agrochemikalien hervorgehoben wird. Obwohl landwirtschaftlich genutzte Gebiete meistens stark anthropogen verändert sind, beherbergen sie dennoch viele Amphibienpopulationen. Diese müssen hier oftmals persistieren, weil ihre ursprünglichen Lebensräume für die Landwirtschaft umgestaltet wurden und werden. Neben direkter Habitatzerstörung und "degradierung sowie mechanischen Bearbeitungsprozessen in der Landwirtschaft kann sich der Einsatz von Agrochemikalien, insbesondere von Pestiziden, stark negativ auf die dortigen Amphibien auswirken. Zwar sind aufgrund mangelnder Datenlage bisher keine kausalen Zusammenhänge zwischen Populationsrückgängen und Pestizideinsätzen nachgewiesen, jedoch können Amphibien über verschiedene direkte und indirekte Wege geschädigt werden. Eine Vielzahl von Studien zeigte bereits unterschiedlichste adverse Effekte auf der Individualebene. In der vorliegenden Arbeit wurden wichtige Fragestellungen zu diesem Themengebiet aufgegriffen. Der potenzielle Einfluss von Pestizideinsätzen auf Amphibien, besonders im Freiland, stellt ein komplexes Arbeitsfeld dar, so dass verschiedene methodische Ansätze angewendet wurden, um auf verschiedene Fragestellungen einzugehen. Im ersten Teil der vorliegenden Arbeit wurden zwei methodisch unterschiedliche Risikobewertungen durchgeführt. Es wurde auf die Fragestellung eingegangen, welche Effekte von glyphosatbasierten Herbiziden, welche weltweit den größten Absatz besitzen, auf Amphibien dokumentiert sind und welche Endpunkte am besten geeignet sind, um adverse Effekte nachzuweisen. Dazu wurde eine systematische Literaturübersicht und Meta-Analyse aller publizierten Studien durchgeführt. In einer zweiten Risikobewertung wurde ein GIS-basierter Ansatz angewendet, um das Expositionsrisiko der Amphibienarten des Anhangs II der europäischen Fauna-Flora-Habitat-Richtlinie (Arten von gemeinschaftlichem Interesse) gegenüber Pestiziden in ihren speziell ausgewiesenen Schutzgebieten abzuschätzen. Im zweiten Teil der vorliegenden Arbeit wurden Laborexperimente mit Embryonen und Larven zweier Anuren-Modellorganismen und einem, amphibientoxikologisch bisher noch nicht untersuchten und häufig angewendeten, Herbizid durchgeführt. Der dritte Teil der vorliegenden Arbeit beinhaltet die Ergebnisse zweier Freilandstudien. Es wurde überprüft, ob Anurenlarven aufgrund der Wahrscheinlichkeit der Ausbildung von Deformationen (was im Labor einen gut studierten Endpunkt darstellt) als Bioindikatoren für die Belastung von Kleingewässern mit Agrochemikalien geeignet sind. In der zweiten Freilandstudie wurde überprüft, ob drei einheimische Amphibienarten Kleinstgewässer meiden, welche mit umweltrelevanten Konzentrationen verschiedener Stoffe kontaminiert wurden. Im rechtswissenschaftlichen Teil der Arbeit wurde darauf eingegangen, wie hoch die unterschiedlichen Umsetzungsstandards der europäischen Wasserrahmenrichtlinie respektive des nationalen Wasserhaushaltsgesetzes in den Ländern bezüglich des Schutzes von Kleingewässern, welche fast alle heimischen Amphibienarten zur Reproduktion benötigen, durch Gewässerrandstreifenschutz ist.
The Role of Dopamine and Acetylcholine as Modulators of Selective Attention and Response Speed
(2015)
The principles of top-down and bottom-up processing are essential to cognitive psychology. At their broadest, most general definition, they denote that processing can be driven either by the salience of the stimulus input or by individual goals and strategies. Selective top-down attention, specifically, consists in the deliberate prioritizing of stimuli that are deemed goal-relevant, while selective bottom-up attention relies on the automatic allocation of attention to salient stimuli (Connor, Egeth, & Yantis, 2004; Schneider, Schote, Meyer, & Frings, 2014). Variations within neurotransmitter systems can modulate cognitive performance in a domain-specific fashion (Greenwood, Fossella, & Parasuraman, 2005). Noudoost and Moore (2011a) proposed that the influence of the dopaminergic neurotransmitter system on selective top-down attention might be greater than the influence of this system on selective bottom-up attention; likewise, they assumed that the cholinergic neurotransmitter system might be more important for selective bottom-up than top-down attention. To test this hypothesis, naturally occurring variations within the two neurotransmitter systems were assessed. Five polymorphisms were selected; two of the dopaminergic system (the COMT Val158Met polymorphism and the DAT1 polymorphism) and three of the cholinergic system (the CHRNA4 rs1044396 polymorphism, the CHRNA5 rs3841324 polymorphism, and the CHRNA5 rs16969968 polymorphism). It was tested whether these polymorphisms modulated the performance in tasks of selective top-down attention (a Stroop task and a Negative priming task) and in a task of selective bottom-up attention (a Posner-Cuing task). Indeed, the dopaminergic polymorphisms influenced selective top-down attention, but exerted no effects on bottom-up attention. This aligned with the hypothesis proposed by Noudoost and Moore (2011a). In contrast, the cholinergic polymorphisms were not found to modulate selective bottom-up attention. The three cholinergic polymorphisms, however, affected the general response speed in the Stroop task, Negative priming task, and Posner-Cuing task (irrespective of attentional processing). In sum, the findings of this study provide strong indications that the dopaminergic system modulates selective top-down attention, while the cholinergic system is highly relevant for the general speed of information processing.
Die Frage, wie die Lesekompetenz der Lernenden effizienter entwickelt werden kann, beschäftigt die Leseforschung im Bereich Chinesisch als Fremdsprache (ChaF) seit vielen Jahren. Bis heute werden dabei schriftstrukturelle Aspekte in den Vordergrund gestellt, so z. B. die Frage, wie den Lernenden der Aufbau der Schriftzeichen systematisch näher gebracht werden kann oder auch korpusrelevante Ansätze, die in Sammlungen hochfrequenter Schriftzeichen und Wörter ihren Niederschlag finden. So sinnvoll diese Herangehensweisen beispielsweise für die Entwicklung von Lehrwerken sind, so bleibt doch festzuhalten, dass die Wortebene (Wortschatzkenntnis und Worterkennung), die den Befunden der L1- und L2-Leseforschung zufolge der Schlüssel für das Verstehen von Texten ist, bis heute sowohl in der lesedidaktischen Diskussion als auch in den Lehrwerken stark vernachlässigt wird. In den letzten zwanzig Jahren ist von Seiten der ChaF-Leseforschung, insbesondere in den USA und in China, eine Reihe von psycholinguistischen Studien zur Entwicklung der Lesekompetenz, der Worterkennung und von Wortschatzkenntnissen sowie zur Beziehung dieser Kompetenz- und Wissensbereiche publiziert worden. Auch der Leseprozess geübter L1-Leser ist inzwischen gut erforscht. Allerdings lassen sich aus den Ergebnissen einzelner psycholinguistischer Studien, in denen unter Anwendung unterschiedlicher Forschungsparadigmen bestimmte Subprozesse des Lesens untersucht werden, nicht direkt Schlussfolgerungen für die nach kohärenten Erklärungen des Leseprozesses verlangende Lesedidaktik ziehen. Für die Entwicklung eines evidenzbasierten Ansatzes zur wortschatzzentrierten Lesevermittlung in ChaF wurde daher in der vorliegenden interdisziplinären Studie die gesamte relevante empirische Evidenz zum Lesen und zur Wortverarbeitung in ChaF kritisch im Rahmen konsensfähiger Theorien zur Sprachverarbeitung analysiert. Ergebnis dieser Analyse war, dass " ebenso wie in anderen Fremdsprachen auch " umfassende und gut vernetzte Wortschatzkenntnisse sowie eine automatisierte Worterkennung, die den zuverlässigen Abruf phonologischer Informationen mit einschließt, Grundvoraussetzungen für das fließende Lesen chinesischer Texte sind. Gleichzeitig verdeutlichen die empirischen Befunde auch, dass der Erwerb vertiefter Wortschatzkenntnisse aufgrund der sprachlichen Distanz des Chinesischen für westliche ChaF-Lernende eine große Herausforderung darstellt. Auch die Entwicklung der Worterkennung ist aufgrund der phonologischen Intransparenz der chinesischen Schrift und auch weil beim Lesen eine zusätzliche Wortsegmentierung vorgenommen werden muss, mit großen Schwierigkeiten verbunden. Im letzten Kapitel der Dissertation werden Empfehlungen für eine wortschatzzentrierte Lesedidaktik formuliert, die Ansätze aus der evidenzbasierten westlichen L2-Lesedidaktik mit der traditionellen Methode des lauten Lesens verbindet und die den Lernenden gleichzeitig die Möglichkeit bietet, im Rahmen inhaltsbezogener rezeptiver, reflexiver und produktiver Übungen aktiv mit chinesischen Wörtern umzugehen und deren Verwendung wiederholt einzuüben.
Die Untersuchung beschäftigt sich mit den Prozessen und Mechanismen, die dem NATO-Beitritt Polens zugrunde liegen, insbesondere mit den Gründen für die Transformation der zivil-militärischen Beziehungen in Polen. Die Demokratisierung der zivil-militärischen Beziehungen war eines der Hauptkriterien für den Beitritt Polens in die NATO. rnVor diesem Hintergrund geht die Arbeit der Frage nach, ob nachzuweisen ist, dass der Einfluss der NATO primär für die Demokratisierung der zivil-militärischen Beziehungen Polens verantwortlich ist. Dabei stützt sich die Arbeit auf den aktuellen Forschungsstand der Theorien internationaler Sozialisation, deren Ziel es ist, die Prozesse und Mechanismen der Normübernahme von Staaten zu erklären. Der theoretische Rahmen wurde in ein Forschungsdesign eingebettet, das vielfältige Methoden für die detaillierte empirische Analyse einbezieht. Ergänzend wurden alternative und ergänzende Erklärungen überprüft, die nicht durch die Theorie abgedeckt werden. Entgegen der vorherrschenden Meinung in der Fachliteratur kommt die Untersuchung zu dem Ergebnis, dass die NATO nicht primär für die Sozialisation und damit Demokratisierung der zivil-militärischen Beziehungen in Polen verantwortlich ist. Polen ist erfolgreich in der Demokratisierung seiner zivil-militärischen Beziehungen, jedoch ist die NATO nicht erfolgreich in der Sozialisation Polens in diesem Bereich, sondern eher darin, den Demokratisierungsprozess in Polen mit Erfahrung und Expertise zu flankieren. Dieser Prozess wurde maßgeblich innenpolitisch und durch Akteure in Polen angestoßen, angetrieben, getragen und schlussendlich entschieden. Obgleich die NATO das Beitrittskriterium vorgab und die polnischen Akteure durchaus begleitete, kann darüber hinaus der Einfluss der NATO als nicht maßgeblich bewertet werden. Im Gegenteil, die Ergebnisse zeigen, dass es nicht das Ziel der NATO war, die Prozesse direkt zu beeinflussen oder zu steuern, sondern vielmehr, den Transformationsprozess der zivil-militärischen Beziehungen in Polen, insbesondere die praktische Umsetzung, durch Expertise und Erfahrungen zu begleiten und eigene Lernprozesse anzustoßen.
Mit fachlicher Informationskompetenz werden die Fähigkeiten bezeichnet, die notwendig sind, um effektiv Fachinformationen (z.B. Zeitschriftenartikel) finden und bewerten zu können. Informationskompetenz gilt als wichtige Voraussetzung für ein erfolgreiches Studium und Erfolg auf dem Arbeitsmarkt. Ziel dieser Arbeit ist es, Messinstrumente für fachliche Informationskompetenz bei Psychologiestudierenden zu entwickeln. Dabei wird davon ausgegangen, dass Informationskompetenz sowohl deklarative, als auch prozedurale Wissenskomponenten (Hintergrundwissen über Konzepte und die Beherrschung von Strategien und Vorgehensweisen) enthält. Um diese erfassen zu können, wurde ein Multiple-Choice-Test und Rechercheaufgaben entwickelt; beide Instrumente wurden zur Evaluation eines Trainings für Informationskompetenz eingesetzt. Mittlere Korrelationen zwischen den Instrumenten und die Ergebnisse einer Clusteranalyse zeigen, dass mit beiden Instrumenten unterschiedliche Wissenskomponenten erfasst werden.
Stressinduzierte Veränderungen gastrointestinaler Peptidhormone könnten eine biologische Grundlage für Überessen und einen Faktor bei der Entstehung von Adipositas darstellen. Darum wurden die Veränderungen der Plasmakonzentrationen von Ghrelin und Peptid YY (PYY) durch akuten Stress bei 85 adipösen und normalgewichtigen Frauen untersucht. Im Vergleich zu normalgewichtigen Frauen hatten adipöse Frauen eine geringere pre- als auch postprandiale Ghrelin-Sekretion. Darüber hinaus fiel auch der postprandiale Ghrelin-Abfall bei den adipösen Frauen geringer aus als bei der normalgewichtigen Vergleichsgruppe. Akuter Stress inhibierte die PYY-Sekretion in beiden Gruppen. Außerdem wurde der Effekt von akutem Stress auf das Essverhalten erfasst. Stress inhibierte die Nahrungsaufnahme in beiden Gruppen.
The distractor-response binding effect (Frings & Rothermund, 2011; Frings, Rothermund, & Wentura, 2007; Rothermund, Wentura, & De Houwer, 2005) is based on the idea that irrelevant information will be integrated with the response to the relevant stimuli in an episodic memory trace. The immediate re-encounter of any aspect of this saved episode " be it relevant or irrelevant " can lead to retrieval of the whole episode. As a consequence, the previously executed and now retrieved response may influencing the response to the current relevant stimulus. That is, the current response may either be facilitated or be impaired by the retrieved response, depending on whether it is compatible or incompatible to the currently demanded response. Previous research on this kind of episodic retrieval focused on the influence on action control. I examined if distractor response binding also plays a role in decision making in addition to action control. To this end I adapted the distractor-to-distractor priming paradigm (Frings et al., 2007) and conducted nine experiments in which participants had to decide as fast as possible which disease a fictional patient suffered from. To infer the correct diagnosis, two cues were presented; one did not give any hint for a disease (the irrelevant cue), whereas the other did (the relevant cue). Experiments 1a to 1c showed that the distractor-response binding effect is present in deterministic decision situations. Further, experiments 2a and 2b indicate that distractor-response binding also influences decisions under uncertainty. Finally, experiments 3a to 3d were conducted to test some constraints and underlying mechanisms of the distractor-response binding effect in decision making under uncertainty. In sum, these nine experiments provide strong evidence that distractor-response binding influences decision making.
Seit seiner Unabhängigkeit erfreut sich Namibia als Reiseziel weltweit wachsender Beliebtheit, wodurch der Tourismus wirtschaftlich einen hohen Stellenwert hat. Zugleich lebt ein Großteil der Bevölkerung in Armut und ist zumeist noch immer von der Landwirtschaft abhängig. Diese dominiert flächenmäßig, zur Wertschöpfung und zur Entwicklung des Landes vermag sie allerdings nur wenig beizutragen. Kam im ariden Namibia ehemals nur Ranching als Landnutzung in Frage, sehen sich Landbesitzer wegen verschlechterter Rahmenbedingungen heute gezwungen, weitere Einkommensquellen zu erschließen. Naturtourismus ist eine der Alternativen. Ausgerechnet die wirtschaftlichen Schwächen der ländlichen Regionen mit naturnahen Landschaften, geringer anthropogener Überformung und der Abwesenheit von Industrie ermöglichen einzigartige Naturerlebnisse und stellen damit die Grundlage für Naturtourismus dar. Im Fokus der vorliegenden Studie stehen daher die Landnutzungen Ranching und Naturtourismus, die beide auf dem natürlichen Potenzial des Landes basieren und zugleich räumlich um die gleichen Flächen konkurrieren. Ziel ist die Bewertung der Auswirkungen beider Landnutzungen im Vergleich, um somit die für einen Raum am besten geeignete Nutzungsoption zu identifizieren und Verbesserungspotentiale bei der Ausgestaltung der untersuchten Landnutzungen aufzuzeigen. Die Erkenntnisse aus der einschlägigen Fachliteratur legen die Hypothese nahe, dass Naturtourismus im Vergleich zum Ranching die besser geeignete Landnutzung darstellt. Den theoretischen Rahmen zur Identifizierung der besser geeigneten Landnutzung bildet das Nachhaltigkeitskonstrukt, das wie jedes andere Theorem nicht unmittelbar mess- oder beobachtbar, sondern nur indirekt mit Hilfe von Indikatoren operationalisierbar ist. Die Mehrzahl der 34 insgesamt verwendeten Indikatoren entstammt dem Set der Vereinten Nationen. Alle verwendeten Indikatoren fanden Anwendung in einer für diese Arbeit auf Unternehmensebene adaptierten Version. Um den physischen wie humangeographischen Besonderheiten Namibias (Verfügbarkeit von Wasser, Namibia als Entwicklungsland etc.) gerecht zu werden, wurden zusätzliche Indikatoren für den regionalen Kontext der Studie konzipiert. Entsprechend dem Erkenntnisinteresse, unter Nachhaltigkeitsaspekten die am besten geeignete Landnutzung zu identifizieren, wurden anhand eines umfangreichen methodischen Kanons die empirischen Untersuchungen durchgeführt. Ausgangspunkt hierfür waren Erhebungen in Namibia, die in der Etosha-Region unmittelbar südlich der Kommunalgebiete stattfanden. Methodisch kamen dafür vorrangig quantitative Methoden zum Einsatz, wobei standardisierte Fragebögen als primäre Erhebungsinstrumente konzipiert wurden. Diese wurden von Expertengesprächen, Beobachtungen, Kartierungen und Sekundärdatenanalysen flankiert. Die Erkenntnisse aus den Erhebungen erlauben Aussagen für weite Gebiete Namibias mit vergleichbaren Bedingungen. So bestehen - entsprechend der Forschungshypothese - eindeutige Vorteile des Naturtourismus gegenüber dem Ranching hinsichtlich der betrachteten Landnutzungsauswirkungen, womit der Naturtourismus unter Nachhaltigkeitsaspekten die besser geeignete Landnutzung ist. Vor allem im Bereich der Sozialindikatoren überzeugen die Auswirkungen: Soziale Sicherheit, Wohnbedingungen (Elektrizität, Sanitäreinrichtungen, Wasserversorgung etc.), sozio-ökonomische Aufstiegschancen und die Mitarbeiterzufriedenheit sind zugunsten des Naturtourismus zu werten. Auch im Ökonomischen liegen die Vorteile bei dieser Landnutzung, wobei ein Aspekt negativ auffällt: Vor allem in puncto Regionalökonomie besteht im Tourismus Verbesserungsbedarf. Denn sowohl die Angestelltenrekrutierung als auch die Versorgung mit Waren und Dienstleistungen erfolgt mehrheitlich überregional. Dahingehend sind die Auswirkungen des Ranching als vorteilhafter anzusehen. Wie die Erhebungen ferner belegen, nimmt die Bedeutung des ausschließlichen Ranching aufgrund von Rentabilitätsproblemen auf kommerziellem Farmland sukzessive ab, stattdessen weisen Ländereien zumeist mehr als nur ein wirtschaftliches Standbein auf. Daher ist hinsichtlich der Landreform zu kritisieren, dass Neufarmer - wenn überhaupt - nur auf das Ranching vorbereitet werden. Wie die Erhebungen zeigen: eine wenig zeitgemäße Landnutzungsstrategie. Ein im Rahmen der Arbeit entwickeltes und ihr beiliegendes Farmrentabilitätstool verdeutlicht auf Basis einer Vielzahl vom Nutzer veränderlicher Einstellungen, wie schwierig die rentable Bewirtschaftung von Ranches heute ist.
Stress related disorders increase continuously. It is not yet clear if stress also promotes breast cancer. This dissertation provides an analyses of the current state of research and focuses on the significance of pre-/postnatal stress factors and chronic stress. The derived hypotheses are empirically examined on breast cancer patients. The clinical study investigates the links between those factors and prognosis and outcome.
This thesis deals with economic aspects of employees' sickness. In addition to the classical case of sickness absence, in which an employee is completely unable to work and hence stays at home, there is the case of sickness presenteeism, in which the employee comes to work despite being sick. Accordingly, the thesis at hand covers research on both sickness states, absence and presenteeism. The first section covers sickness absence and labour market institutions. Chapter 2 presents theoretical and empirical evidence that differences in the social norm against benefit fraud, so-called benefit morale, can explain cross country diversity in the generosity of statutory sick pay entitlements between developed countries. In our political economy model, a stricter benefit morale reduces the absence rate, with counteracting effects on the politically set sick pay replacement rate. On the one hand, less absence caused by a stricter norm, makes the tax-financed insurance cheaper, leading to the usual demand side effect and hence to more generous sick pay entitlements. On the other hand, being less likely to be absent due to a stricter norm, the voters prefer a smaller fee over more insurance. We document both effects in a sample of 31 developed countries, capturing the years from 1981 to 2010. In Chapter 3 we investigate the relationship between the existence of works councils and illness-related absence and its consequences for plants. Using individual data from the German Socio-Economic Panel (SOEP), we find that the existence of a works council is positively correlated with the incidence and the annual duration of absence. Additionally, linked employer-employee data (LIAB) suggests that employers are more likely to expect personnel problems due to absence in plants with a works council. In western Germany, we find significant effects using a difference-in-differences approach, which can be causally interpreted. The second part of this thesis covers two studies on sickness presenteeism. In Chapter 4, we empirically investigate the determinants of the annual duration of sickness presenteeism using the European Working Conditions Survey (EWCS). Work autonomy, workload and tenure are positively related to the number of sickness presenteeism days, while a good working environment comes with less presenteeism. In Chapter 5 we theoretically and empirically analyze sickness absence and presenteeism behaviour with a focus on their interdependence. Specifically, we ask whether work-related factors lead to a substitutive, a complementary or no relationship between sickness absence and presenteeism. In other words, we want to know whether changes in absence and presenteeism behaviour incurred by work-related characteristics point in opposite directions (substitutive), the same direction (complementary), or whether they only affect either one of the two sickness states (no relationship). Our theoretical model shows that the relationship between sickness absence and presenteeism with regard to work-related characteristics is not necessarily of a substitutive nature. Instead, a complementary or no relationship can emerge as well. Turning to the empirical investigation, we find that only one out of 16 work-related factors, namely the supervisor status, leads to a substitutive relationship between absence and presenteeism. Few of the other determinants are complements, while the large majority is either related to sickness absence or presenteeism.
Die Klosterbibliothek der Augustiner-Chorherren der Windesheimer Kongregation in Eberhardsklausen gehört nicht nur aufgrund ihrer Bestände, sondern auch aufgrund des noch erhaltenen Bibliotheksraumes zu den bedeutendsten Bibliotheken des 15. Jahrhunderts im Erzstift Trier. Neben einer kurzen theoretischen Betrachtung der Klosterbibliothek als Wissensraum vor dem Hintergrund der Raumtheorie Michel Foucaults (1926-1984) sowie der Vorstellung von Methodik und Forschungsstand im ersten Teil erfolgt im zweiten Teil der vorliegenden Dissertation eine Darstellung des Bildungsprogrammes der niederländischen Reformbewegung der Devotio moderna sowie die Einordnung der Klostergründung von Eberhardsklausen in den Kontext der Ordensreform. Im Mittelpunkt des dritten Teiles steht die Klosterbibliothek als Raum, dessen Disposition innerhalb der Klosteranlage, die im Vergleich zu anderen Bibliotheksräumen, z. B. in Windesheim, Niederwerth, Dalheim, Bernkastel-Kues usw. diskutiert wird. Es folgen kunsthistorische Beschreibungen des Klausener Bibliotheksraumes sowie der dortigen Wandmalereien aus dem beginnenden 16. Jahrhundert. Diese zeigen 19 Darstellungen von Propheten, Heiligen, Kirchenvätern und anderen historischen Persönlichkeiten, die mit dem Bildungsprogramm der Devotio moderna und anderen mittelalterlichen Bibliotheksausmalungen in Windesheimer Klöstern wie Böddeken oder Basel verglichen werden. Der dritte Teil schließt mit Überlegungen zur Eberhardsklausener Klosterbibliothek im Gebrauch, d. h. zur Signatur der Bücher, zur Aufstellungsordnung, zum Bibliothekskatalog und zur Rolle des Bibliothekars sowie zur Ausstattung und zum Mobiliar, aber auch zu deren Nutzern und ihren Arbeitsplätzen. Der vierte und ausführlichste Teil der Untersuchung widmet sich den noch nachweisbaren Klausener Buchbeständen, d. h. vor allem den Handschriften des 15. und 16. Jahrhunderts sowie den dort aufbewahrten Inkunabeln. Dabei werden Fragen nach dem Aufbau eines bibliothekarischen Grundstocks sowie nach der Schreibtätigkeit in den ersten beiden Jahrhunderten seit der Gründung des Konvents behandelt. Die Klausener Bestände werden hinsichtlich ihres Verwendungszweckes, d. h. für die Persönlichkeitsbildung der einzelnen Chorherren, für die klösterliche Gemeinschaft und für den Buchmarkt untersucht, wobei der letztgenannte Bereich für Eberhardsklausen kaum eine Rolle spielt. In einem weiteren Abschnitt erfolgt eine quantifizierte Auswertung der Bestände nach Autoren, wobei die meisten Texte Augustinus, Bernhard von Clairvaux, Bonaventura, Johannes Gerson und Thomas von Aquin zuzuordnen sind, die alle ebenso an den Wänden der Klosterbibliothek abgebildet werden. Ein besonderes Augenmerk wird darüber hinaus auch auf die Eberhardsklausener Chorherren gelegt, die selbst als Schriftsteller nachweisbar sind, wie z. B. Prior Berthold von Marsberg sowie Peter von Ahrweiler, Gerhard von der Lippe und Gisbert, alle drei in ihrer Funktion als Rektoren des Trierer Frauenklosters St. Agneten oder z. B. auch der Klosterchronist Wilhelm von Bernkastel. Aufgrund der besonderen Beziehungen zu Nikolaus Cusanus und zum St. Nikolaus-Hospital in Bernkastel-Kues widmet sich ein Abschnitt den Schriften des Kardinals, die in Klausen vorhanden sind. Unter ihnen lässt sich eine Predigthandschrift mit einer bis dato unbekannten Predigt (Sermo LXXV_A, Salzburg, 7. Februar 1451) des berühmten Denkers von der Mosel nachweisen. Des Weiteren erfolgt eine Einteilung des Bestandes in 16 Sachgruppen bzw. literarische Kategorien, wie z. B. Bibelausgaben, liturgische Schriften, Werke der Kirchenväter, Predigten, Erbauungsliteratur, Passionsschriften, Heiligenlegenden, juristische Werke und Fachliteratur. Ein weiteres Augenmerk wird ferner auf die deutschsprachigen Bücher in Eberhardsklausen gelegt, die kaum mehr als ca. 10% des Bestandes ausmachten und weitestgehend der Bibliothek der Laienbrüder zuzurechnen sind. Auch die meist als Einbandmakulatur verwendeten Fragmente werden behandelt, wobei hierunter vor allem die hebräischen Fragmente sowie die Reste eines Legendariums des Freisinger Schreibers Cundpato aus dem 9. Jahrhundert herausragen. Die Untersuchung wird abgeschlossen durch eine genaue Untersuchung der Schreiber, Stifter und Vorbesitzer sowie mit einem Ausblick auf die Auflösung der Bibliothek im beginnenden 19. Jahrhundert infolge der Säkularisation und auf den Verbleib der Eberhardsklausener Handschriften und Drucke.
Gerade in der heutigen Zeit im Spannungsfeld zwischen der globalen Klimaveränderung und einer stetig wachsenden Weltbevölkerung wird es immer wichtiger, die Oberflächenprozesse quantifizieren zu können. In fünf Untersuchungsgebieten in Deutschland, Luxemburg und Spanien wurden experimentelle Geländemessmethoden zur Quantifizierung von Oberflächenabflussbildung und Bodenerosion eingesetzt. Je nach geographischer Lage der Testgebiete sind unterschiedliche Einflussgrößen wichtig für die Abflussreaktion und den Bodenabtrag. Jahreszeit und Vorfeuchte des Bodens können zu verschiedenen Systemzuständen führen und damit die Oberflächenabflussbildungs- und Bodenerosionsraten beeinflussen. Die Verwendung von experimentellen Messmethoden (Beregnungen) ermöglicht es uns, die Reaktion derselben Flächen bei unterschiedlichen Ausgangsbedingungen auf ein und dasselbe (simulierte) Niederschlagsereignis zu messen. Durch die Kombination mit Geländekartierungen und GIS-Auswertungen wird eine qualitative Übertragung der punktuellen Messergebnisse auf die Fläche ermöglicht. In den beiden Untersuchungsgebieten in Deutschland wurden häufig hydrophobe Eigenschaften der Böden festgestellt. Durch diese Hydrophobizität dringt ein Teil des Niederschlagswassers gar nicht bis zum Mineralboden durch, sondern wird in der Streuschicht gehalten oder fließt innerhalb der Streuschicht ab. Dies führt zu einer Erhöhung der Oberflächenabflussraten. Auch der Einfluss der Landnutzung auf die Intensität der Oberflächenprozesse konnte für die Testgebiete in Deutschland und Luxemburg nachgewiesen werden. Auf Wegen und Fahrspuren, sowie auf Ackerflächen wurden die höchsten Oberflächenabfluss- und Bodenabtragsraten gemessen. Aber auch hydrophobe Waldstandorte zeigten hohe Oberflächenabflussraten, allerdings keinen nennenswerten Bodenabtrag, weil die Humusauflage die Bodenoberfläche schützt. Die im Rahmen dieser Arbeit verwendeten Rinnenerosionsversuche ermöglichen es, die Effizienz natürlicher Erosionsrinnen zu messen und zu vergleichen. Durch die Verwendung von beiden Methoden, Beregnung und Rinnenerosionsversuch, können die im Rinneneinzugsgebiet gemessenen Abtragsraten und -mengen mit den Abtragswerten der Erosionsrinne selbst verglichen werden. Insgesamt kann festgestellt werden, dass die Ergebnisse der experimentellen Messungen in Kombination mit einer Kartierung der aktuellen Geomorphodynamik sowie der Auswertung großmaßstäbiger Luftbilder, eine Quantifizierung der aktuellen Prozessdynamik ermöglichen.
Mit der Globalisierung der Märkte und dem weitverbreiteten Einsatz von Kommunikations- und Informationstechnologien in Unternehmen sind in vielen Organisationen geographisch verteilt arbeitende Teams zum Standard geworden. Gleichzeitig gehören multiple Teammitgliedschaften (MTM), d.h. die simultane Zugehörigkeit zu mehreren Teams, für viele Mitarbeitende bereits zum Arbeitsalltag. Mit der Zuordnung von Personen zu multiplen Teams wollen Organisationen einen effektiven Einsatz ihrer personellen Ressourcen ermöglichen. Ob dies tatsächlich gelingt, ist bislang noch ungeklärt. Eine bedeutende Folge dieser Arbeitsstrukturen ist zudem die zunehmende Durchlässigkeit der Grenzen von Teams. Klare Teamgrenzen bleiben aber auch weiterhin ein wichtiger Faktor, um den Zusammenhalt eines Teams und eine effektive Zusammenarbeit der Teammitglieder sicherzustellen. Bislang gibt es keine empirischen Studien zum Zusammenhang von MTM und Teamgrenzen und nur wenige zu den Auswirkungen von MTM auf virtuelle Teamarbeit. Diese Arbeit ging in zwei Studien der Frage nach, in welchem Zusammenhang MTM mit Teamgrenzen und mit emotionalen und kognitiven Zuständen in virtuellen Teams steht und welche Effekte MTM und Teamgrenzen auf verhaltensbezogene Ergebnisse von Teamarbeit haben. Feldstudie: In einer querschnittlichen Online-Fragebogenstudie mit 105 Mitarbeitenden zweier globaler Unternehmen wurde der Zusammenhang von MTM mit Teamgrenzen sowie mit Commitment (emotionaler Zustand) und Team Mentalen Modellen (kognitiver Zustand) untersucht. Neben der Anzahl an Teammitgliedschaften wurden der prozentuale Arbeitszeitanteil im Team und der Virtualitätsgrad in der Zusammenarbeit als Indikatoren von MTM erfasst. Die Prüfung der Zusammenhänge über den Partial-Least-Square Ansatz ergab positive Zusammenhänge von MTM sowie Prozentanteil Arbeitszeit mit Commitment und Team Mentalen Modellen. Ein Zusammenhang von MTM und Teamgrenzen blieb überraschenderweise aus. Ein höherer Virtualitätsgrad ging mit einem geringeren Commitment zum Team und mit als schwächer wahrgenommenen Teamgrenzen einher. Laborstudie: In einer laborexperimentellen Studie mit 178 Studierenden wurden die Effekte von MTM (vier vs. eine Teammitgliedschaft) und Teamgrenzen (gestärkt vs. nicht gestärkt) auf Informationsflut, Koordinationserfolg und Leistung als verhaltensbezogene Ergebnisse virtueller Teamarbeit getestet. MTM zeigte in den Regressionsanalysen weder einen Effekt auf Informationsflut noch auf Koordinationserfolg. Die objektive Leistung viel jedoch bei Versuchspersonen mit vier Teammitgliedschaften signifikant schlechter aus als bei Versuchspersonen mit einer Teammitgliedschaft. Für subjektive Leistungsmaße blieb ein entsprechender negativer Effekt aus. Die Stärkung der Teamgrenzen führte zu einer positiveren Einschätzung des Koordinationserfolgs und der Leistung und reduzierte die Wahrnehmung von Informationsflut. Die Ergebnisse der beiden Studien deuten darauf hin, dass MTM in Abhängigkeit von den betrachteten Indikatoren sowohl positive als auch negative Zusammenhänge mit Prozessen und Ergebnissen in Teams hat. Für MTM haben sich unter den kontrollierten Bedingungen des Experimentes kaum direkte Effekte eingestellt, während in der Feldstudie positive Zusammenhänge mit emotionalen und kognitiven Zuständen eine (mittelfristig) positive Wirkung von MTM andeuten. Dies kann als Hinweis interpretiert werden, dass MTM eher zeitlich versetzte oder über indirekte Mechanismen vermittelte Effekte auf virtuelle Teamarbeit hat. Die im Experiment durch MTM reduzierte objektive Leistung bei gleichbleibender subjektiver Leistungsbewertung deutet darauf hin, dass ein Leistungsabfall durch MTM von den betroffenen Personen möglicherweise nicht bewusst wahrgenommen wird. Teamgrenzen scheint hingegen einen insgesamt förderlichen Faktor für die Zusammenarbeit in virtuellen Teams darzustellen.
Chapter 2: Using data from the German Socio-Economic Panel, this study examines the relation-ship between immigrant residential segregation and immigrants" satisfaction with the neighbor-hood. The estimates show that immigrants living in segregated areas are less satisfied with the neighborhood. This is consistent with the hypothesis that housing discrimination rather than self-selection plays an important role in immigrant residential segregation. Our result holds true even when controlling for other influences such as household income and quality of the dwelling. It also holds true in fixed effects estimates that account for unobserved time-invariant influences. Chapter 3: Using survey data from the German Socio-Economic Panel, this study shows that immigrants living in segregated residential areas are more likely to report discrimination because of their ethnic background. This applies to both segregated areas where most neighbors are immigrants from the same country of origin as the surveyed person and segregated areas where most neighbors are immigrants from other countries of origin. The results suggest that housing discrimination rather than self-selection plays an important role in immigrant residential segregation. Chapter 4: Using data from the German Socio-Economic Panel (SOEP) and administrative data from 1996 to 2009, I investigate the question whether or not right-wing extremism of German residents is affected by the ethnic concentration of foreigners living in the same residential area. My results show a positive but insignificant relationship between ethnic concentration at the county level and the probability of extreme right-wing voting behavior for West Germany. However, due to potential endogeneity issues, I additionally instrument the share of foreigners in a county with the share of foreigners in each federal state (following an approach of Dustmann/Preston 2001). I find evidence for the interethnic contact theory, predicting a negative relationship between foreign-ers" share and right-wing voting. Moreover, I analyze the moderating role of education and the influence of cultural traits on this relationship. Chapter 5: Using data from the Socio-Economic Panel from 1998 to 2009 and administrative data on regional ethnic diversity, I show that ethnic diversity inhibits significantly people- political interest and participation in political organizations in West Germany. People seem to isolate themselves from political participation if exposed to more ethnic diversity which is particularly relevant with respect to the ongoing integration process of the European Union and the increasing transfer of legislative power from the national to European level. The results are robust if an instrumental variable strategy suggested by Dustmann and Preston (2001) is used to take into account that ethnic diversity measured on a local spatial level could be endogenous due to residential sorting. Interestingly, participation in non-political organizations is positively affected by ethnic diversity if selection bias is corrected for.
Freiheit und Sklaverei sind offensichtlich beliebte Themen für Dion gewesen. In fast allen Reden unseres Autors kann man Ideen, Anspielungen und Hinweise auf Sklaverei und Sklaven finden. Das Gleiche lässt sich auch für die Freiheit und die Freien feststellen. Eine theoretische Erörterung der Begriffe "Freiheit" und "Sklaverei" findet man in der 14. und in der 15. Rede, die beide unter dem Titel περὶ δουλεία καὶ ἑλευθερία (Über die Sklaverei und die Freiheit) überliefert sind. In der 14. Rede diskutiert Dion mit einem anonymen Gesprächspartner und versucht zu bestimmen, was Freiheit und Sklaverei sind, bzw. zu klären, was "frei sein" und ,Sklave sein" bedeutet. In der 15. Rede lautet die Hauptfrage, mit der die beiden Sprecher sich auseinandersetzen, ob man wissen kann, wer ein Sklave und wer frei ist, und wie die beiden Begriffe zu bestimmen sind. In beiden Reden kommt es deutlich heraus, dass die wahre Freiheit sowie die wahre Sklaverei innere Konzepte bilden, es geht also um die Freiheit und Sklaverei des Verstandes und der Seele. Im Hauptteil dieser Arbeit sind beide Reden ins Deutsche übersetzt und Kommentiert worden. Der Einleitungsteil ordnet und fasst die Ergebnisse des Kommentars zusammen. Die ersten Kapitel sind dem Leben und den Werken des Autors gewidmet. Im dritten Kapitel wird die Bedeutung der Begriffe "Sklaverei" und "Freiheit" für das gesamte corpus des Dion behandelt. Im vierten Kapitel werden die wichtigsten Aspekte der beiden Reden hervorgehoben: die Hauptthemen, die literarische Gattung, eine mögliche Datierung, ihre Bestimmung.
The classic Capital Asset Pricing Model and the portfolio theory suggest that investors hold the market portfolio to diversify idiosyncratic risks. The theory predicts that expected return of assets is positive and that reacts linearly on the overall market. However, in reality, we observe that investors often do not have perfectly diversified portfolios. Empirical studies find that new factors influence the deviation from the theoretical optimal investment. In the first part of this work (Chapter 2) we study such an example, namely the influence of maximum daily returns on subsequent returns. Here we follow ideas of Bali et al. (2011). The goal is to find cross-sectional relations between extremely positive returns and expected average returns. We take account a larger number of markets worldwide. Bali et al. (2011) report with respect to the U.S. market a robust negative relation between MAX (the maximum daily return) and the expected return in the subsequent time. We extent substantially their database to a number of other countries, and also take more recent data into account (until end of 2009). From that we conclude that the relation between MAX and expected returns is not consistent in all countries. Moreover, we test the robustness of the results of Bali et al. (2011) in two time-periods using the same data from CRSP. The results show that the effect of extremely positive returns is not stable over time. Indeed we find a negative cross-sectional relation between the extremely positive returns and the average returns for the first half of the time series, however, we do not find significant effects for the second half. The main results of this chapter serve as a basis for an unpublished working paper Yuan and Rieger (2014b). While in Chapter 2 we have studied factors that prevent optimal diversification, we consider in Chapter 3 and 4 situations where the optimal structure of diversification was previously unknown, namely diversification of options (or structured financial products). Financial derivatives are important additional investment form with respect to diversification. Not only common call and put options, but also structured products enable investors to pursue a multitude of investment strategies to improve the risk-return profile. Since derivatives become more and more important, diversification of portfolios with dimension of derivatives is of particularly practical relevance. We investigate the optimal diversification strategies in connection with underlying stocks for classical rational investors with constant relative risk aversion (CRRA). In particular, we apply Monte Carlo method based on the Black-Scholes model and the Heston model for stochastic volatility to model the stock market processes and the pricing of the derivatives. Afterwards, we compare the benchmark portfolio which consists of derivatives on single assets with derivatives on the index of these assets. First we compute the utility improvement of an investment in the risk-free assets and plain-vanilla options for CRRA investors in various scenarios. Furthermore, we extend our analysis to several kinds of structured products, in particular capital protected notes (CPNs), discount certificates (DCs) and bonus certificates (BCs). We find that the decision of an investor between these two diversification strategies leads to remarkable differences. The difference in the utility improvement is influenced by risk-preferences of investors, stock prices and the properties of the derivatives in the portfolio. The results will be presented in Chapter 3 and are the basis for a yet unpublished working paper Yuan and Rieger (2014a). To check furthermore whether underlyings of structured products influence decisions of investors, we discuss explicitly the utility gain of a stock-based product and an index-based product for an investor whose preferences are described by cumulative prospect theory (CPT) (Chapter 4, compare to Yuan (2014)). The goal is that to investigate the dependence of structured products on their underlying where we put emphasis on the difference between index-products and single-stock-products, in particular with respect to loss-aversion and mental accounting. We consider capital protected notes and discount certificates as examples, and model the stock prices and the index of these stocks via Monte Carlo simulations in the Black-Scholes framework. The results point out that market conditions, particularly the expected returns and volatility of the stocks play a crucial role in determining the preferences of investors for stock-based CPNs and index-based CPNs. A median CPT investor prefers the index-based CPNs if the expected return is higher and the volatility is lower, while he prefers the stock-based CPNs in the other situation. We also show that index-based DCs are robustly more attractive as compared to stock-based DCs for CPT investors.
Every day we are exposed to a large set of appetitive food cues, mostly of high caloric, high carbohydrate content. Environmental factors like food cue exposition can impact eating behavior, by triggering anticipatory endocrinal responses and reinforcing the reward value of food. Additionally, it has been shown that eating behavior is largely influence by neuroendocrine factors. Energy homeostasis is of great importance for survival in all animal species. It is challenged under the state of food deprivation which is considered to be a metabolic stressor. Interestingly, the systems regulating stress and food intake share neural circuits. Adrenal glucocorticoids, as cortisol, and the pancreatic hormone insulin have been shown to be crucial to maintain catabolic and anabolic balance. Cortisol and insulin can cross the blood-brain barrier and interact with receptors distributed throughout the brain, influencing appetite and eating behavior. At the same time, these hormones have an important impact on the stress response. The aim of the current work is to broaden the knowledge on reward related food cue processing. With that purpose, we studied how food cue processing is influenced by food deprivation in women (in different phases of the menstrual cycle) and men. Furthermore, we investigated the impact of the stress/metabolic hormones, insulin and cortisol, at neural sites important for energy metabolism and in the processing of visual food cues. The Chapter I of this thesis details the underlying mechanisms of the startle response and its application in the investigation of food cue processing. Moreover, it describes the effects of food deprivation and of the stress-metabolic hormones insulin and cortisol in reward related processing of food cues. It explains the rationale for the studies presented in Chapter II-IV and describes their main findings. A general discussion of the results and recommendations for future research is given. In the study described in Chapter II, startle methodology was used to study the impact of food deprivation in the processing of reward related food cues. Women in different phases of the menstrual cycle and men were studied, in order to address potential effects of sex and menstrual cycle. All participants were studied either satiated or food deprived. Food deprivation provoked enhanced acoustic startle (ASR) response during foreground presentation of visual food cues. Sex and menstrual cycle did not influence this effect. The startle pattern towards food cues during fasting can be explained by a frustrative nonreward effect (FNR), driven by the impossibility to consume the exposed food. In Chapter III, a study is described, which was carried out to explore the central effects of insulin and cortisol, using continuous arterial spin labeling to map cerebral blood flow patterns. Following standardized periods of fasting, male participants received either intranasal insulin, oral cortisol, both, or placebo. Intranasal insulin increased resting regional cerebral blood flow in the putamen and insular cortex, structures that are involved in the regulation of eating behavior. Neither cortisol nor interaction effects were found. These results demonstrate that insulin exerts an action in metabolic centers during resting state, which is not affected by glucocorticoids. The study described in Chapter IV uses a similar pharmacological manipulation as the one presented in Chapter III, while assessing processing of reward related food cues through the startle paradigm validated in Chapter II. A sample of men was studied during short-term food deprivation. Considering the importance of both cortisol and insulin in glucose metabolism, food pictures were divided by glycemic index. Cortisol administration enhanced ASR during foreground presentation of "high glycemic" food pictures. This result suggests that cortisol provokes an increase in reward value of high glycemic food cues, which is congruent with previous research on stress and food consumption. This thesis gives support to the FNR hypothesis towards food cues during states of deprivation. Furthermore, it highlights the potential effects of stress related hormones in metabolism-connected neuronal structures, and in the reward related mechanisms of food cue processing. In a society marked by increased food exposure and availability, alongside with increased stress, it is important to better understand the impact of food exposition and its interaction with relevant hormones. This thesis contributes to the knowledge in this field. More research in this direction is needed.
Die Arbeit setzt sich mit den theoretischen und praktischen Aspekten der Analyse und Edition eines literarisch wichtigen Textes mit Methoden der Digital Humanities sowie der Korpus- und Computerlinguistik auseinander. Als Materialgrundlage dient das luxemburgischsprachige Werk des Michel Rodange. Hierzu gehören die Werke "Renert oder de Fuuss am Frack an a Maansgréisst" - ca. 35.000 Tokens, "Dem Léiweckerche säi Lidd" - ca. 5.000 Tokens, "Dem Grof Sigfrid seng Goldkuemer" - ca. 10.000 Tokens und zwei Gedichte - ca. 500 Tokens. Auf der empirischen Seite handelt es sich um die Erstellung eines elektronischen Korpus mit historisch-kritischen und linguistischen Annotationen und dessen Darstellung im Internet als Webportal. Dabei entsteht eine Wechselwirkung zwischen Theorie und Praxis, so werden die erstellten Annotationen verwendet, um das Werk aus sprach- und literaturwissenschaftlicher Perspektive zu untersuchen; diese Erkenntnisse können dann wiederum bei der Implementierung der Tools eingesetzt werden, um den Korrektheitsgrad der automatischen Annotation zu erhöhen. Die historisch-kritischen Annotationen beinhalten beispielsweise Lesarten, Korrekturen sowie Worterklärungen, wohingegen die linguistischen Annotationen die Orthographie, Morphologie (Wortklassen und Lemmata) und Phraseologie betreffen. Die Annotationen werden in der Markup-Sprache XML kodiert. Der erste Schritt der Erstellung eines elektronischen Korpus ist die Digitalisierung der Texte. Bei den Handschriften geschah dies mithilfe einer manuellen Transkription, bei den Drucken wurde auf eine OCR-Software zurückgegriffen. Es empfiehlt sich, bereits in dieser Phase den Text gut zu strukturieren und mit Annotationen zu versehen. Dabei wurden zunächst Metadaten festgehalten. Anschließend wurden Informationen wie Seitenzahl, Zeilenumbrüche etc. als Annotationen hinzugefügt. Von besonderer Bedeutung für die Erstellung eines Korpus aus einem historisch und literarisch wichtigen Text ist jedoch seine Anreicherung mit historisch-kritischen Kommentaren. Die Untersuchung und Berücksichtigung der literarischen bzw. wissenschaftlichen Gattung historisch-kritische Edition stellt die theoretische Grundlage für solche Annotationen dar. Alle für die Editionswissenschaft relevanten Texthinweise, -bruchstücke und vom Autor durchgestrichene und gelöschte Stellen wurden dokumentiert. Bei schlecht lesbaren Stellen wurden Lesemöglichkeiten vorgeschlagen und die anderer Editionen diskutiert. Die Text Incoding Initiative (TEI) bietet eine Fülle von XML-Elementen, um solche Annotationen zu speichern. Um diese Arbeit nicht manuell ausführen zu müssen, wurde auf Tools wie TUSTEP, oXygen oder Skriptsprachen wie beispielsweise Perl zurückgegriffen. Diese können u. a. die Such- und Ersetzen-Arbeiten mithilfe der Regulären Ausdrücke bedeutend erleichtern. Den nächsten Schritt der Korpus-Erstellung stellt die Tokenisierung dar. Hierbei gehen die historisch-kritischen Annotationen in linguistische Annotationen über. Die Grenzen eines Wortes werden festgelegt und jedes Wort mit seinem eigenen Element versehen. Aus der digitalen Verarbeitung nicht wegzudenken ist dabei die Berücksichtigung und Untersuchung der Sprache des Autors. In diesem Fall wurde auf Aspekte wie die Dichtungsstile des Luxemburgischen im 19. Jahrhundert, die literarischen Gattungen der Texte sowie die Schreibung des Autors geachtet. Der empirische Anteil der Analyse mit EDV-technischen Methoden und die Speicherung der Ergebnisse als Annotationen stellt die wissenschaftliche Basis für die spätere digitale Präsentation dar. In der Arbeit werden die Ergebnisse der quantitativen und qualitativen Analyse der Sprache des Werks mithilfe von selbstimplementierten Programmen diskutiert. Dabei werden die vorhandenen Theorien sowohl der klassischen Linguistik z. B. aus der Morphologie oder der Phraseologieforschung, als auch der Korpuslinguistik besprochen und evaluiert. Die Implementierung und Ergebnisse folgender Programme für das Michel Rodange Korpus werden thematisiert: Tokeniser, FreqList, POS-Trainer, POS-Tagger, Lemmatisierer und Programme zur morphologischen und phraseologischen Analyse des Korpus. Der POS-Tagger kann die Wortarten im Korpus bestimmen. Grundlage dafür sind die sogenannten Hidden Markov Modelle, die auf der Wahrscheinlichkeitstheorie basieren. Der Lemmatisierer und das Programm zur morphologischen Analyse arbeiten hauptsächlich regelbasiert, wohingegen das Programm für die phraseologische Analyse anhand statistischer Verfahren wie dem Z-Test, dem Chi-Quadrat-Test und dem Exakten Test von Fisher implementiert wurde. So widmet sich beispielsweise Kapitel 3.4 dem Output der morphologischen Analyse und diskutiert die Wortbildung. Kapitel 3.6 beschäftigt sich mit der Interpretation der Phraseologismen. Hierbei zeigte sich, dass viele der automatisch identifizierten Phraseologismen aus Michel Rodanges Werken in der Tat ein fester Bestandteil nicht nur der luxemburgischen Sprache und Kultur sind, sondern sich auch in der gesamten westlichen Kultur wiederfinden.
Nicht erst seit Einleitung der "Energiewende" im Jahr 2011 gehören Fragen der Energie- und Klimapolitik zu den politisch kontrovers diskutierten Themen in Deutschland. In Folge des europäischen Integrationsprozesses gewinnt dabei zunehmend auch die Europäische Union als Handlungsebene an Bedeutung. In dieser Arbeit wird der Frage nachgegangen, wie deutsche Akteure die Energie- und Klimapolitik der EU seit dem Gipfel des Europäischen Rates 2007 beeinflusst haben und welche Auswirkungen die Entscheidungen auf EU-Ebene für die Politikgestaltung im nationalen Kontext hatten. Anhand von drei Fallstudien wird eine Prozessanalyse in den Bereichen Strombinnenmarkt, Erneuerbare-Energien-Politik und Klimaschutz im Zeitraum der Jahre 2007 bis 2013 vorgenommen.
Das erste Kapitel "ECOWAS" capability and potential to overcome constraints to growth and poverty reduction of its member states" diskutiert die Analyse wirtschaftlicher und sozialer Barrieren für ökonomisches Wachstum " eine der Hauptelemente für Entwicklungs- und Armutsreduktionsstrategien in Entwicklungsländern. Die Form der länderspezifischen Analyse von Wachstumsbarrieren wurde nach dem Scheitern der auf alle Länder generalisierten Entwicklungsstrategie des Washington Consensus insbesondere durch den Ansatz der "Growth Diagnostics" der Harvard Professoren Hausman, Rodrik und Velasco eingeführt. Es zeigt sich jedoch, dass bisher der Fokus rein auf den länderspezifischen Analysen bzw. Strategieentwicklungen liegt. Diese Arbeit erweiterte die Diskussion auf die regionale Ebene, indem es beispielhaft an der Economic Community of West African States (ECOWAS) die länderspezifischen Wachstumsbarrieren mit den regionalen Wachstumsbarrieren vergleicht. Dies erfolgt mittels einer Darstellung der in Studien und Strategien bereits identifizierten, länderspezifischen Wachstumsbarrieren in den jeweiligen Ländern sowie mit der Auswertung der regionalen Strategien der ECOWAS. Dazu wird ermittelt, inwieweit auf der regionalen Ebene auch messbare Ergebnisse bei der Bekämpfung von Wachstumsbarrieren erzielt werden. Es zeigt sich, dass ,trotz der wirtschaftlichen und sozialen Diversität der Region, die ECOWAS den Großteil der in den Ländern identifizierten Wachstumsbarrieren ebenfalls auflistet und darüber hinaus sogar mit messbaren Ergebnissen dazu beiträgt, Veränderungen des Status Quo zu erreichen. Die Erweiterung des Ansatzes der Growth Diagnostics auf die regionale Ebene sowie die Erweiterung um das vergleichende Element von länderspezifischen und regionalen Wachstumsbarrieren zeigen sich als praktikabler Weg, Entwicklungsstrategien auf regionaler Ebene zu prüfen und subsidiär weiterzuentwickeln. Das zweite Kapitel "Simplifying evaluation of potential causalities in development projects using Qualitative Comparative Analysis (QCA)" diskutiert die Methode der qualitativen komperativen Analyse (QCA) als Evaluierungsmethodik für Projekte der Entwicklungszusammenarbeit. Hierbei stehen die adäquate Messung sowie die verständliche Darstellung der Wirkung von Entwicklungszusammenarbeit im Vordergrund. Dies ist ein Beitrag zu der intensiv geführten Diskussion, wie Wirkung von Hilfe in Entwicklungsländern gemessen und daraus für weitere Projekte gelernt werden kann. Mit der beispielhaften Anwendung der QCA auf einen Datensatz der deutschen Entwicklungszusammenarbeit im Senegal wird erstmalig diese Methode für die Entwicklungszusammenarbeit in der Praxis angewandt. Der Fokus liegt dabei auf der Überprüfung von bestimmten Programmtheorien, d.h. der Annahme bestimmter Zusammenhänge zwischen eingesetzten Mitteln, äußeren Umständen und den Projektergebnissen bei der Implementierung von Projekten. Während solche Programmtheorien in dem Großteil der Projektskizzen der deutschen Entwicklungszusammenarbeit enthalten sind, werden die wenigsten dieser Programmtheorien geprüft. Diese Arbeit zeigt QCA als eine effiziente Methode für diese Überprüfung. Eine eindeutige Bestätigung oder Falsifizierung dieser Theorien ist mittels dieser Methodik möglich. Dazu können die Ergebnisse bei den beiden einfacheren Formen der QCA, der crisp-set sowie der multi-value QCA, leicht nachvollziehbar vermittelt werden. Des Weiteren zeigt die Arbeit, dass QCA ebenfalls die Weiterentwicklung einer Programmtheorie ermöglicht, allerdings ist diese Weiterentwicklung nur begrenzt effizient und stark von den vorliegenden Daten sowie der Datenstruktur abhängig. Die Arbeit zeigt somit das Potential der QCA insbesondere für den Test von Programmtheorien auf und stellt die praktische Anwendung für mögliche Replizierung beispielhaft dar. Das dritte und letzte Kapitel der Doktorarbeit "The regional trade dynamics of Turkey: a panel data gravity model" analysiert den türkischen Handel, um die Veränderungen der letzten Jahrzehnte aufzuzeigen und daran zu diskutieren, inwieweit sich die Türkei als aufstrebendes Schwellenland von den bestehenden Handelsstrukturen loslöst. Diese Arbeit ist ein Beitrag zur Diskussion der sich Verschiebenden Machtkonstellationen durch das wirtschaftliche Aufholen der Schwellenländer. Bei der Türkei ist diese Diskussion zusätzlich interessant, da die Frage, ob die Türkei sich von der westlichen Welt, Nordamerika und Europa, abwendet, berücksichtigt wird. Mittels Dummy-Variablen für verschiedene Regionen in einem Gravitätsmodell werden die türkischen Handelsdaten zuerst insgesamt und nach Sektoren analysiert und die Veränderungen über verschieden Perioden des türkischen Außenhandels betrachtet. Es zeigt sich, dass in den türkischen Handelsbeziehungen eine Regionalisierung und eine Diversifizierung der Handelspartner stattfinden. Allerdings geht dies nicht mit einer Abkehr von westlichen Handelspartnern einher.
Die vorliegende Arbeit untersucht das Bild der "Kernfamilie", das hier definitorisch wie folgt umrissen wurde: Auf einem geschlossenen Bildträger müssen beide Elternteile mit mindestens einem Nachkommen dargestellt sein, in einem reduzierten, nicht-narrativen Kontext. Als Hypothese wurde als Bezeichnung für dieses Bild der Begriff des "dynastischen Familienbildes" gewählt. Der Schwerpunkt lag auf kleinformatigen, nicht-sepulkralen Denkmälern, da gerade bei Grabdenkmälern sowohl regionale Traditionen sowie eine völlig andere Bedeutungsebene zu untersuchen wären. Die Untersuchung der römischen Familie und ihre Beurteilung in literarischen, epigraphischen, juristischen, numismatischen und archäologischen Quellen von der Republik bis in die Spätantike hat ergeben, dass sich einige Entwicklungslinien vom weit gefassten Familienverband der gens hin zur Kernfamilie" fassen lassen. Anders als in der Sepulkralkunst, wo eine ununterbrochene Tradition der Bilder der 'Kernfamilie' von den spätrepublikanischen Freigelassenenreliefs bis zu den Grabmedaillons vor allem in Dakien und Pannonien bis ins 4. Jahrhundert n. Chr. hinein besteht, setzt in der Kleinkunst eine dichte Überlieferung für diese Bilder erst in severischer Zeit ein. Seit dem 3. Jahrhundert wurden nun aber neben den Goldgläsern vor allem Gemmen, Ringe und Kameen mit Bildern der "Kernfamilie" geschaffen. In der Kleinkunst sind Aussagen zur Identifizierung der meist nicht benannten Familien schwierig; trotzdem ist es in den meisten Fällen möglich, die Personen in den Verwandtschaftsverhältnissen zueinander sicher zu bestimmen. Die Bilder folgen klaren Regeln, die in vier Deutungsebenen herausgestellt wurden: Das Deutungsmuster des "formalisierten Familienbildes" verweist auf die Regelhaftigkeit der Bildtypen. Die Anordnung der Personen erfolgte nicht willkürlich, jedem wird der ihm gebührende Platz zugewiesen. Damit ist das Bild auf den ersten Blick erfassbar. Nutzbar gemacht hat man sich bei der Schaffung dieser Bilder bereits bestehende Bildtypen; sie zeigten nämlich Ehepaare, Väter mit Nachkommen, Mütter mit Nachkommen oder nur die Kinder. Die Kleinkunst und die Münzen zeigen die Personen sowohl en face als auch im Profil. Allen gemeinsam ist jedoch die Tatsache, dass die Personen weder mit dem Betrachter, noch untereinander Blickkontakt aufnehmen wollen. Es geht also nicht um die Darstellung einer liebevollen Familie, die sich dem Betrachter präsentieren will und die in irgend einer Form interagiert. Das Bild ist stark repräsentativ und nicht-narrativ; es sollen Werte und Tugenden dargestellt werden. Daher kann von einem "hieratischen Familienbild" gesprochen werden. Der "hierarchische" Charakter zeigt sich, wenn die Rangfolge innerhalb der Familie gezeigt werden sollte. Hierzu dienten nicht nur die Position im Bild, die Anordnung im Verhältnis zu den anderen Familienmitgliedern, sondern auch Tracht und Insignien. Insgesamt kulminieren die Deutungsansätze im "programmatischen Familienbild". Das Bild der "Kernfamilie" ist trotz der sehr reduzierten Form in der Lage, eine Vielzahl an Werten und allgemeingültigen Tugenden zu verdeutlichen; Concordia, aeternitas, fecunditas und pietas sind nur die wichtigsten. Der bedeutsamste hinter den Bildern stehende Gedanke ist der der "Dynastie". Diese Absicht bzw. diese Hoffnung auf Fortdauer der Familie konnte durch das Bild der "Kernfamilie" einfach und wirkungsvoll transportiert werden. Aus diesem Grunde kann von einem "dynastischen Familienbild" gesprochen werden. Es wurde die Hypothese aufgestellt, dass die Bilder der "Kernfamilie" nicht nur als Bilder realer Familien zu deuten sind, sondern auch topischen Charakter haben konnten. Es wird häufig nur ein Familienmitglied benannt, andere Personen werden unter Begriffen wie "cum parentibus" subsummiert. In diesen Fällen ist eine Entscheidung, ob die konkrete Familie gezeigt wird oder ob nur der Wert der Familie allgemein angezeigt werden soll, quasi unmöglich. Nur selten zeigen die dargestellten Personen wirklich individuelle Züge. Es handelt sich dabei aber wohl eher nicht um Porträts, sondern vielmehr um Bilder der "Rolle", welche die jeweilige Person in der Familie inne hatte. Es war also wichtiger, die Eltern von den Kindern unterscheiden zu können, als exakte Gesichtszüge wiederzugeben. Daher scheint es mir legitim zu sein, von einem "Kernfamilientopos" zu sprechen, der aber sehr wohl auch eine reale Familie zeigen kann. Zusammenfassend bleibt festzuhalten, dass es zwar keinen Begriff für die "Kernfamilie" gab, dass man aber nach Auswertung aller Quellen und des "Kernfamilientopos" davon ausgehen kann, dass diese Familieneinheit nicht nur die Lebenswirklichkeit der meisten Menschen darstellte, sondern auch als Symbol für eine ganze Anzahl von Kerntugenden dienen konnte, die für den Fortbestand der Dynastie, nicht nur im kaiserlichen, sondern auch im privaten Bereich, sowie für die Stabilität des Reiches von elementarer Bedeutung waren.