Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (832) (entfernen)
Sprache
- Deutsch (488)
- Englisch (333)
- Mehrsprachig (7)
- Französisch (4)
Schlagworte
- Stress (37)
- Deutschland (33)
- Modellierung (18)
- Fernerkundung (17)
- Optimierung (17)
- Hydrocortison (16)
- stress (15)
- Motivation (12)
- Stressreaktion (12)
- cortisol (12)
Institut
- Psychologie (181)
- Raum- und Umweltwissenschaften (148)
- Mathematik (62)
- Wirtschaftswissenschaften (61)
- Fachbereich 4 (54)
- Fachbereich 1 (29)
- Geschichte, mittlere und neuere (28)
- Germanistik (26)
- Informatik (26)
- Kunstgeschichte (22)
- Politikwissenschaft (18)
- Anglistik (17)
- Soziologie (16)
- Fachbereich 2 (13)
- Fachbereich 6 (13)
- Fachbereich 3 (9)
- Philosophie (9)
- Romanistik (9)
- Computerlinguistik und Digital Humanities (7)
- Medienwissenschaft (6)
- Geschichte, alte (5)
- Allgemeine Sprach- und Literaturwissenschaft (4)
- Klassische Philologie (4)
- Pädagogik (4)
- Ethnologie (3)
- Fachbereich 5 (3)
- Japanologie (3)
- Sinologie (3)
- Archäologie (2)
- Rechtswissenschaft (2)
- Phonetik (1)
- Slavistik (1)
- Universitätsbibliothek (1)
High-resolution projections of the future climate are required to assess climate change realistically at a regional scale. This is in particular important for climate change impact studies since global projections are much too coarse to represent local conditions adequately. A major concern is thereby the change of extreme values in a warming climate due to their severe impact on the natural environment, socio-economical systems and the human health. Regional climate models (RCMs) are, however, able to reproduce much of those local features. Current horizontal resolutions are about 18-25km, which is still too coarse to directly resolve small-scale processes such as deep-convection. For this reason, projections of a possible future climate were simulated in this study with the regional climate model COSMO-CLM at horizontal resolutions of 4.5km and 1.3km for the region of Saarland-Lorraine-Luxemburg and Rhineland-Palatinate for the first time. At a horizontal scale of about 1km deep-convection is treated explicitly, which is expected to improve particularly the simulation of convective summer precipitation and a better resolved orography is expected to improve near surface fields such as 2m temperature. These simulations were performed as 10-year long time-slice experiments for the present climate (1991"2000), the near future (2041"2050) and the end of the century (2091"2100). The climate change signals of the annual and seasonal means and the change of extremes are analysed with respect to precipitation and 2m temperature and a possible added value due to the increased resolution is investigated. To assess changes in extremes, extreme indices have been applied and 10- and 20-year return levels were estimated by "peak-over-threshold" models. Since it is generally known that model output of RCMs should not directly be used for climate change impact studies, the precipitation and temperature fields were bias-corrected with several quantile-matching methods. Among them is a new developed parametric method which includes an extension for extreme values and is hence expected to improve the correction. In addition, the impact of the bias-correction on the climate change signals and on the extreme value statistics was investigated. The results reveal a significant warming of the annual mean by about +1.7 -°C until 2041"2050 and +3.7 -°C until 2091"2100, but considerably stronger signals of up to +5 -°C in summer in the Rhine Valley. Furthermore, the daily variability increases by about +0.8 -°C in summer but decreases by about -0.8 -°C in winter. Consequently, hot extremes increase moderately until the mid of the century but strongly thereafter, in particular in the Rhine Valley. Cold extremes warm continuously in the complete domain in the next 100 years but strongest in mountainous areas. The change signals with regard to annual precipitation are of the order -±10% but not significant. Significant, however, are a predicted increase of +32% of the seasonal precipitation in autumn until 2041"2050 and a decrease of -28% in summer until 2091-2100. No significant changes were found for days with intensities > 20 mm/day, but the results indicate that extremes with return periods ≤2 years increase as well as the frequency and duration of dry periods. The bias-corrections amplified positive signals but dampened negative signals and considerably reduced the power of detection. Moreover, absolute values and frequencies of extremes were altered by the correction but change signals remained approximately constant. The new method outperformed other parametric methods, in particular with regard to extreme value correction and related extreme indices and return levels. Although the bias correction removed systematic errors, it should be treated as an additional layer of uncertainty in climate change studies. Finally, the increased resolution of 1.3km improved predominantly the representation of temperature fields and extremes in terms of spatial heterogeneity. The benefits for summer precipitation were not as clear due to a severe dry-bias in summer, but it could be shown that in principle the onset and intensity of convection improves. This work demonstrates that climate change will have severe impacts in this investigation area and that in particular extremes may change considerably. An increased resolution provides thereby an added value to the results. These findings encourage further investigations, for other variables as for example near-surface wind, which will be more feasible with growing computing resources. These analyses should, however, be repeated with longer time series, different RCMs and anthropogenic scenarios to determine the robustness and uncertainty of these results more extensively.
Die vorliegende Dissertation "Wortwahl, Grammatik und Aussage. Eine strukturelle Analyse der Dramen Три ÑеÑтры, Вишневый Ñад und ВлаÑÑ‚ÑŒ тьмы" befaßt sich mit einer Analyse dieser ausgewählten Dramen von ÄŒechov und Tolstoj. Ausgehend von Fragestellungen, die im Å’uvre der Dichter implizit und explizit problematisiert werden, sind diejenigen Themenbereiche abgeleitet worden, die sich aus Inhalt und Gestaltung der literarischen Werke ergeben. Auf der Grundlage bestimmter Einteilungskriterien, die aus den Disziplinen der Psychologie, Soziologie, Medizin, Theologie und Philosophie übernommen wurden, wird in der Untersuchung eine Subsumierung der Dramenlexik unter bestimmte Oberbegriffe bzw. Sinnbereiche (Emotionen, Alltag, Leben und Tod, Folklore, Volks- und Aberglauben, Religion, menschlicher Körper, physiologische Phänomene und Krankheit) vorgenommen. Vor diesem Hintergrund wird - ausgehend vom literaturwissenschaftlichen Begriff des russischen Realismus - der Fragestellung nachgegangen, inwieweit eine Literaturströmung sich in der vom Autoren verwendeten Lexik widerspiegelt. Insofern lotet die Studie am Beispiel von Dramentexten die Möglichkeit aus, mit Hilfe eines linguistischen Instrumentariums (Grammatik, Semantik, Pragmatik, Morphologie) einen Beitrag für eine literaturwissenschaftliche Untersuchung zu liefern, um damit einen die literaturwissenschaftlichen Interpretationszugänge ergänzenden methodischen Zugang unter linguistischem Blickwinkel vorzustellen. Jost Trier als Begründer der Wortfeldtheorie hat die methodologische Grundlage dafür geschaffen, daß auch die Literaturwissenschaft durch die Verbindung von Wort und Vorstellung (Sinnbezirke) Aussagen über den semantischen Kern und Umfang treffen kann. Diesem Ansatz ist nicht nur Elisabeth Weis, die sich mit Sinnbereichen der Freude und Traurigkeit im Bereich der deutschen und französischen Sprache beschäftigt hat, sondern auch Henning Bergenholtz, der das Wortfeld Angst aus lexikographischer Sicht untersucht, verpflichtet. Auch die vorliegende Dissertation folgt diesen Überlegungen. Die Beschäftigung mit literarischen Texten und der besonderen Form des Dramas macht es notwendig, über die genannten Forschungsansätze insofern hinauszugehen, als Literatur eine eigene Welt mit eigenen Vorstellungen schafft, die durch die Betrachtung einzelner Sinnbereiche nicht umfassend erschlossen werden kann. Um der ästhetischen Rezeption poetischer Werke umfassend Rechnung zu tragen und eine Beurteilungsgrundlage eines literarischen Kunstwerkes vorzuschlagen, zeigt die vorliegende Untersuchung Begriffsnetze auf, durch die die Funktionsweise eines literarischen Textes im Rezipienten deutlich gemacht wird. Die in der Untersuchung vorgeschlagene Methode unterstützt das Erkennen der rezipienteneigenen Vorstellungswelt durch eine werkimmanente, lexikgestützte Konstruktion der Weltinterpretation der Autoren ÄŒechovs und Tolstojs.
This work is concerned with two kinds of objects: regular expressions and finite automata. These formalisms describe regular languages, i.e., sets of strings that share a comparatively simple structure. Such languages - and, in turn, expressions and automata - are used in the description of textual patterns, workflow and dependence modeling, or formal verification. Testing words for membership in any given such language can be implemented using a fixed - i.e., finite - amount of memory, which is conveyed by the phrasing finite-automaton. In this aspect they differ from more general classes, which require potentially unbound memory, but have the potential to model less regular, i.e., more involved, objects. Other than expressions and automata, there are several further formalisms to describe regular languages. These formalisms are all equivalent and conversions among them are well-known.However, expressions and automata are arguably the notions which are used most frequently: regular expressions come natural to humans in order to express patterns, while finite automata translate immediately to efficient data structures. This raises the interest in methods to translate among the two notions efficiently. In particular,the direction from expressions to automata, or from human input to machine representation, is of great practical relevance. Probably the most frequent application that involves regular expressions and finite automata is pattern matching in static text and streaming data. Common tools to locate instances of a pattern in a text are the grep application or its (many) derivatives, as well as awk, sed and lex. Notice that these programs accept slightly more general patterns, namely ''POSIX expressions''. Concerning streaming data, regular expressions are nowadays used to specify filter rules in routing hardware.These applications have in common that an input pattern is specified in form a regular expression while the execution applies a regular automaton. As it turns out, the effort that is necessary to describe a regular language, i.e., the size of the descriptor,varies with the chosen representation. For example, in the case of regular expressions and finite automata, it is rather easy to see that any regular expression can be converted to a finite automaton whose size is linear in that of the expression. For the converse direction, however, it is known that there are regular languages for which the size of the smallest describing expression is exponential in the size of the smallest describing automaton.This brings us to the subject at the core of the present work: we investigate conversions between expressions and automata and take a closer look at the properties that exert an influence on the relative sizes of these objects.We refer to the aspects involved with these consideration under the titular term of Relative Descriptional Complexity.
Umweltschutz wird in dieser Arbeit als Soziales Dilemma betrachtet. Es wird mittels eines experimentellen Online-Spiels (N = 182) primär überprüft, inwieweit unkooperatives Verhalten von Akteuren zu genuinem Ungerechtigkeitserleben bei anderen Personen führt und ob diese in Folge u. a. das eigene kooperative Verhalten reduzieren. Somit wird im Gegensatz zu Erklärungen der Rational-Choice-Theorien angenommen, dass ein Teil des phänotypisch unkooperativen, umweltschädigenden Verhaltens nicht auf Egoismus, sondern auf einem genuinen Gerechtigkeitsmotiv beruht. Zur Erhöhung der internen Validität wird ebenfalls der moderierende Einfluss der Persönlichkeitseigenschaften "Eigeninteresse" und "Gerechtigkeitszentralität" untersucht. Die Hypothesentestungen zeigen, dass unkooperatives Verhalten anderer Akteure in Sozialen Dilemmata bei vielen Personen Ungerechtigkeitserleben auslöst, was sich u. a. in Emotionen der Empörung, Ungerechtigkeitskognitionen, Bestrafungsverhalten und einer Reduktion des eigenen kooperativen Verhaltens niederschlägt. Hierbei spielen interindividuelle Unterschiede hinsichtlich der Stärke des Gerechtigkeitsmotivs bei etlichen gefundenen Effekte eine moderierende Rolle. Es wird somit ein motivpluralistischer Ansatz bestätigt, der die Rolle des Gerechtigkeitsmotivs bei der Vorhersage und Veränderung von Verhalten in Sozialen Dilemmata hervorhebt. Implikationen in Hinblick auf Theorie, zukünftige Forschung und Interventionen in Sozialen-Dilemma-Situationen werden erörtert.
Due to the transition towards climate neutrality, energy markets are rapidly evolving. New technologies are developed that allow electricity from renewable energy sources to be stored or to be converted into other energy commodities. As a consequence, new players enter the markets and existing players gain more importance. Market equilibrium problems are capable of capturing these changes and therefore enable us to answer contemporary research questions with regard to energy market design and climate policy.
This cumulative dissertation is devoted to the study of different market equilibrium problems that address such emerging aspects in liberalized energy markets. In the first part, we review a well-studied competitive equilibrium model for energy commodity markets and extend this model by sector coupling, by temporal coupling, and by a more detailed representation of physical laws and technical requirements. Moreover, we summarize our main contributions of the last years with respect to analyzing the market equilibria of the resulting equilibrium problems.
For the extension regarding sector coupling, we derive sufficient conditions for ensuring uniqueness of the short-run equilibrium a priori and for verifying uniqueness of the long-run equilibrium a posteriori. Furthermore, we present illustrative examples that each of the derived conditions is indeed necessary to guarantee uniqueness in general.
For the extension regarding temporal coupling, we provide sufficient conditions for ensuring uniqueness of demand and production a priori. These conditions also imply uniqueness of the short-run equilibrium in case of a single storage operator. However, in case of multiple storage operators, examples illustrate that charging and discharging decisions are not unique in general. We conclude the equilibrium analysis with an a posteriori criterion for verifying uniqueness of a given short-run equilibrium. Since the computation of equilibria is much more challenging due to the temporal coupling, we shortly review why a tailored parallel and distributed alternating direction method of multipliers enables to efficiently compute market equilibria.
For the extension regarding physical laws and technical requirements, we show that, in nonconvex settings, existence of an equilibrium is not guaranteed and that the fundamental welfare theorems therefore fail to hold. In addition, we argue that the welfare theorems can be re-established in a market design in which the system operator is committed to a welfare objective. For the case of a profit-maximizing system operator, we propose an algorithm that indicates existence of an equilibrium and that computes an equilibrium in the case of existence. Based on well-known instances from the literature on the gas and electricity sector, we demonstrate the broad applicability of our algorithm. Our computational results suggest that an equilibrium often exists for an application involving nonconvex but continuous stationary gas physics. In turn, integralities introduced due to the switchability of DC lines in DC electricity networks lead to many instances without an equilibrium. Finally, we state sufficient conditions under which the gas application has a unique equilibrium and the line switching application has finitely many.
In the second part, all preprints belonging to this cumulative dissertation are provided. These preprints, as well as two journal articles to which the author of this thesis contributed, are referenced within the extended summary in the first part and contain more details.
Traditional workflow management systems support process participants in fulfilling business tasks through guidance along a predefined workflow model.
Flexibility has gained a lot of attention in recent decades through a shift from mass production to customization. Various approaches to workflow flexibility exist that either require extensive knowledge acquisition and modelling effort or an active intervention during execution and re-modelling of deviating behaviour. The pursuit of flexibility by deviation is to compensate both of these disadvantages through allowing alternative unforeseen execution paths at run time without demanding the process participant to adapt the workflow model. However, the implementation of this approach has been little researched so far.
This work proposes a novel approach to flexibility by deviation. The approach aims at supporting process participants during the execution of a workflow through suggesting work items based on predefined strategies or experiential knowledge even in case of deviations. The developed concepts combine two renowned methods from the field of artificial intelligence - constraint satisfaction problem solving with process-oriented case-based reasoning. This mainly consists of a constraint-based workflow engine in combination with a case-based deviation management. The declarative representation of workflows through constraints allows for implicit flexibility and a simple possibility to restore consistency in case of deviations. Furthermore, the combined model, integrating procedural with declarative structures through a transformation function, increases the capabilities for flexibility. For an adequate handling of deviations the methodology of case-based reasoning fits perfectly, through its approach that similar problems have similar solutions. Thus, previous made experiences are transferred to currently regarded problems, under the assumption that a similar deviation has been handled successfully in the past.
Necessary foundations from the field of workflow management with a focus on flexibility are presented first.
As formal foundation, a constraint-based workflow model was developed that allows for a declarative specification of foremost sequential dependencies of tasks. Procedural and declarative models can be combined in the approach, as a transformation function was specified that converts procedural workflow models to declarative constraints.
One main component of the approach is the constraint-based workflow engine that utilizes this declarative model as input for a constraint solving algorithm. This algorithm computes the worklist, which is proposed to the process participant during workflow execution. With predefined deviation handling strategies that determine how the constraint model is modified in order to restore consistency, the support is continuous even in case of deviations.
The second major component of the proposed approach constitutes the case-based deviation management, which aims at improving the support of process participants on the basis of experiential knowledge. For the retrieve phase, a sophisticated similarity measure was developed that integrates specific characteristics of deviating workflows and combines several sequence similarity measures. Two alternative methods for the reuse phase were developed, a null adaptation and a generative adaptation. The null adaptation simply proposes tasks from the most similar workflow as work items, whereas the generative adaptation modifies the constraint-based workflow model based on the most similar workflow in order to re-enable the constraint-based workflow engine to suggest work items.
The experimental evaluation of the approach consisted of a simulation of several types of process participants in the exemplary domain of deficiency management in construction. The results showed high utility values and a promising potential for an investigation of the transfer on other domains and the applicability in practice, which is part of future work.
Concluding, the contributions are summarized and research perspectives are pointed out.
This thesis is divided into three main parts: The description of the calibration problem, the numerical solution of this problem and the connection to optimal stochastic control problems. Fitting model prices to given market prices leads to an abstract least squares formulation as calibration problem. The corresponding option price can be computed by solving a stochastic differential equation via the Monte-Carlo method which seems to be preferred by most practitioners. Due to the fact that the Monte-Carlo method is expensive in terms of computational effort and requires memory, more sophisticated stochastic predictor-corrector schemes are established in this thesis. The numerical advantage of these predictor-corrector schemes ispresented and discussed. The adjoint method is applied to the calibration. The theoretical advantage of the adjoint method is discussed in detail. It is shown that the computational effort of gradient calculation via the adjoint method is independent of the number of calibration parameters. Numerical results confirm the theoretical results and summarize the computational advantage of the adjoint method. Furthermore, provides the connection to optimal stochastic control problems is proven in this thesis.
Die in einem Einzugsgebiet herrschende räumliche Inhomogenität wird im Wasserhaushaltsmodell LARSIM (Large Area Runoff Simulation Modell) in den einzelnen Modellkomponenten unterschiedlich stark berücksichtigt. Insbesondere die räumliche Verteilung der Abflussprozesse wurde bisher nicht berücksichtigt, weil keine flächenhaft verfügbare Information über eben diese Verteilung vorlag. Für das Einzugsgebiet der Nahe liegt nun seit dem Jahr 2007 eine Bodenhydrologische Karte vor, die flächenhaft den bei ausreichenden Niederschlägen zu erwartenden Abflussprozess ausweist. In der vorliegenden Dissertation wird die Nutzung dieser Prozessinformation bei der Parametrisierung des Bodenmoduls von LARSIM beschrieben: Für drei Prozessgruppen " gesättigter Oberflächenabfluss, Abfluss im Boden, Tiefenversickerung " werden mittels zweier neuer Parameter P_Bilanz und P_Dämpfung inhomogene Parametersätze aus empirisch ermittelten Kennfeldern gewählt, um die Prozessinformation bei der Abflussbildung im Modell zu berücksichtigen. Für die Abbildung der Prozessintensitäten in den Gebietsspeichern werden zwei unterschiedliche Ansätze vorgestellt, die sich in ihrer Komplexität unterscheiden. In der ersten Variante werden fünf Oberflächenabflussspeicher für unterschiedlich schnell reagierende Prozessgruppen eingeführt, in der zweiten Variante wird der erste Ansatz mit dem ursprünglichen Schwellenwert zur Aufteilung in schnelle und langsame Oberflächenabflusskomponenten kombiniert. Es wird gezeigt, dass die Parametrisierung mit den beiden neuen Parametern P_Bilanz und P_Dämpfung einfacher, effektiver und effizienter ist, da beide Parameter minimale Interaktionen aufweisen und in ihrer Wirkungsweise leicht verständlich sind, was auf die ursprünglichen Bodenparameter nicht zutrifft. Es wird ein Arbeitsfluss vorgestellt, in dem die neuen Parameter in Kombination mit Signature Measures und unterschiedlichen Darstellungen der Abflussdauerlinie gemeinsam genutzt werden können, um in wenigen Arbeitsschritten eine Anpassung des Modells in neuen Einzugsgebieten vorzunehmen. Die Methode wurde durch Anwendung in drei Gebieten validiert. In den drei Gebieten konnte in wenigen Kalibrierungsschritten die Simulationsgüte der ursprünglichen Version erreicht und " je nach Zielsetzung " übertroffen werden. Hinsichtlich der Gütemaße zeigte sich bei der Variante, in der die Gebietsspeicher nicht modifiziert wurden, aber kein eindeutiges Bild, ob die ursprüngliche Parametrisierung oder die neue grundsätzlich überlegen ist. Neben der Auswertung der Validierungszeiträume wurden dabei auch die simulierten Ganglinien in geschachtelten Gebieten betrachtet. Die Version, in der die Gebietsspeicher modifiziert wurden, zeigt hingegen vor allem im Validierungszeitraum tendenziell bessere Simulationsergebnisse. Hinsichtlich der Abbildung der Abflussprozesse ist das neue Verfahren dem alten deutlich überlegen: Es resultiert in plausiblen Anteilen von Abflusskomponenten, deren Verteilung und Abhängigkeit von Speicherkapazitäten, Landnutzungen und Eingangsdaten systematisch ausgewertet wurden. Es zeigte sich, dass vor allem die Speicherkapazität des Bodens einen signifikanten Einfluss hat, der aber im hydrologischen Sinn richtig und hinsichtlich der Modellannahmen plausibel ist. Es wird deutlich gemacht, dass die Einschränkungen, die sich ergeben haben, aufgrund der Modellannahmen zustande kommen, und dass ohne die Änderung dieser Annahmen keine bessere Abbildung möglich ist. Für die Zukunft werden Möglichkeiten aufgezeigt, wie die Annahmen modifiziert werden können, um eine bessere Abbildung zu erzielen, indem der bereits bestehende Infiltrationsansatz in die Methode integriert wird.
A matrix A is called completely positive if there exists an entrywise nonnegative matrix B such that A = BB^T. These matrices can be used to obtain convex reformulations of for example nonconvex quadratic or combinatorial problems. One of the main problems with completely positive matrices is checking whether a given matrix is completely positive. This is known to be NP-hard in general. rnrnFor a given matrix completely positive matrix A, it is nontrivial to find a cp-factorization A=BB^T with nonnegative B since this factorization would provide a certificate for the matrix to be completely positive. But this factorization is not only important for the membership to the completely positive cone, it can also be used to recover the solution of the underlying quadratic or combinatorial problem. In addition, it is not a priori known how many columns are necessary to generate a cp-factorization for the given matrix. The minimal possible number of columns is called the cp-rank of A and so far it is still an open question how to derive the cp-rank for a given matrix. Some facts on completely positive matrices and the cp-rank will be given in Chapter 2. Moreover, in Chapter 6, we will see a factorization algorithm, which, for a given completely positive matrix A and a suitable starting point, computes the nonnegative factorization A=BB^T. The algorithm therefore returns a certificate for the matrix to be completely positive. As introduced in Chapter 3, the fundamental idea of the factorization algorithm is to start from an initial square factorization which is not necessarily entrywise nonnegative, and extend this factorization to a matrix for which the number of columns is greater than or equal to the cp-rank of A. Then it is the goal to transform this generated factorization into a cp-factorization. This problem can be formulated as a nonconvex feasibility problem, as shown in Section 4.1, and solved by a method which is based on alternating projections, as proven in Chapter 6. On the topic of alternating projections, a survey will be given in Chapter 5. Here we will see how to apply this technique to several types of sets like subspaces, convex sets, manifolds and semialgebraic sets. Furthermore, we will see some known facts on the convergence rate for alternating projections between these types of sets. Considering more than two sets yields the so called cyclic projections approach. Here some known facts for subspaces and convex sets will be shown. Moreover, we will see a new convergence result on cyclic projections among a sequence of manifolds in Section 5.4. In the context of cp-factorizations, a local convergence result for the introduced algorithm will be given. This result is based on the known convergence for alternating projections between semialgebraic sets. To obtain cp-facrorizations with this first method, it is necessary to solve a second order cone problem in every projection step, which is very costly. Therefore, in Section 6.2, we will see an additional heuristic extension, which improves the numerical performance of the algorithm. Extensive numerical tests in Chapter 7 will show that the factorization method is very fast in most instances. In addition, we will see how to derive a certificate for the matrix to be an element of the interior of the completely positive cone. As a further application, this method can be extended to find a symmetric nonnegative matrix factorization, where we consider an additional low-rank constraint. Here again, the method to derive factorizations for completely positive matrices can be used, albeit with some further adjustments, introduced in Section 8.1. Moreover, we will see that even for the general case of deriving a nonnegative matrix factorization for a given rectangular matrix A, the key aspects of the completely positive factorization approach can be used. To this end, it becomes necessary to extend the idea of finding a completely positive factorization such that it can be used for rectangular matrices. This yields an applicable algorithm for nonnegative matrix factorization in Section 8.2. Numerical results for this approach will suggest that the presented algorithms and techniques to obtain completely positive matrix factorizations can be extended to general nonnegative factorization problems.
Ziegel waren im 19. und 20. Jahrhundert der bevorzugte Baustoff. Sie wurden für den Ausbau der Städte in heute kaum noch vorstellbaren Mengen nachgefragt, da sie preiswert und in Massen verfügbar waren. Das stabile Baumaterial erwies sich zudem in Form, Farbe und Ornamentik als vielseitig einsetzbar. Die Bedeutung des Ziegels lässt sich besonders gut an den Fassaden der gründerzeitlichen Berliner Stadtquartiere able-sen. Im Rahmen der vorliegenden Arbeit wird die städtebauliche Entwicklung Berlins einführend dargestellt, um aufzuzeigen, welche Auswirkungen sich daraus für das bran-denburgische Umland ergaben. Das an der oberen Havel in Nordbrandenburg gelegene Zehdenicker Revier profitierte von dieser Entwicklung und nahm als Standort der Ziegelindustrie im Deutschen Reich eine besondere Stellung ein. Handwerkliche Verfahren der Ziegelherstellung waren Ende des 19. Jahrhunderts zunehmend durch industrielle Massenproduktion abgelöst worden. 1887 wurden nördlich der Kleinstadt Zehdenick zufällig reichhaltige Tonlagerstätten an der Havel entdeckt. Die neugeborene Industriestadt stieg innerhalb weniger Jahre zum Zentrum der Märkischen Ziegelindustrie auf. Bis 1913 wurden 63 Hoffmannsche Ring-öfen nördlich von Zehdenick errichtet, mit denen bis zu 500 Millionen Ziegel pro Jahr gebrannt werden konnten. Nach dem Zweiten Weltkrieg entwickelte sich der VEB Zie-gelwerke Zehdenick zum bedeutendsten Ziegelhersteller in der DDR. Noch bis 1990 be-stimmten historische Ringofenziegeleien das Landschaftsbild im Revier. Die Ziegelferti-gung endete mit der Wiedervereinigung Deutschlands. Untersuchungsgegenstand der Dissertation ist das Erbe der Zehdenicker Ziegelindustrie und die von ihr geprägte Kulturlandschaft, die nicht nur erhebliche geschichtliche Bedeu-tung für den Aufbau Berlins vor 1945 sondern auch für die Baustoffindustrie in der der DDR hat. Bislang wurde dieses Kulturgut kaum erforscht. Aus diesem Grund erfolgte zunächst eine grundlegende Inventarisierung der persistenten Relikte, die erfasst, be-schrieben, in ihrer Erscheinung erklärt und hinsichtlich ihrer touristischen Verwendbarkeit bewertet wurden. Es konnte dadurch festgestellt werden, dass derzeit noch ein reichhal-tiges bauliches Erbe der Ziegelindustrie im Untersuchungsraum existiert. Dieses bedeutende Erbe wird bislang erst in Ansätzen durch den Tourismus genutzt, zumal in den westlichen Industrieländern nur noch wenige Hoffmannsche Ringöfen erhal-ten geblieben sind. Die Arbeit zeigt auf, dass die mittlerweile vollständig gefluteten Ton-tagebauten und Teile der historischen Kulturlandschaft mit ihrem Formenschatz - Relikte der Aufbereitung, der Freilufttrocknung, Produktions- und Wohngebäude oder Häfen - eine hohe Relevanz für den Erholungs- und Kulturtourismus aufweisen. Kulturtouristisch erschlossen wurde bislang einzig der Ziegeleipark Mildenberg, der pro Jahr etwa 40.000 Besucher zählt. Sein besucherorientiertes Angebot wurde im Rahmen der Dissertation analysiert und bewertet. Er stellt bislang eine inselartige Erschließung dar, die den histo-rischen Dimensionen des Reviers mit seinen vielen Standorten nicht entspricht. Die Arbeit liefert wesentliche Grundlagen für die Konzeption einer kulturtouristischen Erschließung der gesamten Zehdenicker Tonstichlandschaft unter Nutzung und Wahrung ihrer authentischen Relikte und regionalen Spezifik. Sie schließt mit konkreten Vorschlä-gen für eine gezielte Erhaltung und Pflege dieses Erbes unter besonderer Berücksichti-gung des Kulturtourismus. Dabei fließen Erfolgsmuster tourismusrelevanter Nutzungs-formen vergleichbarer Standorte in Deutschland und in Belgien, die durch eigene Re-cherchen und Expertengespräche mit Vertretern bedeutender Ziegeleimuseen ermittelt wurden, mit ein. Noch wäre es möglich, den seit 1990 fortschreitenden Verfall dieses Kulturgutes aufzu-halten, vor weiterer Zerstörung zu schützen und die wertvolle Substanz der industriellen Vergangenheit inwertzusetzen.
Preisvergleiche zwischen verschiedenen Regionen spielen in zahlreichen wirtschaftlichen und politischen Zusammenhängen eine wichtige Rolle. Unabhängig davon, ob es darum geht, die Wirtschaftskraft von Regionen oder Ländern gegenüber zu stellen, die Lebensverhältnisse innerhalb eines Landes zu vergleichen, oder aber die Wirkungsweise sozial- und lohnpolitischer Entscheidungen einzuschätzen: Interregionale Preisvergleiche dienen in erster Linie als Instrument, um gesamtwirtschaftliche und ökonomische Größen zwischen verschiedenen Regionen oder Ländern real vergleichbar zu machen. Interregionale Preisvergleiche sind allgemeinhin besser bekannt als sogenannte Kaufkraftparitäten. Die enorme Bedeutung von Kaufkraftparitäten wurde in der Vergangenheit lange unterschätzt. Insbesondere bei Preisvergleichen innerhalb eines Landes mangelt es oftmals an einer soliden Datenbasis, sodass verlässliche Schätzungen regionaler Preisniveauunterschiede häufig nicht möglich sind. Die vorliegende Arbeit zeigt allerdings, dass ein breites Angebot verschiedener multilateraler Aggregationsmethoden bereit. Im Mittelpunkt des ersten Teils Arbeit steht die methodische Ausarbeitung verschiedener Aggregationsverfahren, mit deren Hilfe sich erhobene Daten zu verlässlichen und aussagekräftigen Preisvergleichskennzahlen aggregieren lassen. Im Unterschied zu intertemporalen Vergleichen sind gewöhnliche bilaterale Preisindizes für diesen Zweck nur begrenzt einsetzbar. Vielmehr sind spezielle multilaterale methodische Instrumente nötig, die den speziellen Anforderungen regionaler Preisvergleiche gerecht zu werden. Im Rahmen der Arbeit werden die verschiedenen multilateralen Aggregationsverfahren unterschiedlichen Berechnungsansätzen zugeordnet, wobei jeder dieser Ansätze durch bestimmte Eigenschaften charakterisiert ist. Neben den Mitgliedern der Klasse des Gini-Eltetö-Köves-Szulc (GEKS) und Minimum Spannning Tree (MST) Ansatzes sowie des Regressionsansatzes, widmet sich diese Arbeit schwerpunktmäßig den unterschiedlichen Verfahren des sogenannten Standardisierungsansatzes. Es stellt sich heraus, dass der Standardisierungsansatz grundsätzlich sehr dem Konstruktionsprinzip bilateraler Durchschnittswertindizes (GUV-Indizes) ähnelt, weshalb sich die Mitglieder dieser Klasse auch als multilaterale GUV-Indizes auffassen lassen. Darüber hinaus wird eine neue Unterklasse des Standardisierungsansatzes definiert, deren Mitglieder die breite Palette bereits existierender Verfahren ergänzen. Allerdings wird den Aggregationsverfahren des Standardisierungsansatzes nachgesagt, unter den Auswirkungen des sogenannten Gerschenkron-Effekts zu leiden und im Gegensatz zu anderen Aggregationsverfahren häufig verzerrte Preisvergleiche hervorzubringen. Der zweite Teil der Arbeit ist einem empirischen Vergleich der zuvor erörterten Aggregationsverfahren vorbehalten. Grundlage für die Berechnungen (auf und unterhalb der elementaren Güterebene) sind Daten des Europäischen Vergleichsprogramms (EVP). Eine wichtige Erkenntnis des empirischen Teils der Arbeit ist, dass viele der unterschiedlichen Aggregationsmethoden für die Berechnungen auf der Elementarebene sehr ähnliche Ergebnisse für die Preisvergleiche zwischen den Ländern im EVP generieren. Die Sorge verzerrter Preisvergleiche infolge der Auswirkungen des Gerschenkron-Effektes lässt sich auf Grundlage der empirischen Untersuchungen nicht (zweifelsfrei) bestätigen. Ferner zeigen die empirischen Untersuchungen, dass weitaus größere Schwierigkeiten bei der Berechnung von Preisvergleichen unterhalb der Elementarebene bestehen. Die Berechnungen offenbaren, dass die häufig in der Praxis eingesetzten Verfahren der GEKS-Methode in Situationen, in denen nur wenige Daten vorhanden sind, keine plausiblen Ergebnisse liefern. Es stellt sich heraus, dass in diesen Fällen die Verfahren des Regressionsansatzes eine unkompliziertere und verlässlichere Berechnung von Preisvergleichen erlauben. Nichtsdestotrotz decken die Ergebnisse schonungslos die Probleme und Schwächen interregionaler Preisvergleiche auf. Trotz intensiver Anstrengungen der internationalen statistischen Organisationen, eine vergleichbare und fundierte Datenbasis zu schaffen, sind die Dateninformationen einiger Regionen bzw. Länder nach wie vor sehr lückenhaft. Da verlässliche und aussagekräftige Preisvergleiche im Wesentlichen von der Verfügbarkeit und der Qualität der Daten abhängig sind, sollte der Forschungsschwerpunkt zukünftig daher mehr an der Bereitstellung eines soliden Datenfundaments ausgerichtet werden.
Die Versuche, das Funktionieren von Sprache zu beschreiben oder gar zu erklären, sind zahlreich und vielfältig. Das ist hinlänglich bekannt. Tatsächlich mangelt es jedoch erheblich an solchen Beschreibungen, die nicht nur Symbol und Referenz, sondern auch Kontext und Gelingensbedingungen erfassen und in einen historischen Vergleich stellen. So soll folgende Fragestellung diese Untersuchung prägen: "Wie?" wird "Was?" genannt und "Wann?" geschieht dies "Wo?" mit welchem Erfolg? Im Fall der Liebe ist die erste Frage diejenige nach dem "Was?": Welche Referenz wird hier überhaupt verhandelt? Und wenn es keine Referenz gibt, über was reden wir, wenn wir Symbole wie "Liebe" oder ähnliche Zeichen verwenden? "Wie?" und "Wo?" sind nur ausschnitthaft zu beschreiben, das liegt in der Natur der Sache. Aus verschiedenen Gründen erschien das Format Doku-Soap in diesem Zusammenhang geeignet. Immerhin handelt es sich hier um eine Textsorte, die sich seit kurzer Zeit stets wachsender Beliebtheit beim Fernsehpublikum erfreut, und deren Funktionsweisen sich stark von anderen unterscheidet. Außerdem lässt sich die Frage nach dem Erfolg in der Doku-Soap gut erfassen: Wie in kaum einer anderen Textsorte werden hier im Fall des Misserfolges Sanktionen verhängt in Form von Nominierung und Abwahl. Um Schlüsse über die gegenwärtige Symbolverwendung ziehen zu können wird immer wieder die Frage nach dem "Wann?" zu stellen sein: Nur wenn Entwicklungen mit Tendenzen und Richtungen beschrieben werden können lassen sich Aussagen über die gegenwärtige Konfiguration dieser Linien machen. Nur wenn ein historischer Vergleich gezogen wird lässt sich die Gegenwart ansatzweise einordnen.
Die Arbeit versucht einen Beitrag zum besseren Verständnis von Identitifikations- und Migrationsprozessen von Russlandddeutschen zu leisten. Dabei werden die folgenden zentralen Froschungsfragen behandelt:rnGibt es die Gruppe der Russlanddeutschen aus einer Binnenperspektive? Was führt dazu, dass sich jemand als Mitglied der Gemeinschaft der Russlanddeutschen fühlt? Welche Parameter üben entscheidenden Einfluss auf Migrationsprozesse aus? Welchen Einfluss üben Identitätskonstrukte auf soziale Handlungen, wie Migration aus?
Rotary, Kiwanis, Lions, Zonta, Soroptimist und Round Table. Bereits seit 100 Jahren setzen sich Service Clubs mit den verschiedensten Service-Projekten weltweit für sozialen Frieden und Menschenrechte ein. Heute gibt es unzählige Service Clubs mit unterschiedlichen Entstehungsgeschichten und Denkweisen. Obwohl Service Clubs insbesondere auf der Gemeinde-Ebene durch soziales und ökonomisches Engagement, aber auch über die Nutzung sozialer Netzwerke wichtigen Einfluss ausüben, sind sie bislang, zumindest in Europa, kaum wissenschaftlich untersucht worden. Dieses Defizit versucht Sebastian Gradinger im Rahmen einer Studie auszuräumen. Die Studie stellt vor diesem Hintergrund die historische Entstehung der traditionellen Service Clubs dar und widmet sich der Frage nach der Funktion von Service Clubs für unterschiedliche Ebenen der Gesellschaft wie auch für ihre individuellen Mitglieder. Schließlich wird die Zukunftsperspektive der Clubs in einer gewandelten Gesellschaft diskutiert.
"Ärztenetzwerke" als Reformmodell für den ambulanten Sektor? Diese Frage steht im Mit-telpunkt der vorliegenden Arbeit. Ausgangspunkt der Untersuchung ist die Feststel-lung, daß die institutionelle Fragmentierung des ambulanten Sektors, die aus einer organisato-rischen, rechtlichen und finanziellen Trennung zwischen hausärztlicher und fachärztlicher Versorgung resultiert, zu erheblichen Qualitätseinbußen und Kostensteigerungen in der Gesundheits-versorgung führt. Als Antwort auf diese institutionellen Schwachstellen werden in der derzeitigen Reformdebatte zwei konkurrierende Modelle diskutiert: Ärztenetzwerke und integrierte Versorgungsformen nach Vorbild der amerikanischen Health Maintenance Organizations (HMO's). Vor diesem Hintergrund sind zwei Fragestellungen Gegenstand der folgenden Untersu-chung. Zum einen wird näher analysiert, ob Ärztenetzwerke aus ökonomischer Perspektive geeignet sind, die Fragmentierung der Versorgungsstrukturen im ambulanten Sektor zu beheben. Wenn Ärztenetzwerke als Alternative zur derzeitigen Organisation der ambulanten Versorgung zu empfehlen sind, so wird zum anderen die Frage des effizienten Netzwerkaufbaus und -arrangements beantwortet. Da keine umfassenden theoretischen oder empirischen Studien über Gesundheitsnetzwerke vorliegen, ist das Vorgehen in dieser Arbeit weitestgehend explorativ. Inwiefern Netzwerke zur Verringerung der institutionellen Schwachstellen im ambulanten Sektor beitragen können, ist abhängig von den konkreten Ursachen der Leistungsver-schlechterungen. Daher erfolgt zunächst eine eingehende Darstellung des ambulanten Sektors und eine Ursachenanalyse. Hierauf aufbauend wird aus theoretischer Perspektive näher untersucht, inwiefern Netzwerke zu einer Verringerung dieser Leistungsverschlechterungen beitragen können. Zu diesem Zweck wird die netzwerkliche Organisationsform aus zwei Gründen der marktlichen sowie der hierarchischen bzw. inte-grierten Organisation gegenübergestellt. Auf der einen Seite stellen Netzwerke aus institutio-nenökonomischer Sicht eine Synthese der beiden "Idealtypen" Markt und Hierarchie bzw. Integration dar, so daß über eine netzwerkliche Organisation theoretisch jene Elemente der beiden Systeme miteinander kombiniert werden können, die für die Organisation der Gesund-heitsversorgung als besonders effizient angesehen werden können. Auf der anderen Seite erfolgt ein Vergleich der Effizienz von Netzwerken und integrierten Versor-gungsformen, da diese in der aktuellen Reformdiskussion als Alternative zum derzeitigen System präferiert werden. Bei der Gegenüberstellung der beiden "Idealtypen" stehen vor allem fünf Strukturmerkmale im Vordergrund: die räumliche Organisation der Leistungserstellung, die Koordinations- und Kontrollmechanismen, die Verteilung der Eigentums--rechte und die Kosten der Vertragsausgestaltung zwischen Versicherern und Anbietern. Hieran anschließend wird dargestellt, daß über eine netz-werkliche Organisation die Vorteile der beiden idealtypischen Formen kombiniert werden können. Unter der Annahme, daß das Netzwerkarrangement, das sich aus verschiedenen Netzwerk-regelungen und der Netzwerkstruktur zusammensetzt, Einfluß auf den Anreiz zur Einhaltung der Netzwerkverpflichtungen und die Wahrscheinlichkeit opportunistischen Verhaltens ausüben können, steht im weiteren Verlauf der Arbeit die Frage des effizienten Arrangements im Mittelpunkt. Im Gegensatz zur ersten Fragestellung wird diese sowohl theoretisch als auch empirisch untersucht werden. Unter Berücksichtigung ver-schiedener soziologischer sowie institutionenökonomischer Theorieansätze werden Hypo-thesen über einen optimalen Netzwerk--aufbau abgeleitet. Diese theoretischen Ableitungen werden anhand von Gesundheitsnetzwerken in der Schweiz näher überprüft.
Debatten führen nicht immer zu einem Konsens. Selbst die Vorlage von Beweisen bewirkt nicht immer eine Überzeugung der Gegenseite. Dies zeigt sich nicht nur in der Geschichte der Wissenschaften (vgl. Ludwik Fleck, Bruno Latour), sondern auch in der in unterschiedlichen Disziplinen geführten zeitgenössischen Debatte unter dem Label ‚science wars‘ zwischen einem Realismus und Konstruktivismus beziehungsweise Relativismus. Unterschiede in ihren Legitimierungen zeigen systematisch verschiedene Wirklichkeits- und Wahrheitsverständnisse, die sich aus den vom Seinsstandort der Perspektive abhängigen Grundannahmen konstituieren. Über einen wissenssoziologischen Zugriff wird es möglich die (sozio-)strukturlogische Konstitution von Perspektivität zu analysieren, die eine epistemologisch vorstrukturierte Revolvierung untereinander inkommensurabler Beiträge in der Debatte aufdeckt, was als Erklärung für ungelöste Debatten in Wissenschaft, Politik und Alltag überhaupt fungieren kann.
Die vorliegende Arbeit orientiert sich in ihrem Vorgehen an dem von Paul Boghossian veröffentlichten Werk ‚Angst vor der Wahrheit‘ als zeitgenössischen Vertreter eines Neuen Realismus. Hierbei werden zum einen den direkten Bezügen von Boghossian die Aussagen der kritisierten Perspektiven (v.a. Latour und Goodman) gegenübergestellt, als auch zum anderen weitere Spielarten eines Konstruktivismus (kognitionstheoretischer Konstruktivismus nach Maturana und Varela, soziologischer Konstruktivismus nach Berger und Luckmann, Wissenschaftssoziologie am Beispiel von Bloor und Latour, die Systemtheorie von Luhmann sowie postkonstruktivistische Positionen) in den Dimensionen ‚Wissensverständnis‘, ‚Subjektrelevanz‘ und ‚Einstellung zu einer naturalistischen Grundlage‘ vorgestellt. Es wird eine systematische und beidseitige Fehlinterpretation in der Debatte zwischen Realismus und Konstruktivismus sichtbar. Diese wird auf die Seinsgebundenheit von Perspektiven nach dem Verständnis einer mannheimschen Wissenssoziologie zurückgeführt. Anhand einer Rekonstruktion der Erkenntnistheorie des frühen Mannheims (1922: ‚Strukturanalyse der Erkenntnistheorie‘) wird die (sozio-)strukturlogische Konstitution erkenntnistheoretischer Elemente von Grundwissenschaften herausgearbeitet, wodurch denkstilgemäße Objektivierungen (und damit Wahrheitsverständnisse) unterschieden werden können. Diese Unterschiede erklären nicht nur die Inkommensurabilität von heterogenen Perspektiven in Debatten, sondern zeigen auf, dass das Aufeinandertreffen der Debattierenden vorstrukturiert sind. Der Ablauf einer Debatte ist soziostrukturell determiniert. Abschließend wird in der vorliegenden Arbeit diskutiert, inwiefern der verfahrenen Situation einer Debatte entgegengewirkt werden kann und auf welche Weise eine wissenssoziologische Analyse zu einem gegenseitigen Verständnis zwischen debattierenden Parteien beitragen kann.
Thema der vorliegenden Arbeit ist eine Analyse alltäglicher Rachereaktionen und rachebezogener Reaktionen unter gerechtigkeitspsychologischen Aspekten. Rache wird als eine Bewältigungsreaktion verstanden, welche mit Hilfe eines handlungstheoretischen Rahmenmodells beschrieben werden kann. Diese Konzeption will sich bewusst von jenen (vor allem in der Rechtsphilosophie vertretenen) Ansätzen, nach denen Rache eine destruktive, affektgesteuerte, irrationale Form der Vergeltung sei, abgrenzen. Besonderes Augenmerk wird auf die Frage gelegt, wo und wie sich der Einfluss gerechtigkeitsbezogener Persönlichkeitseigenschaften (Glaube an eine gerechte Welt, Sensibilität für widerfahrene Ungerechtigkeit, Soziale Verantwortung) sowie gerechtigkeitsbezogener Kognitionen und Emotionen im Prozessmodell einer Rachehandlung verorten lässt. Es wird erstens argumentiert, dass gerechtigkeitsbezogene Persönlichkeitseigenschaften (a) auf die subjektive Bedeutsamkeit gerechtigkeitsbezogener Ziele, (b) auf die Wahrscheinlichkeit, mit der von einer verfügbaren Racheaktion Gebrauch gemacht wird, (c) auf den Einsatz sekundärer Bewältigungsstrategien sowie (d) auf die Bewertung rachebezogener Ereignisse Einfluss nehmen. Zweitens wird argumentiert, dass Racheaktionen zumindest begrenzt rational in dem Sinne sind, als ihnen (im Sinne von "Erwartung-´Wert-Theorien") spezifische Kosten-Nutzen-Überlegungen zugrunde liegen. Drittens wird untersucht, inwiefern die Beobachtung eines Schicksalsschlages zu Lasten des "Täters" aus der Perspektive des "Opfers" ebenso funktional sein (d.h. aversive Emotionen reduzieren und zum Erleben von Genugtuung, Zufriedenheit und wiederhergestellter Gerechtigkeit beitragen) kann wie eine erfolgreich ausgeführte Racheaktion. Es werden vier Studien beschrieben, die die im theoretischen Teil der Arbeit entwickelten Hypothesen konsekutiv prüfen. Bei zwei Studien wird mit Vignetten gearbeitet, bei den beiden anderen handelt es sich um laborexperimentelle Untersuchungen. Die Ergebnisse dieser vier Studien zeigen, dass Rachereaktionen zumindest zu einem gewissen Anteil durch antizipatorische Kognitionen sowie durch gerechtigkeitsbezogene Persönlichkeitseigenschaften vorhergesagt werden können. Ebenso kann der Einfluss gerechtigkeitsbezogener Persönlichkeitseigenschaften auf die subjektive Bedeutsamkeit gerechtigkeitsbezogener Ziele sowie auf sekundäre Bewältigungsstrategien nachgewiesen werden. Ein beobachteter Schicksalsschlag zu Lasten des "Täters" kann zwar Ärger und Frustration auf Seiten des "Opfers" dämpfen, nicht aber Zufriedenheit, Genugtuung und die Wahrnehmung wiederhergestellter Gerechtigkeit signifikant erhöhen. Die Befunde werden vor dem Hintergrund aggressions-, gerechtigkeits- und bewältigungspsychologischer Konzepte diskutiert. Aus einer vertieften methodischen Diskussion der verwendeten Untersuchungsansätze ergeben sich darüber hinaus konkrete Vorschläge dahingehend, wie Racheaktionen und rachebezogene Reaktionen in zukünftigen Studien untersucht werden sollten.
Ein gut funktionierendes Umweltmanagementsystem strebt im Allgemeinen nach einer kontinuierlichen Verbesserung der Umweltleistung. Diese kontinuierliche Verbesserung setzt bei den beteiligten Unternehmen einmal die Identifizierung der Umweltaspekte voraus. Die Umweltaspekte beziehen sich vor allem auf den Produktionsprozess und somit auf die Umwelteinwirkungen und - auswirkungen des Produktionsstandortes. Das Potential für kontinuierliche Verbesserung ist nicht immer offensichtlich, wie auch Schwachstellen nicht immer sofort erkannt werden. Beides äußert sich in der Umweltleistung eines Unternehmens. Das vorliegende Bewertungssystem ermöglicht es nun, diese Umweltleistung zu messen und im Sinne des Benchmarking die daraus erlangten Kenntnisse zu nutzen. In dieser Arbeit wird dargestellt, wo die Darstellung der Umweltleistung mit Kennzahlen seine Grenzen hat. Für den operativen Bereich werden daraufhin neue operative Umweltleistungskriterien entwickelt, und es wird gezeigt, wie die Killerargumente gegen einen Vergleich "unterschiedliche Fertigungstiefen und unterschiedlicher Produktoutput" ausgeschaltet werden können. Das Ergebnis sind operative Umweltleistungskriterien, die zwar mit Fehlern belastet sind, aber sie wurden analysiert und auf ein Minimum reduziert. Parallel dazu wird ein Katalog qualitativer Kriterien für den Managementbereich vorgestellt. Hiermit soll der organisatorische Teil, also die "Soft Skills" des Umweltmanagementsystems, abgedeckt werden. Zunächst wurde versucht, diesen Katalog von managementbezogenen Umweltleistungskriterien durch eine Delphi-Befragung zusammenzustellen. Nach einer Analyse der bestehenden Checklisten und Literatur musste dieser jedoch ergänzt werden. Nach dem betriebswirtschaftlichen Grundsatz: "What you cannot measure, you cannot manage." gibt der vorliegende Ansatz die Möglichkeit, durch die Vergabe von Zielerfüllungsgraden auch hier quantitative Aussagen zu machen. Dann wurde der Versuch, unternommen beide Umweltleistungskriterienpakete in einem naturwissenschaftlichen Bewertungsverfahren zu einem Bewertungssystem für Umweltmanagementsysteme zu vereinen. Dieser Versuch mündet in einem praktikablen Ansatz der Umweltleistungsbewertung zugeschnitten, auf die Automobilindustrie. Allerdings wird darauf verzichtet, eine Gesamt- Umweltleistungskennzahl über alle Kriterien zu kreieren, da die Aussage für den Anwender nicht detailliert genug wäre und eine so starke Aggregierung aus bewertungstheoretischer Sicht sehr problematisch ist.
Even though in most cases time is a good metric to measure costs of algorithms, there are cases where theoretical worst-case time and experimental running time do not match. Since modern CPUs feature an innate memory hierarchy, the location of data is another factor to consider. When most operations of an algorithm are executed on data which is already in the CPU cache, the running time is significantly faster than algorithms where most operations have to load the data from the memory. The topic of this thesis is a new metric to measure costs of algorithms called memory distance—which can be seen as an abstraction of the just mentioned aspect. We will show that there are simple algorithms which show a discrepancy between measured running time and theoretical time but not between measured time and memory distance. Moreover we will show that in some cases it is sufficient to optimize the input of an algorithm with regard to memory distance (while treating the algorithm as a black box) to improve running times. Further we show the relation between worst-case time, memory distance and space and sketch how to define "the usual" memory distance complexity classes.
Die sich entwickelnden mittelalterlichen Städte waren Triebfedern für vielfältige sprachliche Entwicklungen. Der in dieser Arbeit gewählte Untersuchungszeitraum von 1388 bis 1500 beleuchtet eine Zeit, in der sich in vielen Städten ein völlig neues System der Namengebung entwickelte. Dies wurde nötig, weil es in einer heterogenen Gesellschaft zunehmend schwieriger wurde, Individuen über ihren Rufnamen eindeutig zu identifizieren, was vor allem im Bereich des Rechts und der Verwaltung zu Problemen führte. Somit mussten neue Wege gefunden werden, um einen Namen in einem schriftlich verfassten und rechtsgültigen Dokument eindeutig einer Person zuordnen zu können. Basis dieser Untersuchung sind die Rechnungsbücher der Stadt Luxemburg, die in jährlichen Berichten penibel die Einnahmen und Ausgaben der Stadt verzeichnen. Tätigkeiten im Dienst der Stadtgemeinschaft wurde entlohnt und die Kosten für jeden einzelnen Arbeiter in den Büchern vermerkt. Somit sind Rechnungsbücher ein reicher Fundus für namenkundliche Analysen. Sie werfen ein Licht auf eine Zeit, in der sich im Bereich der Personennamen ein grundlegend neues System der Namengebung beginnt herauszubilden, dessen Auswirkungen uns bis heute prägen. Die Arbeit besteht aus einem nach verschiedenen Gesichtspunkten gegliederten und kommentierten Namenbuch sowie einer onomastischen Analyse des Bestands.
Die vorliegende Dissertation befasst sich mit der Bildung der Modelle der Komposita in der englischen Sprache.Um eine linguistische Theorie richtig zu bilden, stellen wir 7 Hypothesen auf, die auf umfangreiches englisches Sprachmaterial basieren. Wir schaffen den Regelkreis, der die Möglichkeiten für weitere Untersuchungen in diesem Bereich gibt. In unserem Fall ist diese Untersuchung ein begrenzter Bereich, der als die Bereicherung des Regelkreises von Köhler (2005) gilt (synergetisch-linguistische Modellierung).
Dargestellt werden die Ergebnisse einer Studie zur Raucherprävention bei Schülerinnen und Schülern der 6. Jahrgangsstufe an Gymnasien. Das durchgeführte Programm wird in Manualform genau beschrieben. Es besteht aus einem medizinischen Teil mit den Themen Ernährung, Herz-, Kreislauf- und Lungenfunktion und Sport und Gesundheit sowie einem psychologischen Teil mit den Unterrichtseinheiten Gründe für und gegen das Rauchen, Widerstand gegen das Rauchen und Werbung und Wirklichkeit. Die Ergebnisse einer anonymisiert durchgeführten Begleitstudie beschreiben die Prävalenz des Zigaretten- und Alkoholkonsums vor Beginn und fünf Monate nach der Durchführung des Präventionsprogramms und geben erste Hinweise auf die Effekte des Programms.
Auf der Mikroebene einer durch verwandtschaftliche Kohäsion verbundenen Personengruppe werden in einer prosopographischen Fallstudie Konsistenz und Persistenz sozialer Rangbildung im rheinisch-maasländischen Adel des späten Mittelalters untersucht. Ausgehend von dem wohl berühmtesten Vertreter der Familie von Schönau/von Schönforst, Reinhard von Schönau (ca. 1305-1376), dessen Karriere bereits in der zeitgenössischen Chronistik in Anbetracht seiner sozialen und wirtschaftlichen Ausgangsbedingungen als außergewöhnlich qualifiziert wurde, greift die Themenstellung sowohl auf dessen genealogische Aszendenz wie auch auf seine Deszendenz aus, um in mehr als 35 Biogrammen aus dem Zeitraum von ca. 1250 bis ca. 1450 in einem Längsschnitt über acht Generationen hinweg das überaus disparate Quellenmaterial für die einzelnen Familienmitglieder zusammenzutragen und in seinem historischen Kontext darzustellen. Der innerhalb verschiedener Stratifikationsdimensionen " wirtschaftliche Stellung, politische Position, Konnubium, administrative Funktionen in den miteinander konkurrierenden Landesherrschaften im Westen des Reiches sowie Selbst- und Fremdbezeichnungen " differenziert evaluierte soziale Status der einzelnen Familienmitglieder jenseits einer schematischen Zuweisung in 'hohen' und 'niederen' Adel erlaubt es, strukturelle von individuellen statusbildenden Faktoren zu unterscheiden und deren unterschiedliche Bedeutung für die Persistenz sozialen Ranges darzustellen. Diese Analyse mündet in die These, daß sich die Weitergabe sozialen Ranges in der Generationenabfolge im Rahmen eines Modells hierarchisierter statusbildender Faktoren beschreiben läßt. Dieses Modell ist nicht nur auf andere genealogisch definierte Personengruppen übertragbar, sondern kann im Ergebnis auch Gültigkeit über die Familie von Schönau/von Schönforst und den Rhein-Maas-Raum hinaus beanspruchen.
Im Mittelpunkt der Arbeit steht der spätgotische Kirchenbau der 2. Hälfte des 15. Jahrhunderts im alten Erzbistum Trier. Dabei soll besonderes Augenmerk auf die unter Erzbischof und Kurfürst Johann II. von Baden (1456-1503) neu entstandenen und/oder umgebauten bzw. "modernisierten" Kirchen gelegt werden. Diese wurden in der bisherigen Forschung, bis auf Einzelmonographien, nicht in einer Zusammenschau betrachtet. Auch auf die Bau- und Stiftungspolitik Johanns II. von Baden, der scheinbar sämtliche in seiner Regierungszeit entstandenen Baumaßnahmen durch sein Wappen kennzeichnete, und deren Hintergründe, soll näher eingegangen werden. Neben den bekannteren Bauten in den Zentren des Erzstiftes Trier " Trier und Koblenz - entstanden in der 2. Hälfte des 15. Jahrhunderts im gesamten Erzbistum bedeutende spätgotische Bauten, so etwa in St. Wendel, in Klausen oder die Kirche des ehem. Kreuzherrenklosters Helenenberg. Neben den allgemein bekannteren Bauten sollen in der geplanten Dissertation aber vor allem auch die zahlreichen ländlichen Pfarrkirchen in Eifel, Hunsrück, Westerwald und Rhein-Lahn-Kreis gewürdigt werden. Diese blieben in der bisherigen kunsthistorischen Forschung außen vor, obwohl sie zum Teil von großer künstlerischer Qualität zeugen und einen wesentlichen Beitrag der Kunst- und Kulturgeschichte des Trierer Raumes leisten. Mit einer solchen Arbeit könnte eine Lücke der bisherigen Forschung zum spätmittelalterlichen Kirchenbau in Westdeutschland geschlossen werden, was nicht nur aus kunsthistorischer Sicht, sondern auch aus lokal-historischer, sozial- und kirchengeschichtlicher Sicht dringend erforderlich wäre.
Intensiv diskutierte Aspekte der Politikwissenschaft heben zunehmend die Bedeutung von Strategiefähigkeit zur erfolgreichen Durchführung von Wahlkämpfen für Parteien hervor. Der Widerspruch der mit den Implikationen der modernen Mediengesellschaft eingehergehenden unterstellten Akteursfähigkeit der Parteien und ihrer kollektiven heterogenen Interessens- und Organisationsvielfalt bleibt dabei bestehen. Die Fokussierung der Parteien auf das Ziel der Stimmenmaximierung bringt unter den sich wandelnden Rahmenbedingungen Veränderungen der Binnenstrukturen mit sich. So diskutieren Parteienforscher seit Längerem die Notwendigkeit eines vierten Parteitypus als Nachfolger von Kirchheimers Volkspartei (1965). Verschiedene dieser Ansätze berücksichtigen primär die Wahlkampffokussierung der Parteien, während andere vor allem auf den gesteigerten Strategiebedarf abzielen. Auch die Wechselwirkungen mit den Erfordernissen der Mediengesellschaft sowie Auswirkungen des gesellschaftlichen Wandels stehen im Vordergrund zahlreicher Untersuchungen. Die Arbeit von Uwe Jun (2004), der mit dem Modell der professionalisierten Medienkommunikationspartei auch die organisatorischen und programmatischen Transformationsaspekte des Parteiwandels beleuchtet, liefert einen bemerkenswerten Beitrag zur Party-Change-Debatte und bietet durch die angeschlossene vergleichende exemplarische Fallstudie eine praxisnahe Einordnung. Die geringe empirische Relevanz, die Jun seinem Parteityp anhand der Untersuchung von SPD und New Labor zwischen 1995 und 2005 bestätigt, soll in dieser Arbeit versucht werden zu relativieren, in dem der Parteiwandel der deutschen Großparteien seit der Wiedervereinigung durch die Untersuchung ihrer Wahlkampffähigkeit aufgezeigt wird. Anhand eines längsschnittlichen Vergleiches der Bundestagswahlkämpfe von SPD und CDU zwischen 1990 und 2013 soll die Plausibilität dieses vierten Parteitypus überprüft werden. Hierdurch soll die Entwicklung der Strategie- und Wahlkampffähigkeit beider Großparteien in den Bundestagswahlkämpfen seit 1990 untersucht und die Ergebnisse miteinander verglichen und in Bezug auf den Parteiwandel eingeordnet werden.
Dass sich Parteien genau wie ihre gesellschaftliche und politische Umwelt im Wandel befinden, ist nicht zu bestreiten und seit Langem viel diskutierter Gegenstand der Parteienforschung. „Niedergangsdiskussion“, Mitgliederschwund, Nicht- und Wechselwähler, Politik- und Parteienverdrossenheit, Kartellisierung und Institutionalisierung von Parteien sind nur einige der in diesem Kontext geläufigen Schlagwörter. Prozesse der Individualisierung, Globalisierung und Mediatisierung führen zu veränderten Rahmenbedingungen, unter denen Parteien sich behaupten müssen. Diese Veränderungen in der äußeren Umwelt wirken sich nachhaltig auf das parteipolitische Binnenleben, auf Organisationsstrukturen und Programmatik aus. Die Parteienforschung hat daher schon vor zwanzig Jahren begonnen, ein typologisches Nachfolgemodell der Volkspartei zu diskutieren, das diesen Wandel berücksichtigt. Verschiedene typologische Konstruktionen von z. B. Panebianco (1988), Katz und Mair (1995) oder von Beyme erfassen (2000) wichtige Facetten des Strukturwandels politischer Parteien und stellen mehrheitlich plausible typologische Konzepte vor, die die Parteien in ihrem Streben nach Wählerstimmen und Regierungsmacht zutreffend charakterisieren. Die Parteienforschung stimmt bezüglich des Endes der Volksparteiära mehrheitlich überein. Bezüglich der Nachfolge konnte sich unter den neueren vorgeschlagenen Typen jedoch kein vierter Typ als verbindliches Leitmodell etablieren. Bei genauerer Betrachtung weichen die in den verschiedenen Ansätzen für einen vierten Parteitypen hervorgehobenen Merkmale (namentlich Professionalisierung des Parteiapparates, die Berufspolitikerdominanz, Verstaatlichung und Kartellbildung sowie die Fixierung auf die Medien) wenig von jüngeren Modellvorschlägen ab und bedürfen daher mehr einer Ergänzung. Die in der Regel mehrdimensionalen entwicklungstypologischen Verlaufstypen setzten seit den 1980er Jahren unterschiedliche Schwerpunkte und warten mit vielen Vorschlägen der Einordnung auf. Einer der jüngsten Ansätze von Uwe Jun aus dem Jahr 2004, der das typologische Konzept der professionalisierten Medienkommunikationspartei einführt, macht deutlich, dass die Diskussion um Gestalt und Ausprägungen des vierten Parteityps noch in vollem Gang und für weitere Vorschläge offen ist – der „richtige“ Typ also noch nicht gefunden wurde. Jun bleibt in seiner Untersuchung den zentralen Transformationsleitfragen nach der Ausgestaltung der Parteiorganisation, der ideologisch-programmatischen Orientierung und der strategisch-elektoralen Wählerorientierung verhaftet und setzt diese Elemente in den Fokus sich wandelnder Kommunikationsstrategien. Die bisher in parteitypologischen Arbeiten mitunter vernachlässigte Komponente der strukturellen Strategiefähigkeit als Grundlage zur Entwicklung ebensolcher Reaktionsstrategien wird bei Jun angestoßen und soll in dieser Arbeit aufgegriffen und vertieft werden.
Der aktuellen Partychange-Diskussion zum Trotz scheint die Annahme, dass Parteien, die sich verstärkt der Handlungslogik der Massenmedien unterwerfen, deren strategischen Anforderungen durch interne Adaptionsverfahren auch dauerhaft gerecht zu werden vermögen, nicht immer zutreffend. Die Veränderungen der Kommunikationsstrategien als Reaktion auf gesamtgesellschaftliche Wandlungsprozesse stehen zwar im Zentrum der Professionalisierungsbemühungen der politischen Akteure, bleiben aber in ihrer Wirkung eingeschränkt. Wenngleich das Wissen in den Parteien um die Notwendigkeiten (medialer) Strategiefähigkeit besteht und die Parteien hierauf mit Professionalisierung, organisatorischen und programmatischen Anpassungsleistungen und der Herausbildung strategischer Zentren reagieren, so ist mediengerechtes strategisches Agieren noch lange keine natürliche Kernkompetenz der Parteien. Vor allem in Wahlkampfzeiten, die aufgrund abnehmender Parteibindungen und zunehmender Wählervolatilität für die Parteien zum eigentlich zentralen Moment der Parteiendemokratie werden, wird mediengerechtes Handeln zum wesentlichen Erfolgsfaktor. Strategiefähigkeit wird hierbei zur entscheidenden Voraussetzung und scheint zudem in diesen Phasen von den Parteien erfolgreicher umgesetzt zu werden als im normalen politischen Alltag. Die wahlstrategische Komponente findet in Juns typologischer Konstruktion wenig Beachtung und soll in dieser Arbeit daher als ergänzendes Element hinzugefügt werden. Arbeitshypothese Die beiden deutschen Großparteien berufen sich auf unterschiedliche Entstehungsgeschichten, die sich bis in die Gegenwart auf die Mitglieder-, Issue- und Organisationsstrukturen von SPD und CDU auswirken und die Parteien in ihren Anpassungsleistungen an die sich wandelnde Gesellschaft beeinflussen. Beide Parteien versuchen, auf die veränderten sozialen und politischen Rahmenbedingungen und den daraus resultierenden Bedeutungszuwachs von politischer Kommunikationsplanung mit einem erhöhten Maß an Strategiefähigkeit und kommunikativer Kompetenz zu reagieren. Diese Entwicklung tritt seit der deutschen Wiedervereinigung umso stärker in Augenschein, als dass nach 1990 die Bindekraft der Volksparteien nochmals nachließ, sodass die Parteien sich zunehmend gezwungen sehen, die „lose verkoppelten Anarchien“ in wahlstrategische Medienkommunikationsparteien zu transformieren. Diesen vierten Parteityp kennzeichnet vor allem die zunehmende Bemühung um Strategiefähigkeit, die mittels Organisationsstrukturen und programmatischer Anpassungsleistungen die Effizienz der elektoralen Ausrichtung verbessern soll. Insgesamt geht die Party-Change-Forschung davon aus, dass die Parteien sich zunehmend angleichen. Dies gilt es in dieser Studie zu überprüfen. Unter Berücksichtigung unterschiedlicher Entwicklungspfade kann vermutet werden, dass auch die Transformationsprozesse bei SPD und CDU in unterschiedlicher Weise verlaufen. Wenngleich die SPD über einen höheren Strategiebedarf und die größere Innovationsbereitschaft zu verfügen scheint, werden auf Seiten der Union potentiell strategiefähigere Strukturen vermutet, die die erfolgreiche Umsetzung von Wahlkampfstrategien erleichtern. Die historische Entwicklung und der Aspekt der Historizität spielen in diesem Kontext eine Rolle.
Zusätzlich spielen individuelle Führungspersönlichkeiten eine zentrale Rolle in innerparteilichen Transformationsprozessen, welche für die Ausprägung strategiefähiger Strukturen oftmals von größerer Bedeutung sind als institutionalisierte Strukturen. Im Vordergrund steht die Untersuchung des Parteiwandels anhand der Veränderung der Kommunikationsstrategien der Parteien im Allgemeinen sowie der Strategiefähigkeit in Wahlkämpfen im Besonderen, da diese als zentrale Merkmale für den vierten Parteityp in Anlehnung an die Professionelle Medienkommunikationspartei (Jun 2004) gewertet werden sollen. Strategiefähigkeit soll dabei anhand der Kriterien des Umgangs der Parteien mit Programmatik, Organisation und externen Einflussfaktoren in Wahlkämpfen operationalisiert werden. Die Analyse untersucht sowohl das Handeln einzelner Personen wie auch die Rolle der Partei als Gesamtorganisation. Die Arbeit besteht aus zehn Kapiteln und gliedert sich in zwei Blöcke: einen theoretisch konzeptionellen Teil, der die in der Perspektive dieser Arbeit zentralen Grundlagen und Rahmenbedingungen zusammenführt sowie die sich daran anschließende Untersuchung der Konzeption und Implementation von Kommunikationskampagnen im Wahlkampf seit 1990. Das aktuell in die politikwissenschaftliche Diskussion eingebrachte Feld der politischen Strategiefähigkeit (Raschke/Tils 2007) wird in ausführlicher theoretischer Grundlegung bisher zwar mit den Implikationen der Medienkommunikation und damit einhergehend auch den organisatorischen und programmatischen Strukturmerkmalen der Parteien verknüpft, diese erfolgte allerdings oft ohne vertiefte Berücksichtigung des Parteiwandels. Dies soll in diesem Beitrag daher versucht werden. Der Diskursanalyse des Strategiebegriffes in Wahlkampfsituationen folgt die detaillierte Darstellung der drei Operationalisierungsparameter, die in die Festlegung des Parteityps münden. Die Diskussion idealtypischer Wahlkampfmodelle als theoretischer Bezugsrahmen für die Bewertung der Wahlkampagnen ergänzt den theoretisch-konzeptionellen Bezugsrahmen. Die insgesamt in der Literatur in ihren Ausführungen oftmals normativ gestalteten Darstellungen idealtypischer politischer Strategie sollen im letzten Teil der Arbeit auf ihre Umsetzbarkeit im parteipolitischen Alltag überprüft werden und dies nicht nur anhand einzelner, mit einander nicht in Zusammenhang stehender Ereignisse, sondern anhand der sich periodisch unter vergleichbaren Bedingungen wiederholenden Wahlkämpfe. Dafür werden die jeweiligen Ausgangs- und Rahmenbedingungen der einzelnen Wahlkämpfe sowie die zuvor dargelegten Elemente professionalisierter Wahlkampagnen für die Wahlkampagnen von SPD und CDU seit 1990 dargestellt. Aus diesen Gegenüberstellungen soll im Anschluss der längsschnittliche Vergleich der Strategiefähigkeit und Kommunikationskompetenz von SPD und CDU abgeleitet werden
Im März 196 v. Chr. erließ eine in Memphis versammelte Synode von Priestern aus den Tempeln Ägyptens ein Ehrendekret in drei verschiedenen Sprachen für den amtierenden Herrscher Ptolemaios V. Epiphanes: Der klassischen Sprache des pharaonischen Ägypten, geschrieben in altägyptischen Hieroglyphen, dem Demotischen, der damals gesprochenen Sprachstufe des Altägyptischen und dem hellenistischen Griechisch des 2 Jh.. Von dieser Textsorte sind bisher insgesamt nur vier relativ vollständig erhaltene Beispiele auf uns gekommen. Diese folgen sämtlich in ihrem Formular in hohem Maße der im griechischen Bereich ubiquitären Psephismata und setzen alle im jeweiligen Beschlussteil Ehrungen fest, die die Rolle des ptolemäisch-hellenistischen Herrschers im Kontext der altägyptischen Kulte betreffen. Die vorliegende Arbeit will zum einen in ihrem Kommentarteil eine Grundlage für die weitere Beschäftigung mit allen drei Sprachfassungen des Dekrets von Memphis durch die ptolemaistisch-althistorische Forschung leisten. Zum anderen möchte sie auf Grundlage des Textes die Rolle des Herrschers aus Sicht der beschließenden Priesterschaft beleuchten. Es kann gezeigt werden, dass das Dekret - anders als bisher angenommen - nicht zur eigentlichen Thronbesteigung, sondern anlässlich eines späteren Thronjubiläums erlassen wurde und gleichwohl die Fiktion eines innenpolitischen Neuanfangs (vermutlich im Sinne des Hofes) angesichts erster, bescheidener Erfolge gegen innere Aufstände der indigenen Bevölkerung in Unter- und Oberägypten inszeniert. Die kultische Herrscherverehrung hellenischer Provenienz erscheint in diesem Text ggü. den früheren Dekreten von Kanobos und Raphia relativ vollständig in den altägyptischen religiösen Kontext übersetzt, sodass hier durchaus von einem "ägyptischen Herrscherkult" gesprochen werden kann. Dabei wird der sehr junge fünfte Ptolemäerkönig sehr auffällig mit Kindformen des Gottes Horus (Harendotes, Harsiese) gleichgesetzt, was zum einen die legitime Machtübernahme durch den Sohn des verstorbenen Herrschers von einer im ägyptischen Kontext religiös definierten Sieghaftigkeit gegen die "Götterfeinde" abhängig erscheinen lässt, zum anderen den König in den Kontext der spätzeitlichen Verehrung von Kindgottheiten und Götterttriaden setzt. Alles in allem scheint die ägyptische Priesterschaft mittels einer für die eigenen Bedürfnisse flexibel adaptierten ursprünglich griechischen Textform den eigenen Anspruch auf Definition religiös legitimierter Königsmacht erhoben und im Diskurs um Privilegien und Unterstützung im ptolemäischen Ägypten kommuniziert zu haben.
Floods are hydrological extremes that have enormous environmental, social and economic consequences.The objective of this thesis was a contribution to the implementation of a processing chain that integrates remote sensing information into hydraulic models. Specifically, the aim was to improve water elevation and discharge simulations by assimilating microwave remote sensing-derived flood information into hydraulic models. The first component of the proposed processing chain is represented by a fully automated flood mapping algorithm that enables the automated, objective, and reliable flood extent extraction from Synthetic Aperture Radar images, providing accurate results in both rural and urban regions. The method operates with minimum data requirements and is efficient in terms of computational time. The map obtained with the developed algorithm is still subject to uncertainties, both introduced by the flood mapping algorithm and inherent in the image itself. In this work, particular attention was given to image uncertainty deriving from speckle. By bootstrapping the original satellite image pixels, several synthetic images were generated and provided as input to the developed flood mapping algorithm. From the analysis performed on the mapping products, speckle uncertainty can be considered as a negligible component of the total uncertainty. In the final step of the proposed processing chain real event water elevations, obtained from satellite observations, were assimilated in a hydraulic model with an adapted version of the Particle Filter, modified to work with non-Gaussian distribution of observations. To deal with model structure error and possibly biased observations, a global and a local weight variant of the Particle Filter were tested. The variant to be preferred depends on the level of confidence that is attributed to the observations or to the model. This study also highlighted the complementarity of remote sensing derived and in-situ data sets. An accurate binary flood map represents an invaluable product for different end users. However, deriving from this binary map additional hydraulic information, such as water elevations, is a way of enhancing the value of the product itself. The derived data can be assimilated into hydraulic models that will fill the gaps where, for technical reasons, Earth Observation data cannot provide information, also enabling a more accurate and reliable prediction of flooded areas.
Die Dissertation mit dem Thema "Cross-Border-Leasing als Instrument der Kommunalfinanzierung " Eine finanzwirtschaftliche Analyse unter besonderer Berücksichtigung der Risiken - befasst sich am Beispiel des primär steuerinduzierten, grenzüberschreitenden Cross-Border-Leasings (CBL) mit einem innovativen, strukturierten Finanzierungsinstrument, das sich im Spannungsfeld von Rechtsstaatlichkeit und privatwirtschaftlichem Management öffentlicher Akteure befindet. Dazu werden bereits finanzierte und sich im Betrieb befindliche Assets in Variationen von langfristigen Leasingverträge eingebracht. Durch die geschickte Ausnutzung steuerlicher Zurechnungskriterien werden unter Einbindung mehrerer Jurisdiktionen Gewinnverschiebungsmöglichkeiten und Steueroptimierungspotenziale geschaffen, wobei die generierten Zusatzerträge unter den Akteuren aufgeteilt werden. Die Untersuchung orientiert sich an einem umfassenden forschungsleitenden Fragenkatalog, der sehr vielschichtig und zudem interdisziplinär die komplexen Aspekte des CBLs theoretisch sowie praktisch an einem Fallbeispiel untersucht. Zunächst erfolgt die Einbettung des CBLs in den kommunalen Hintergrund. Daran schliesst sich eine Darstellung des Untersuchungsgegenstands im Hinblick auf seine elementare Grundstruktur, Zahlungsströme, Vertragsparteien und deren bilateralen Verpflechtungen an. Daneben erfolgt eine Analyse der öffentlich-rechtlichen Implikationen des CBLs sowie der regulatorischen kommunalaufsichtsrechtlichen Anforderungen. Im zentralen empirischen Teil der Dissertation wird eine idealtypische CBL-Transaktion einer bundesdeutschen Metropole als Fallstudie analysiert: im Rahmen einer erstmaligen wissenschaftlichen Analyse einer Orginaldokumentation werden zunächst die strukturellen Rahmenparameter untersucht, um dann den Finanzierungsvorteil der Transaktion zu ermitteln. Eine Klassifikation erfolgt dabei in diejenigen Risken, die sich unmittelbar im Einflussbereich der Kommune befinden und somit direkt, d.h. durch aktives eigenes Handeln, minimiert oder vermieden werden können und in solche, die aus ihrer Sicht extern sind. Abgerundet wird die Risikoanalyse durch eine Abschätzung der maximalen Risikoposition in Form der Schadensersatzzahlungen, die die Kommune in vertraglich vereinbarten Fällen leisten muss. Dabei ermittelt die Verfasserin den Break-Even der Transaktion und setzt Szenarien sowie mathematische Modelle ein, um die inhärenten Risiken aufgrund ihrer Kostenfolgen sorgfältig gegenüber dem vereinnahmten kurzfristigen Vorteil abzuwägen. Die Untersuchung bedient sich dem anerkannten mathematisch-statistischen Value-at-Risk-Verfahren (VaR), das unter Verwendung von Ansätzen der Wahrscheinlichkeitsverteilung das Marktpreisrisiko zu quantifizieren vermag. Um zu validen Ergebnissen zu gelangen, werden zur Ermittlung des VaRs die beiden bekanntesten (nicht-parametrischen) Tools des VaR-Ansatzes angewendet, um die potenziellen Performanceschwankungen des Depotwertes unter Zugrundelegung bestimmter Wahrscheinlichkeiten abschätzen zu können. Dies ist das Verfahren der Historischen Simulation sowie die als mathematisch sehr anspruchsvoll eingestufte Monte-Carlo-Simulation. Als Weiterentwicklung des VaR-Modells wird zudem der Conditional VaR berechnet, der Aussagen über das Ausmaß der erwarteten Verluste zulässt. Anhand dieser Ergebnisse wird die maximale finanzielle Risikoposition der Kommune, bezogen auf das Kapitaldepot, abgeleitet. Darüber hinaus wird das CBL im Rahmen eines mathematischen Modells insgesamt beurteilt, indem eine Gegenüberstellung von vereinnahmtem Finanzierungsvorteil und den mit Eintrittswahrscheinlichkeiten gewichteten Ausfallrisiken, unter Berücksichtigung des jeweiligen Eintrittszeitpunktes, durchgeführt wird. Diese Vorgehensweise führt zu einer Symbiose aus Finanzierungsvorteil und den Risikomaßzahlen VaR, Expected Shortfall und Expected Loss. Die ermittelten finanzwirtschaftlichen Risikomaßzahlen führen zu überraschenden Ergebnissen, die die propagierte Risikolosigkeit und das vermeintlich attraktive Renditepotenzial derartiger Transaktionen eindeutig verneinen. Aus den gewonnenen Erkenntnissen leitet die Verfasserin praktische Handlungsempfehlungen und Absicherungsmöglichkeiten für kommunale Entscheidungsträger ab. Die sich aufgrund der US-Steuerrechtsänderung vom Februar 2005 ergebenden Auswirkungen auf bestehende Transaktionen wie auch auf Neugeschäfte werden im Ausblick dargelegt.
Agricultural monitoring is necessary. Since the beginning of the Holocene, human agricultural
practices have been shaping the face of the earth, and today around one third of the ice-free land
mass consists of cropland and pastures. While agriculture is necessary for our survival, the
intensity has caused many negative externalities, such as enormous freshwater consumption, the
loss of forests and biodiversity, greenhouse gas emissions as well as soil erosion and degradation.
Some of these externalities can potentially be ameliorated by careful allocation of crops and
cropping practices, while at the same time the state of these crops has to be monitored in order
to assess food security. Modern day satellite-based earth observation can be an adequate tool to
quantify abundance of crop types, i.e., produce spatially explicit crop type maps. The resources to
do so, in terms of input data, reference data and classification algorithms have been constantly
improving over the past 60 years, and we live now in a time where fully operational satellites
produce freely available imagery with often less than monthly revisit times at high spatial
resolution. At the same time, classification models have been constantly evolving from
distribution based statistical algorithms, over machine learning to the now ubiquitous deep
learning.
In this environment, we used an explorative approach to advance the state of the art of crop
classification. We conducted regional case studies, focused on the study region of the Eifelkreis
Bitburg-Prüm, aiming to develop validated crop classification toolchains. Because of their unique
role in the regional agricultural system and because of their specific phenologic characteristics
we focused solely on maize fields.
In the first case study, we generated reference data for the years 2009 and 2016 in the study
region by drawing polygons based on high resolution aerial imagery, and used these in
conjunction with RapidEye imagery to produce high resolution maize maps with a random forest
classifier and a gaussian blur filter. We were able to highlight the importance of careful residual
analysis, especially in terms of autocorrelation. As an end result, we were able to prove that, in
spite of the severe limitations introduced by the restricted acquisition windows due to cloud
coverage, high quality maps could be produced for two years, and the regional development of
maize cultivation could be quantified.
In the second case study, we used these spatially explicit datasets to link the expansion of biogas
producing units with the extended maize cultivation in the area. In a next step, we overlayed the
maize maps with soil and slope rasters in order to assess spatially explicit risks of soil compaction
and erosion. Thus, we were able to highlight the potential role of remote sensing-based crop type
classification in environmental protection, by producing maps of potential soil hazards, which can
be used by local stakeholders to reallocate certain crop types to locations with less associated
risk.
In our third case study, we used Sentinel-1 data as input imagery, and official statistical records
as maize reference data, and were able to produce consistent modeling input data for four
consecutive years. Using these datasets, we could train and validate different models in spatially
iv
and temporally independent random subsets, with the goal of assessing model transferability. We
were able to show that state-of-the-art deep learning models such as UNET performed
significantly superior to conventional models like random forests, if the model was validated in a
different year or a different regional subset. We highlighted and discussed the implications on
modeling robustness, and the potential usefulness of deep learning models in building fully
operational global crop classification models.
We were able to conclude that the first major barrier for global classification models is the
reference data. Since most research in this area is still conducted with local field surveys, and only
few countries have access to official agricultural records, more global cooperation is necessary to
build harmonized and regionally stratified datasets. The second major barrier is the classification
algorithm. While a lot of progress has been made in this area, the current trend of many appearing
new types of deep learning models shows great promise, but has not yet consolidated. There is
still a lot of research necessary, to determine which models perform the best and most robust,
and are at the same time transparent and usable by non-experts such that they can be applied
and used effortlessly by local and global stakeholders.
One of the current issues in psycholinguistics is how the frequency of syntactic structures influences the mental processing of sentences, especially in the case of ambiguous constructions. The present work attempts to shed light on this issue from the perspective of computational and corpus linguistics. Existing theories of human sentence processing assign different roles to frequency, varying from certain 'principle-based' models that completely ignore it to 'experience-based' models relying on frequency alone. The present work develops a frequency-based parsing component that may be combined with other factors influencing disambiguation. This module, named the Optimized Frequency Constraint (OFC), addresses questions largely left open by existing frequency-based models: How are the frequencies of syntactic structures stored mentally? When does the human sentence processing mechanism access this stored information, and in what sequence? OFC is then applied to a range of syntactic constructions in German (licensing, attachment of phrases and relative clauses, word order, etc.) that have been used in psycholinguistic experiments. The settings of OFC's parameters are determined by analyzing German corpus data. The predictions based on OFC are confirmed by the results reported in the psycholinguistic literature in most cases, indicating that OFC offers psychologically valid predictions of the influence of frequency in human parsing.
Seit den frühen siebziger Jahren ist im anglo-amerikanischen Raum eine große Anzahl an Romanen erschienen, die alle auf einer bzw. zwei eng verwandten schottischen Feenballaden ("Thomas the Rhymer" und "Tam Lin") basieren. Die vorliegende Arbeit untersucht eine Auswahl dieser Romane in vergleichender Perspektive. Der erste Teil beschäftigt sich mit Feenglauben und -literatur im Allgemeinen, während der zweite Teil der Analyse von zehn auf den Balladen basierenden Romanen gewidmet ist. Da im Ausgangsmaterial Elemente keltischen Volksglaubens eine zentrale Rolle spielen, untersucht das erste Kapitel die Grundlagen und möglichen Ursprünge des keltischen Feenglaubens. Um neben einer Einführung in die volkskundlichen Grundlagen auch eine Verankerung der Arbeit in aktuellen literaturwissenschaftlichen Theorien zu gewährleisten, gibt das zweite Kapitel einen Überblick über Theorien der phantastischen Literatur. Vorgestellt werden strukturalistische und funktionale Ansätze, die sich chronologisch von J.R.R. Tolkien (1948) über Tzvetan Todorov (1970) bis hin zu Farah Mendlesohn (2005) bewegen. Um die Bearbeitungen der frühmodernen Balladen literaturgeschichtlich einzuordnen, zeichnet das nächste Kapitel die Geschichte der literarischen Bearbeitungen des Elfenstoffes in der Literatur vom Mittelalter bis ins späte 20. Jahrhundert nach, mit Schwerpunkt auf englischsprachigen Werken. Von im Mittelalter noch stark vom Volksglauben beeinflussten, moralisch ambivalenten Figuren entwickeln sich die Elfen seit dem 16. Jahrhundert zu satirisierten, miniaturisierten und verniedlichten Gestalten; die Fantasyromane des späten 20. Jahrhunderts scheinen jedoch wieder zu stärker bedrohlichen Elfen zurück zu finden. Das nächste Kapitel widmet sich der Darstellung des Ausgangsmaterials, der zwei Balladen, die als Nr. 37 bzw. 39 in der Balladensammlung von Francis James Child zu finden sind. Erläutert werden die Entstehungsgeschichte der traditionellen Ballade (traditional ballad) im Allgemeinen und von Child Nr. 37 und 39 im Besonderen, sowie Varianten, Symbolik und Besonderheiten der zwei Balladen. Die anschließenden Analysekapitel beschäftigen sich jeweils schwerpunktmäßig mit einer Balladenadaption in Romanform: - Dahlov Ipcar: The Queen of Spells (1973) - Elizabeth Marie Pope: The Perilous Gard (1974) - Diana Wynne Jones: Fire and Hemlock (1984) - Ellen Kushner: Thomas the Rhymer (1990) - Pamela Dean: Tam Lin (1991) - Terry Pratchett: Lords and Ladies (1992) und The Wee Free Men (2003) - Patricia McKillip: Winter Rose (1996) Alle Analysekapitel sind ähnlich strukturiert: Nach kurzer Vorstellung des Autors folgt eine Zusammenfassung der Romanhandlung. Da alle Romane mehr oder weniger stark intertextuell sind, werden daraufhin Einflüsse und intertextuelle Anspielungen untersucht. Besonderes Augenmerk liegt dabei auf der Verarbeitung der zwei Child-Balladen. Da nahezu alle untersuchten Romane ähnliche Hauptcharaktere aufweisen (junges Mädchen, junger Mann, Elfenkönigin) untersuchen die Analysekapitel diese Figurenkonstellation sowie die hier verarbeiteten folkloristischen Einflüsse. Trotz der großen zeitlichen und geographischen Bandbreite der Schauplätze sind sich die Romane erstaunlich ähnlich, vor allem in der Darstellung ihrer Hauptfiguren. Die weibliche Heldin ist meist jung, eigenwillig und unterscheidet sich oft durch eine negative Charaktereigenschaft oder Umweltbedingung von ihren Altersgenossinnen. Nahezu alle Romane werden aus der Perspektive der weiblichen Hauptfigur erzählt. Dies führt dazu, dass die männliche Hauptfigur weniger zentral und oft durch eine gewisse Passivität gekennzeichnet ist. Infolgedessen ist die zweite aktive Figur der Konstellation ebenfalls eine Frau " die Elfenkönigin. Auch in ihrer Darstellung lassen sich in allen Romanen große Gemeinsamkeiten finden: Sie ist attraktiv und grausam, kühl und oft überheblich. Insgesamt werden die Elfen in den Romanen deutlich unsympathisch geschildert. Sie sind eine Spezies schöner, (fast) unsterblicher, oft übernatürlich intelligenter und mit magischen Fähigkeiten begabter Wesen, doch sind sie auch kalt, grausam und vollkommen fremdartig und unverständlich für die Menschen. Ein möglicher Grund für die negative Darstellung der Elfen scheint didaktischer Art zu sein, da die Botschaft aller Adaptionen an die Leser lauten könnte: "Akzeptiere deine Unvollkommenheit und lass dich nicht von vermeintlich überlegenen Gegnern einschüchtern " auch sie haben Schwächen". Auch in Richtung Gender-Diskurs scheinen viele der Autoren eine Aussage machen zu wollen. Sie zeichnen ihre Heldinnen als "starke Mädchen", die in einer Umkehrung des "damsel in distress"-Schemas einen Mann aus der Gefangenschaft der Elfen retten. Als feministisch kann man die Adaptionen jedoch nicht bezeichnen, da sie hierzu eher zu konservativ sind, was sich vor allem darin zeigt, dass die einzige Frau im Roman, die wirklich über Macht verfügt " nämlich die Elfenkönigin " am Ende die Verliererin ist.
Zu den klassischen Verteilungen der mathematischen Statistik zählen die zentralen F- und t-Verteilungen. Die vorliegende Arbeit untersucht Verallgemeinerungen dieser Verteilungen, die sogenannten doppelt nichtzentralen F- und t-Verteilungen, welche in der statistischen Testtheorie von Bedeutung sind. Die Tatsache, dass die zugehörigen Wahrscheinlichkeitsdichten nur in Form von Parameterintegral- bzw. Doppelreihendarstellungen gegeben sind, stellt eine große Herausforderung bei der Untersuchung analytischer Eigenschaften dar. Unter Verwendung von Techniken aus der Theorie der vorzeichenregulären Funktionen gelingt es, die bisher vermutete, jedoch lediglich aus Approximationen abgeleitete, strikt unimodale Gestalt der Dichtefunktion für eine große Klasse doppelt nichtzentraler Verteilungen zu zeigen. Dieses Resultat gestattet die Untersuchung des eindeutig bestimmten Modus als Funktion gewisser Nichtzentralitätsparameter. Hier erweist sich die Theorie der vorzeichenregulären Funktionen als wichtiges Hilfsmittel, um monotone Abhängigkeiten nachzuweisen.
Die vorliegende Dissertation präsentiert sich im Rahmen einer Synopse des Buches Laozi bestehend aus der Wang-Bi-Ausgabe, den beiden Mawangdui-Seidentexten sowie den drei Guodian-Bambustexten. Diese verschiedenen Textversionen werden einzeln ins Deutsche übersetzt und kommentiert. Zusätzlich zu meinen eigenen Übersetzungen ins Deutsche werden auch die älteren englischen Übersetzungen D.C. Laus und Wing-Tsit Chans - und zum Teil auch die weiterer bekannter Übersetzer - zur Verfügung gestellt, um weiteres Nachdenken anzuregen über die Bedeutung einzelner Zeichen, ja selbst ganzer Sätze, aber auch über die Interpretation grammatikalischer Strukturen. Die im direkten Anschluß an die chinesischen Textversionen und ihre Übersetzungen zu findende Kommentierung bezieht sich sowohl auf einzelne Zeichen, auf ganze Ausdrücke als auch auf das im Buch Laozi zu findende gesellschaftskritische Gedankengut - denn Hauptaugenmerk dieser Arbeit ist auf der Grundlage philologischer Kleinarbeit speziell die das Buch Laozi charakterisierende gesellschaftskritische Grundhaltung. Die vorliegende Dissertation bemüht sich durch zahlreiche werkimmanente Querverweise, durch die Betonung bestimmter bisher nicht erstellter Querverbindungen innerhalb des Buches Laozi und mit Hilfe von Textbeispielen aus einem weltanschaulich teilweise verwandten Text, dem Buch Zhuangzi (ca. 4./3. Jh.v.Chr.), einen in sich geschlossenen gesell-schaftskritischen Gesamtzusammenhang herauszuarbeiten und diesen zu verdeutlichen. In der abschließenden Auswertung zeigt sie, daß die im Buch Laozi vorgetragenen gesellschaftskritischen Bedenken gegen eine zivilisatorische Entwicklungsrichtung und eine Konzentration auf Wissen auch von einem "modernen" Standpunkt aus nicht automatisch als naiv zu betrachten sind.
Während die Ziele "Sicherheit" und "Europa" der polnischen Außenpolitik nach 1989 mit dem Beitritt zu Europarat, NATO und EU bereits nahezu gelöst sind und die in diesem Zusammenhang auftretenden Probleme in den Rechts- und Sozialwissenschaften in West und Ost schon in breiterem Rahmen diskutiert wurden, steht vor allem die westliche systematische Forschung zur polnischen Ostpolitik nach 1989 noch am Anfang. Dies mag zum Teil an in Westeuropa fehlenden profunden Sprach- und Landeskenntnissen oder vermeintlich fehlender tagespolitischer Aktualität liegen. Jedoch ist offensichtlich, dass das Thema nach dem EU-Beitritt Polens und der damit einhergehenden direkten Nachbarschaft der Union mit Weißrussland und der Ukraine auf der Brüsseler Agenda weit nach vorne gelangen wird. Theoretisch-methodisch stützt sich die Arbeit auf moderat-konstruktivistische Ansätze (PAFE-Ansatz der Universität Trier), verfolgt einen qualitativen Ansatz und stützt sich bewusst auf den wichtigsten außenpolitischen Akteur eines Staates " die Regierung. Im Falle Polens verdienen neben dem Ministerrat vor allem der Präsident und der Senat, die zweite Kammer des polnischen Parlamentes, besondere Aufmerksamkeit. Ferner konzentriert sich die Dissertation auf eine Analyse des (nicht notwendig entgegengesetzt gerichteten) Diskurses und Verhaltens. Die empirischen Ergebnisse der Dissertation sind insbesondere Resultat eines zweijährigen Forschungsaufenthaltes in Warschau mit Studienreisen nach Kaliningrad, Vilnius, Minsk, Grodno, Lemberg und Kiev. Die Dissertation präsentiert ihre Ergebnisse in drei Fallstudien: zur polnischen Minderheit in Litauen, Weißrussland und der Ukraine, zur polnischen Außenwirtschaftsförderung nach Osteuropa und zu den Regelungen und der Bedeutung des Schengener Übereinkommens für die polnische Ostgrenze nach Polens EU-Beitritt. Dabei ergab sich insbesondere ein bis heute offener Diskurs zu Minderheitenfragen sowie im Verhalten eine nur schwache Rolle des Ministerrates, der in dieser Hinsicht eindeutig vom Senat dominiert wird. In Fragen der Außenwirtschaftsförderung ergab sich ein leichtes Übergewicht für die Verfechter der "strategischen Partnerschaften" mit der Ukraine und Litauen und gegen eine Ökonomisierung der bilateralen Beziehungen mit osteuropäischen Staaten um jeden Preis. In der Praxis zerstob indes aufgrund der fortdauernden instabilen Lage in Osteuropa rasch die Hoffnung, dass die GUS-Staaten ein vielversprechender Zukunftsmarkt werden würden. Ferner blieb die Eigenkapitalknappheit polnischer Firmen ein Kernhindernis. Die Studie über das Schengener Übereinkommen ergab, dass sich der Diskurs nur zögerlich öffnete. Im Verhalten erwies sich Warschau dagegen als sehr aktiv und akzeptierte bereits 1993 (mit der Ukraine) bzw. 1997 (mit Litauen) den visumfreien Reiseverkehr mit zwei seiner vier östlichen Nachbarn, lehnte jedoch den von Russland und Weißrussland geforderten visumfreien Reiseverkehr ohne Rücknahmeabkommen ab. Gegenüber der EU konnte Polen für die Zeit nach dem EU-Beitritt zumindest die Einreise für Ukrainer nach Polen mit einem gebührenfreien Visum durchsetzen. Im Unterschied zur Zwischenkriegszeit, als Polen von Ost und West bedroht war, selbst regionale Vormacht werden wollte, keine allseits anerkannten Grenzen hatte und gerne in der Rolle des "Zivilisators" oder "Retters" auftrat, erscheint das heutige Polen aus westlicher Sicht als so "europäisch" wie noch nie zuvor in seiner Geschichte.
In einer Fragebogenstudie (N = 694) wurden vollzeitbeschäftigte Arbeitnehmer online oder klassisch schriftlich befragt, welche Verzichte zugunsten der Schaffung neuer Arbeitsplätze in Deutschland sie aus welchen Motiven leisten würden. Die Arbeit geht in Abgrenzung zu dominierenden Rational-Choice-Modellen von einem Motivpluralismus aus, der das Spannungsfeld zwischen Eigeninteresse und Gemeinwohl fokussiert. Die Befunde zeigen, dass beide Motivgruppen unabhängig voneinander zur Prädiktion der Bereitschaften beitragen. Überdies zeigt sich eine systematische Überschätzung des Eigeninteresses für das Handeln anderer. Bei anderen wahrgenommene Motivationen haben nachweislich Einfluss auf die eigenen Handlungsbereitschaften. Eine spezifische Form der Ausbeutung gemeinsinnigen Handelns ist das Trittbrettfahren als Profitieren vom Engagement und Einsatz anderer, ohne selbst etwas beizutragen. Die Untersuchung zeigt, dass phänotypisch eigennütziges Verhalten wie Trittbrettfahren aus dem Motiv resultieren kann, individuelle Ungerechtigkeit gegenüber anderen zu vermeiden oder unsolidarisches Handeln anderer zu bestrafen.
Water-deficit stress, usually shortened to water- or drought stress, is one of the most critical abiotic stressors limiting plant growth, crop yield and quality concerning food production. Today, agriculture consumes about 80-90% of the global freshwater used by humans and about two thirds are used for crop irrigation. An increasing world population and a predicted rise of 1.0-2.5-°C in the annual mean global temperature as a result of climate change will further increase the demand of water in agriculture. Therefore, one of the most challenging tasks of our generation is to reduce the amount water used per unit yield to satisfy the second UN Sustainable Development Goal and to ensure global food security. Precision agriculture offers new farming methods with the goal to improve the efficiency of crop production by a sustainable use of resources. Plant responses to water stress are complex and co-occur with other environmental stresses under natural conditions. In general, water stress causes plant physiological and biochemical changes that depend on the severity and the duration of the actual plant water deficit. Stomatal closure is one of the first responses to plant water stress causing a decrease in plant transpiration and thus an increase in plant temperature. Prolonged or severe water stress leads to irreversible damage to the photosynthetic machinery and is associated with decreasing chlorophyll content and leaf structural changes (e.g., leaf rolling). Since a crop can already be irreversibly damaged by only mild water deficit, a pre-visual detection of water stress symptoms is essential to avoid yield loss. Remote sensing offers a non-destructive and spatio-temporal method for measuring numerous physiological, biochemical and structural crop characteristics at different scales and thus is one of the key technologies used in precision agriculture. With respect to the detection of plant responses to water stress, the current state-of-the-art hyperspectral remote sensing imaging techniques are based on measurements of thermal infrared emission (TIR; 8-14 -µm), visible, near- and shortwave infrared reflectance (VNIR/SWIR; 0.4-2.5 -µm), and sun-induced fluorescence (SIF; 0.69 and 0.76 -µm). It is, however, still unclear how sensitive these techniques are with respect to water stress detection. Therefore, the overall aim of this dissertation was to provide a comparative assessment of remotely sensed measures from the TIR, SIF, and VNIR/SWIR domains for their ability to detect plant responses to water stress at ground- and airborne level. The main findings of this thesis are: (i) temperature-based indices (e.g., CWSI) were most sensitive for the detection of plant water stress in comparison to reflectance-based VNIR/SWIR indices (e.g., PRI) and SIF at both, ground- and airborne level, (ii) for the first time, spectral emissivity as measured by the new hyperspectral TIR instrument could be used to detect plant water stress at ground level. Based on these findings it can be stated that hyperspectral TIR remote sensing offers great potential for the detection of plant responses to water stress at ground- and airborne level based on both TIR key variables, surface temperature and spectral emissivity. However, the large-scale application of water stress detection based on hyperspectral TIR measures in precision agriculture will be challenged by several problems: (i) missing thresholds of temperature-based indices (e.g., CWSI) for the application in irrigation scheduling, (ii) lack of current TIR satellite missions with suitable spectral and spatial resolution, (iii) lack of appropriate data processing schemes (including atmosphere correction and temperature emissivity separation) for hyperspectral TIR remote sensing at airborne- and satellite level.
During pregnancy every eighth woman is treated with glucocorticoids. Glucocorticoids inhibit cell division but are assumed to accelerate the differentiation of cells. In this review animal models for the development of the human fetal and neonatal hypothalamic-pituitary-adrenal (HPA) axis are investigated. It is possible to show that during pregnancy in humans, as in most of the here-investigated animal models, a stress hyporesponsive period (SHRP) is present. In this period, the fetus is facing reduced glucocorticoid concentrations, by low or absent fetal glucocorticoid synthesis and by reduced exposure to maternal glucocorticoids. During that phase, sensitive maturational processes in the brain are assumed, which could be inhibited by high glucocorticoid concentrations. In the SHRP, species-specific maximal brain growth spurt and neurogenesis of the somatosensory cortex take place. The latter is critical for the development of social and communication skills and the secure attachment of mother and child. Glucocorticoid treatment during pregnancy needs to be further investigated especially during this vulnerable SHRP. The hypothalamus and the pituitary stimulate the adrenal glucocorticoid production. On the other hand, glucocorticoids can inhibit the synthesis of corticotropin-releasing hormone (CRH) in the hypothalamus and of adrenocorticotropic hormone (ACTH) in the pituitary. Alterations in this negative feedback are assumed among others in the development of fibromyalgia, diabetes and factors of the metabolic syndrome. In this work it is shown that the fetal cortisol surge at the end of gestation is at least partially due to reduced glucocorticoid negative feedback. It is also assumed that androgens are involved in the control of fetal glucocorticoid synthesis. Glucocorticoids seem to prevent masculinization of the female fetus by androgens during the sexual gonadal development. In this work a negative interaction of glucocorticoids and androgens is detectable.
Diese Arbeit betrachtet die formalen, semantischen und pragmatischen Eigenschaften produktiv gebildeter Partikelverben mit präpositionenähnlichen Verbzusätzen. Der empirische Teil basiert auf zahlreichen Belegen für mehr als 2500 Partikelverb-Neubildungen mit "ab-", "an-", "auf-", "aus-" und "ein-", die im Zuge einer exhaustiven Korpusstudie mitsamt ihren Kontexten in einem pressesprachlichen Korpus erhoben wurden. Im Zentrum steht die Untersuchung von mehr als 500 neologistischen Partikelverben mit "an-". Zunächst anhand von formalen Kriterien (vorrangig der Argumentstruktur) in fünf Gruppen sortiert, werden die semantischen und pragmatischen Eigenschaften dieser Gruppen mittels einer Betrachtung der einzelnen Verbvorkommen in ihren authentischen Gebrauchskontexten untersucht. Dabei wird insbesondere eine pragmatische Funktionalisierung der ursprünglichen Richtungssemantik nachvollzogen. Zwei offene Fragen der Partikelverb-Forschung werden in ergänzenden Fallstudien detailliert untersucht. Die erste widmet sich sogenannten "Kontaminationsbildungen" und zeigt, dass diese im Bereich der Partikelverben präzise angebbaren Regularitäten folgen. Die zweite beleuchtet anhand von 99 neologistischen Analogiebildungen zum lexikalisierten Verb "aufwerten" formale und semantisch-pragmatische Aspekte der Bildung von Partikelverben und revidiert damit das problematische Verhältnis von Analogie und Produktivität in der Wortbildungstheorie. Die an den Neubildungen gewonnenen Erkenntnisse werden schließlich auf den Wortschatzausschnitt der etablierten, lexikalisierten Partikelverben abgebildet. Dabei wird gezeigt, wie die Untersuchung produktiver Schemata anhand von Neubildungen zur Entwicklung von Objektivierungsheuristiken führen kann, die auch bei den lexikalisierten Formen die systematisch-regelhaften von den irregulär-idiosynkratischen zu trennen vermögen. Von unmittelbarem praktischem Nutzen ist das beispielsweise für die Sprachdidaktik, wie abschließend erläutert wird.
My dissertation is concerned with contemporary (Anglo-)Canadian immigrant fiction and proposes an analytic grid with which it may be appreciated and compared more adequately. As a starting-point serves the general observation that the works of many Canadian immigrant writers are characterised by a focus on their respective home cultures as well as on their Canadian host culture. Following the ground-breaking work of Northrop Frye, Margaret Atwood and David Staines, the categories of "there" and "here" are suggested in order to reflect this double encoding of Canadian immigrant literature. However, "here" and "there" are more than spatial configurations in that they represent a concern with issues of multiculturalism and postcolonialism. Both of which are informed by an emphasis on difference and identity, and difference and identity are also what the narratives of M.G. Vassanji, Neil Bissoondath and Rohinton Mistry are preoccupied with. My study sets out to show two things: On the one hand, it attempts to exemplify the complexity and interrelatedness of "there" and "here" in a representative fashion. Hence in their treatments of difference, M.G. Vassanji, Neil Bissoondath and Rohinton Mistry come up with comparable identity constructions "here" and "there" respectively. On the other hand, special attention is paid to the strategies by which Vassanji, Bissoondath and Mistry construct difference and corroborate their respective understandings of identity.
Data used for the purpose of machine learning are often erroneous. In this thesis, p-quasinorms (p<1) are employed as loss functions in order to increase the robustness of training algorithms for artificial neural networks. Numerical issues arising from these loss functions are addressed via enhanced optimization algorithms (proximal point methods; Frank-Wolfe methods) based on the (non-monotonic) Armijo-rule. Numerical experiments comprising 1100 test problems confirm the effectiveness of the approach. Depending on the parametrization, an average reduction of the absolute residuals of up to 64.6% is achieved (aggregated over 100 test problems).
During the twelve years of the National Socialist regime in Germany, the relationship between the writers who left the country as emigrants and those who decided to stay was characterized by latent tensions. The former claimed that they were the only active literary opposition to stand up against Nazi Germany while the latter insisted that they impartially witnessed, in an attitude of passive hostility, what happened in the country. This tense relationship grew into an open dispute after World War II. It has been extensively outlined that this controversy has significantly influenced the development of German Literary theory in the post-war-period. Today, we should approach the writings of German exiles and "inner emigration" from a more rational perspective, ceasing to see this era only in the light of a subsequent literary controversy. The PhD thesis presented here aims at developing a set of such rational evaluation parameters which may serve to better understand selected writings of authors from exile and "inner emigration" in the historical context of National Socialism. An in-depth review of three novels (Werner Bergengruen, Der Großtyrann und das Gericht; Ernst Glaeser, der letzte Zivilist; Ernst Weiß, Der Augenzeuge) will analyze to which extend an omnipresent Nazi propaganda and a strong NS symbolism influenced the work of these three authors - regardless of where they wrote, in their mother country or from exile`s perspective.
Bei der Mauereidechse (Podarcis muralis, Laurenti 1768) handelt es sich um eine Süd- und mitteleuropäisch verbreitete Art. Sie ist im Süden weitgehend flächendeckend verbreitet, wohingegen sie am Nordrand ihres Verbreitungsgebietes in fragmentierten Populationen vorkommt, deren dauerhaftes Fortbestehen fraglich ist. Das Ziel der vorliegenden Arbeit bestand in der vergleichenden Untersuchung der genetischen Variabilität und Diversität ausgewählter Mauereidechsen-Populationen aus ihrem rezenten mitteleuropäischen Verbreitungsgebiet und ihren Refugialräumen. Weiterhin sollte überprüft werden, ob aus den erhaltenen Daten Rückschlüsse auf eventuell unterschiedliche Einwanderungswege der nördlichen Populationen mittels molekular-genetischer Methoden gezogen werden können. Als Untersuchungsmethode wurde die Mikrosatelliten-DNA Analyse gewählt. Gegenüber der in vorhergehenden Untersuchungen angewandten RAPD-PCR Methode besitzt die Analyse von DNA-Mikrosatelliten den großen Vorteil, über die direkte Bestimmung von Allelfrequenzen wichtige populationsgenetische Daten berechnen zu können. Isoenzymatische Voruntersuchungen an Mauereidechsen erwiesen sich als wenig geeignet. Die SSR-Methode ist besonders gut geeignet, die genetische Diversität und Populationsdifferenzierungen zu ermitteln. Mittels acht spezifischer Mikrosatelliten-Loci wurde die genetische Struktur von sieben Populationen der Mauereidechse untersucht. Als Untersuchungsgebiete wurden Standorte in Italien, Kroatien, Südfrankreich, Nordfrankreich, Rheinland-Pfalz, Nordrhein-Westfalen und Belgien ausgewählt und beprobt. Die untersuchten Loci erwiesen sich alle als polymorph und zum Teil als hoch variabel. Im Rahmen der populationsgenetischen Analysen wurden zahlreiche deskriptive und populationsgenetische Parameter zur Charakterisierung der Populationen verwendet. Wegen unerwarteter Fragmentlängen des Locus A7 wurden exemplarisch einige Allele von etwa 400 bp sequenziert. Dabei konnte zusätzlich außer dem Mikrosatelliten eine etwa 200 bp lange Sequenz nachgewiesen werden, die wahrscheinlich durch eine Insertion entstanden ist. Außerdem wurde ein Basenaustausch (G-C, C-G) beim Vergleich der FOREWARD- und REVERS- Sequenzierung festgestellt. Die Ergebnisse der vorliegenden Arbeit zeigen, dass die Vorkommen der Mauereidechse an ihrem nördlichen Verbreitungsrand teilweise separiert sind. Es konnte gezeigt werden, dass ein Genaustausch der Trierer und der Urfter Tiere untereinander besteht. Eingeschränkt besteht der Genaustausch auch mit den Bitcher Tieren, wohingegen der Genaustausch mit den Belgischen Tieren wohl schon lange eingeschränkt ist oder nur sehr eingeschränkt stattgefunden hat. Die Einwanderung der Mauereidechse in ihr nördliches Verbreitungsgebiet dürfte von den Südfranzösischen Populationen durch das Rhônetal, die Burgundische Pforte, das Rheintal bis zur, in der vorliegenden Arbeit untersuchten Population von Bitche, erfolgt sein. Die Trierer und Urfter Tiere dürften über den Obermoselraum eingewandert sein. Aufgrund der im Verhältnis zu den anderen Populationen stark reduzierten Allelzahl der Population Anhée muss für diesen Standort von einem so genannten bottleneck (Flaschenhals) ausgegangen werden. Der Verdacht, dass sich die zwei Unterarten P. m. brogniardi (Belgien) und P. m. merremia (Nordeifel, Mosel, Bitche) unterscheiden lassen, scheint sich eher zu erhärten, als zu entkräften. Die großen genetischen Unterschiede der Belgischen Population zu den anderen nördlichen Populationen lassen sich am ehesten durch eine Einwanderung über Frankreich an die Maas und einen stark eingeschränkten Genfluss zwischen der Belgischen Population und den restlichen nördlichen Populationen erklären.
Benzodiazepine und Neuroleptika werden in der klinischen Praxis effektiv in der Behandlung verschiedener Angststörungen eingesetzt. Trotz ihrer weiten Verbreitung wurden ihre Effekte auf die physiologische Komponente (v. a. die Hypothalamus-Hypophysen-Nebennierenrinden Achse (HHNA) und das sympatho-adrenomedulläre System (SAM)) der Stress- und Angstreaktion bisher allerdings wenig gut untersucht. Ziel der vorliegenden Untersuchung war es deshalb, die Effekte zweier prominenter anxiolytischer Substanzen, Alprazolam (Benzodiazepin) und Flupentixol (Neuroleptikum), auf die Aktivierung der HHNA und des SAM durch einen reinen psychogenen Stressor, den Trier Sozial Stress Test (TSST), zu untersuchen. Studienteilnehmer waren 69 junge, gesunde Männer, die eine bzw. drei Stunden vor dem TSST entweder 1mg Alprazolam, 0.5mg Flupentixol oder ein entsprechendes Placebo-Präparat oral einnahmen. Vor und nach dem TSST wurden verschiedene Blut- und Speichelproben zur Bestimmung von ACTH, Cortisol, Noradrenalin, Adrenalin, Prolaktin und Wachstumshormon entnommen, zudem wurden Herzfrequenz, Blutdruck und Körpertemperatur erfasst. Über Fragebögen bewerteten die Probanden ihr aktuelles psychisches Wohlbefinden. Nach der Einnahme von Alprazolam war eine deutlich verminderte Aktivierung der HHNA in Reaktion auf den TSST zu beobachten, während Parameter des SAM unbeeinflusst blieben. Auf den entsprechenden Fragebogenskalen schätzten sich die Probanden nach Alprazolam- im Vergleich zur Placebo-Einnahme deutlich müder ein, zudem zeigten sich stimmungsstabilisierende Eigenschaften von Alprazolam, da Probanden nach Alprazolam-Einnahme eine geringere Beeinträchtigung der guten Stimmung durch den TSST erlebten. Nach der Einnahme von Flupentixol vor dem TSST unterschieden sich die Probanden in keinem der erhobenen Parameter signifikant von der Placebo-Kontrollgruppe, lediglich die Blutkonzentrationen der Katecholamine Adrenalin und Noradrenalin waren signifikant erhöht. Diese Daten verdeutlichen rasch einsetzende und auf die verschiedenen Komponenten der Stressreaktion differentiell wirkende Effekte von Alprazolam, während Effekte von Flupentixol auf die physiologischen Komponenten der Stressreaktion möglicherweise erst nach längerer Einnahme zu beobachten sind.
Die Arbeit bietet die erste umfassende und vergleichende kunsthistorische Untersuchung der hoch spannenden und komplexen lokalen Helena-Traditionen von S. Croce in Gerusalemme Rom, der Trierer Kirche mit ihren Sondertraditionen in den Abteien St. Maximin und St. Eucharius/St. Matthias sowie der niederrheinischen Thebäer-Stifte Köln, Bonn und Xanten. Den Hintergrund bildet an jedem der fuenf Orte eine spezifische lokale Tradition, die unter verschiedenen Vorzeichen die Gruendung der jeweiligen Kirche durch die Mutter Konstantins postuliert. In Rom und Trier gilt sie darueber hinaus als Stifterin bedeutender Reliquien und Vorbesitzerin der Gebaeude, in denen die betreffende Kirche eingerichtet wurde. Umso interessanter ist die Frage nach dem Auftraggeber- und Nutzungskontext der untersuchten Helena-Darstellungen des 13. bis 18. Jahrhunderts, vor allem in Trier, wo die Helena-Tradition in einem komplexen Spannungsfeld politischer Legitimationsverhaeltnisse steht.
The present dissertation was developed to emphasize the importance of self-regulatory abilities and to derive novel opportunities to empower self-regulation. From the perspective of PSI (Personality Systems Interactions) theory (Kuhl, 2001), interindividual differences in self-regulation (action vs. state orientation) and their underlying mechanisms are examined in detail. Based on these insights, target-oriented interventions are derived, developed, and scientifically evaluated. The present work comprises a total of four studies which, on the one hand, highlight the advantages of a good self-regulation (e.g., enacting difficult intentions under demands; relation with prosocial power motive enactment and well-being). On the other hand, mental contrasting (Oettingen et al., 2001), an established self-regulation method, is examined from a PSI perspective and evaluated as a method to support individuals that struggle with self-regulatory deficits. Further, derived from PSI theory`s assumptions, I developed and evaluated a novel method (affective shifting) that aims to support individuals in overcoming self-regulatory deficits. Thereby affective shifting supports the decisive changes in positive affect for successful intention enactment (Baumann & Scheffer, 2010). The results of the present dissertation show that self-regulated changes between high and low positive affect are crucial for efficient intention enactment and that methods such as mental contrasting and affective shifting can empower self-regulation to support individuals to successfully close the gap between intention and action.
Das Triple-X-Syndrom ist die häufigste Chromosomenstörung im weiblichen Geschlecht und dennoch wenig bekannt und erforscht. Um die wissenschaftliche Datenlage für die Betroffenen, werdenden Eltern und genetischen Berater zu verbessern wurde die vorliegende Studie durchgeführt. Ziel der Studie war es zu untersuchen, ob bei Mädchen und Frauen mit Triple-X-Karyotyp häufiger psychische Probleme und Verhaltensauffälligkeiten auftreten als bei Mädchen und Frauen mit einem regelrechten Chromosomensatz. Insgesamt konnten 72 Mädchen und Frauen mit Triple-X und 69 mit einem regelrechten Chromosomensatz in die Studie eingeschlossen werden. Durch drei in Altersgruppen aufgeteilte Kohorten konnte verglichen werden, ob mögliche Auffälligkeiten altersabhängig auftreten, wie sich der Entwicklungsverlauf vom Kind zur erwachsenen Frau darstellt und ob dabei Zusammenhänge erkennbar sind. Bei den Mädchen im Alter von vier bis sieben Jahren zeigten sich im Vergleich zur Kontrollgruppe bereits signifikante Unterschiede in Bezug auf schulische Kompetenzen, soziale Probleme und Aufmerksamkeitsprobleme. In der Altersgruppe der Mädchen von acht bis 17 Jahren haben sich diese Auffälligkeiten noch verstärkt und die Ergebnisse aus dem Fragebogen "Child Behavior Checklist" weisen über alle Skalen hinweg einen deutlichen Unterschied zwischen der Triple-X-Gruppe und der Kontrollgruppe auf. Dies betrifft insbesondere die Bereiche "Schulische Kompetenzen", "Internalisierende Auffälligkeiten", "Sozialer Rückzug", "Soziale Probleme" und "Aufmerksamkeits-probleme". In der Gesamtintensität der Auffälligkeiten haben die Triple-X-Mädchen im Mittel signifikant schlechtere Werte als die Mädchen der Kontrollgruppe. Auch ist der Anteil der Mädchen, die in den klinisch auffälligen Bereich fallen, in der Triple-X-Gruppe signifikant erhöht. Die Untersuchungen zum Selbstwertgefühl machen deutlich, dass Mädchen mit Triple-X-Karyotyp ein vermindertes Selbstwertgefühl im Vergleich zur Kontrollgruppe aufweisen. Auch unterscheiden sich Triple-X-Mädchen in Bezug auf ihr Emotionsregulationsverhalten. Sie haben eine Tendenz zu eher maladaptiven Bewältigungsstrategien und sie zeigen insbesondere beim "Problemorientierten Handeln" und auch in Bezug auf die Emotion "Angst" signifikante Unterschiede zur Kontrollgruppe. Für die Gruppe der Erwachsenen konnte nachgewiesen werden, dass sich Triple-X-Frauen in ihren Persönlichkeitsmerkmalen von Frauen mit einem regelrechten Chromosomensatz unterscheiden. Die Ergebnisse lassen darauf schließen, dass Triple-X-Frauen häufiger emotional labil und ängstlich reagieren und auch eher zurückhaltend und introvertiert und weniger leistungsorientiert sind. Sie haben eine geringere Lebenszufriedenheit und neigen dazu weniger sozial verantwortlich zu handeln. Triple-X-Frauen sind in ihrem täglichen Leben stärker durch körperliche und psychische Symptome beeinträchtigt, wenngleich diese Beeinträchtigungen nicht so stark sind, dass sie in den klinisch auffälligen Bereich fallen.
Das erste Kapitel "ECOWAS" capability and potential to overcome constraints to growth and poverty reduction of its member states" diskutiert die Analyse wirtschaftlicher und sozialer Barrieren für ökonomisches Wachstum " eine der Hauptelemente für Entwicklungs- und Armutsreduktionsstrategien in Entwicklungsländern. Die Form der länderspezifischen Analyse von Wachstumsbarrieren wurde nach dem Scheitern der auf alle Länder generalisierten Entwicklungsstrategie des Washington Consensus insbesondere durch den Ansatz der "Growth Diagnostics" der Harvard Professoren Hausman, Rodrik und Velasco eingeführt. Es zeigt sich jedoch, dass bisher der Fokus rein auf den länderspezifischen Analysen bzw. Strategieentwicklungen liegt. Diese Arbeit erweiterte die Diskussion auf die regionale Ebene, indem es beispielhaft an der Economic Community of West African States (ECOWAS) die länderspezifischen Wachstumsbarrieren mit den regionalen Wachstumsbarrieren vergleicht. Dies erfolgt mittels einer Darstellung der in Studien und Strategien bereits identifizierten, länderspezifischen Wachstumsbarrieren in den jeweiligen Ländern sowie mit der Auswertung der regionalen Strategien der ECOWAS. Dazu wird ermittelt, inwieweit auf der regionalen Ebene auch messbare Ergebnisse bei der Bekämpfung von Wachstumsbarrieren erzielt werden. Es zeigt sich, dass ,trotz der wirtschaftlichen und sozialen Diversität der Region, die ECOWAS den Großteil der in den Ländern identifizierten Wachstumsbarrieren ebenfalls auflistet und darüber hinaus sogar mit messbaren Ergebnissen dazu beiträgt, Veränderungen des Status Quo zu erreichen. Die Erweiterung des Ansatzes der Growth Diagnostics auf die regionale Ebene sowie die Erweiterung um das vergleichende Element von länderspezifischen und regionalen Wachstumsbarrieren zeigen sich als praktikabler Weg, Entwicklungsstrategien auf regionaler Ebene zu prüfen und subsidiär weiterzuentwickeln. Das zweite Kapitel "Simplifying evaluation of potential causalities in development projects using Qualitative Comparative Analysis (QCA)" diskutiert die Methode der qualitativen komperativen Analyse (QCA) als Evaluierungsmethodik für Projekte der Entwicklungszusammenarbeit. Hierbei stehen die adäquate Messung sowie die verständliche Darstellung der Wirkung von Entwicklungszusammenarbeit im Vordergrund. Dies ist ein Beitrag zu der intensiv geführten Diskussion, wie Wirkung von Hilfe in Entwicklungsländern gemessen und daraus für weitere Projekte gelernt werden kann. Mit der beispielhaften Anwendung der QCA auf einen Datensatz der deutschen Entwicklungszusammenarbeit im Senegal wird erstmalig diese Methode für die Entwicklungszusammenarbeit in der Praxis angewandt. Der Fokus liegt dabei auf der Überprüfung von bestimmten Programmtheorien, d.h. der Annahme bestimmter Zusammenhänge zwischen eingesetzten Mitteln, äußeren Umständen und den Projektergebnissen bei der Implementierung von Projekten. Während solche Programmtheorien in dem Großteil der Projektskizzen der deutschen Entwicklungszusammenarbeit enthalten sind, werden die wenigsten dieser Programmtheorien geprüft. Diese Arbeit zeigt QCA als eine effiziente Methode für diese Überprüfung. Eine eindeutige Bestätigung oder Falsifizierung dieser Theorien ist mittels dieser Methodik möglich. Dazu können die Ergebnisse bei den beiden einfacheren Formen der QCA, der crisp-set sowie der multi-value QCA, leicht nachvollziehbar vermittelt werden. Des Weiteren zeigt die Arbeit, dass QCA ebenfalls die Weiterentwicklung einer Programmtheorie ermöglicht, allerdings ist diese Weiterentwicklung nur begrenzt effizient und stark von den vorliegenden Daten sowie der Datenstruktur abhängig. Die Arbeit zeigt somit das Potential der QCA insbesondere für den Test von Programmtheorien auf und stellt die praktische Anwendung für mögliche Replizierung beispielhaft dar. Das dritte und letzte Kapitel der Doktorarbeit "The regional trade dynamics of Turkey: a panel data gravity model" analysiert den türkischen Handel, um die Veränderungen der letzten Jahrzehnte aufzuzeigen und daran zu diskutieren, inwieweit sich die Türkei als aufstrebendes Schwellenland von den bestehenden Handelsstrukturen loslöst. Diese Arbeit ist ein Beitrag zur Diskussion der sich Verschiebenden Machtkonstellationen durch das wirtschaftliche Aufholen der Schwellenländer. Bei der Türkei ist diese Diskussion zusätzlich interessant, da die Frage, ob die Türkei sich von der westlichen Welt, Nordamerika und Europa, abwendet, berücksichtigt wird. Mittels Dummy-Variablen für verschiedene Regionen in einem Gravitätsmodell werden die türkischen Handelsdaten zuerst insgesamt und nach Sektoren analysiert und die Veränderungen über verschieden Perioden des türkischen Außenhandels betrachtet. Es zeigt sich, dass in den türkischen Handelsbeziehungen eine Regionalisierung und eine Diversifizierung der Handelspartner stattfinden. Allerdings geht dies nicht mit einer Abkehr von westlichen Handelspartnern einher.
Ein positiver Zusammenhang von Leistungsmotivation, Flow und Wohlbefinden ist in Einzelpfaden gut belegt. Befunde, welche alle drei Variablen miteinander in Beziehung setzen, stehen in der Bildungsfor-schung noch aus. Ziel dieser Arbeit ist es, den Einfluss einzelner Dimensionen von Leistungsmotivation & Flow auf das subjektive Wohlempfinden von Schüler/innen, unter Berücksichtigung etwaiger Media-tionseffekte durch Flow zu untersuchen. Die Grundlage der Daten bildet der erste Messzeitpunkt einer motivationsbezogenen Interventionsstudie.
Erhoben wurden die Daten im Rahmen einer prospektiven randomisierten Längsschnittstudie im Kon-trollgruppendesign (N=742; 46,2% weibl.), welche mit Schüler/innen von sieben rheinland-pfälzischen Schulen durchgeführt wurde. Leistungsmotivation, Wohlbefinden und Flow wurden mit folgenden In-strumenten erfasst: Petermann & Winkel (2007a&b): Fragebogen zur Leistungsmotivation; Flow-Skala (in Anlehnung an Rheinberg et al., 2003); Flourishing-Skala (in Anlehnung an Diener et al., 2009). Ausge-wertet wurden die Daten mittels Mediatoranalysen per multipler Regression mit SPSS.
Die Ergebnisse multipler Regressionsanalysen konnten sowohl in der Primar-, als auch Sekundarstufe direkte Effekte einzelner Leistungsmotivationsskalen auf das subjektive Wohlbefinden belegen. Zudem wurden in den Jahrgansstufen 2&3,4&5,7&9 der Zusammenhang zwischen Leistungsmotivation und Wohlbefinden durch Flow-Erleben mediiert. In der Jahrgangsstufe 11 konnte kein Mediationseffekt gefunden werden.
Die Ergebnisse bestätigen vorliegende Korrelationsstudien und identifizieren Flow als einen zentralen Mediator zwischen der Leistungsmotivation und dem Wohlbefinden bei Schüler/innen. Die Reflexion dieser Befunde eröffnet großes Potential für die weitere Ausarbeitung und Implementierung Flow-förderlicher Interaktionen in der Schule.
Earth observation (EO) is a prerequisite for sustainable land use management, and the open-data Landsat mission is at the forefront of this development. However, increasing data volumes have led to a "digital-divide", and consequently, it is key to develop methods that account for the most data-intensive processing steps, then used for the generation and provision of analysis-ready, standardized, higher-level (Level 2 and Level 3) baseline products for enhanced uptake in environmental monitoring systems. Accordingly, the overarching research task of this dissertation was to develop such a framework with a special emphasis on the yet under-researched drylands of Southern Africa. A fully automatic and memory-resident radiometric preprocessing streamline (Level 2) was implemented. The method was applied to the complete Angolan, Zambian, Zimbabwean, Botswanan, and Namibian Landsat record, amounting 58,731 images with a total data volume of nearly 15 TB. Cloud/shadow detection capabilities were improved for drylands. An integrated correction of atmospheric, topographic and bidirectional effects was implemented, based on radiative theory with corrections for multiple scatterings, and adjacency effects, as well as including a multilayered toolset for estimating aerosol optical depth over persistent dark targets or by falling back on a spatio-temporal climatology. Topographic and bidirectional effects were reduced with a semi-empirical C-correction and a global set of correction parameters, respectively. Gridding and reprojection were already included to facilitate easy and efficient further processing. The selection of phenologically similar observations is a key monitoring requirement for multi-temporal analyses, and hence, the generation of Level 3 products that realize phenological normalization on the pixel-level was pursued. As a prerequisite, coarse resolution Land Surface Phenology (LSP) was derived in a first step, then spatially refined by fusing it with a small number of Level 2 images. For this purpose, a novel data fusion technique was developed, wherein a focal filter based approach employs multi-scale and source prediction proxies. Phenologically normalized composites (Level 3) were generated by coupling the target day (i.e. the main compositing criterion) to the input LSP. The approach was demonstrated by generating peak, end and minimum of season composites, and by comparing these with static composites (fixed target day). It was shown that the phenological normalization accounts for terrain- and land cover class-induced LSP differences, and the use of Level 2 inputs enables a wide range of monitoring options, among them the detection of within state processes like forest degradation. In summary, the developed preprocessing framework is capable of generating several analysis-ready baseline EO satellite products. These datasets can be used for regional case studies, but may also be directly integrated into more operational monitoring systems " e.g. in support of the Reducing Emissions from Deforestation and Forest Degradation (REDD) incentive. In reference to IEEE copyrighted material which is used with permission in this thesis, the IEEE does not endorse any of Trier University's products or services. Internal or personal use of this material is permitted. If interested in reprinting/republishing IEEE copyrighted material for advertising or promotional purposes or for creating new collective works for resale or redistribution, please go to http://www.ieee.org/publications_standards/publications/rights/rights_link.html to learn how to obtain a License from RightsLink.
This dissertation investigates the psychological and endocrinological make-up of patients with functional gastrointestinal disorders (FGD). Patients with irritable bowel syndrome and/or non ulcer dyspepsia were compared with healthy control subjects on several parameters: psychological disorders, bodily complaints, depressed mood, anxiety, chronic stress, personality and basal activity, reactivity (hCRH-test) as well as feedback-sensitivity(Dexamethasone-suppression-test) of the hypothalamic-pituitary-adrenocortical (HPA) system. Patients with FGD had different -mostly higher- scores in almost every psychological/psychometric measure. Furthermore, results of the endocrinological studies indicate a down-regulated HPA activity in patients with FGD.
Die Dissertation untersucht vergleichend deutsch-japanische fotografische Kriegspropaganda des Zweiten Weltkrieges anhand der zu jener Zeit auflagenstärksten illustrierten Zeitschriften "Illustrierter Beobachter" auf deutscher und "Shashin Shūhō" (Fotografische Wochenzeitung) auf japanischer Seite. Unter Rückgriff auf die ikonographisch-ikonologische Methode des Kunsthistorikers Erwin Panofsky bei gleichzeitiger Bezugnahme auf das Bildverständnis Charles Sanders Peirces werden Muster der bildlichen Darstellung von Kindern und Jugendlichen analysiert, um hierdurch Rückschlüsse zu ziehen auf Gemeinsamkeiten und Unterschiede in der Ausgestaltung der Bildpropaganda beider Länder unmittelbar vor und im Zweiten Weltkrieg (1939-1945), auf allgemeine Tendenzen in der Gestaltung von Propaganda im selben Zeitraum, auf die Organisation und Funktion von Propaganda in radikalnationalistischen Staaten. Gleichzeitig wird durch Einbeziehung der Rezipientensicht die Frage nach Mehrdeutigkeit und, hiermit einhergehend, Wirkungsweise und Wirkungsgrad der Propaganda gestellt. Schwerpunkt der Untersuchung bilden sämtliche publizierten Ausgaben der zweiten Jahreshälften 1938 und 1943.
Die vorliegende Arbeit widmet sich der Beantwortung der Fragestellung, inwieweit die NATOisierung Polens und Tschechiens im Bereich der zivil-militärischen Beziehungen erfolgreich war, und aufgrund welcher Akteure, Praktiken und Bedingungen die Normübernahme (nicht) erfolgte. NATOisierung wird hierbei als Sozialisationsprozess im Politikfeld Sicherheit begriffen. Konzeptioneller Ausgangspunkt für die theoriegeleiteten Fallstudien bildet die Entwicklung eines Forschungsdesigns, mittels dessen der rational-institutionalistische und der konstruktivistisch-institutionalistische Strang der internationalen Sozialisations-forschung für die Analyse der NATOisierung postkommunistischer Sicherheitspolitik nutzbar gemacht werden kann. In Kritik an der Mehrheit der Sozialisationsstudien, die die Übernahme von Normen internationaler Institutionen seitens der postkommunistischen Staaten entweder als Verhandlungs- und Anpassungsprozess strategisch handelnder Akteure oder als sozialen Lern- und normativen Überzeugungsprozess intrinsisch motivierter Akteure betrachten, argumentiert diese Studie, dass die Wahl eines komplementären Zugangs sowohl aus theoretisch-konzeptionellen als auch empirisch-phänomenologischen Erwägungen unabdingbar ist. Die hierbei zu Grunde liegende Methode der doppelten Interpretation, mittels derer der Verlauf und das Ergebnis der NATOisierung Polens und Tschechiens im Bereich der zivil-militärischen Beziehungen sowohl aus Sicht des rationalen als auch des konstruktivistischen Institutionalismus beleuchtet worden sind, hat sich als tragfähig erwiesen. In der Tat variiert die Erklärungskraft beider theoretischer Ansätze im Hinblick auf die unterschiedlichen Akteure, Phasen und/oder Kontexte des sicherheitspolitischen Sozialisationsprozesses. Wenngleich die NATO durch ihre Sozialisationspolitik den Demokratisierungsprozess Polens und Tschechiens im Politikfeld Sicherheit begünstigte, bestätigt die empirische Analyse die weit verbreitete Betrachtungsweise der 'Partnerschaft für den Frieden' als ausschließliche Erfolgsgeschichte nicht. Vielmehr war die Erweiterungs- und Sozialisationspolitik der NATO mit gravierenden (nichtintendierenden) Konsequenzen verbunden, die sich hinderlich auf die Transformation der zivil-militärischen Beziehungen postkommunistischer Staaten auswirkten.
Die Villa di Diomede in Pompeji : Baugeschichtliche, typologische und stilistische Untersuchungen
(2006)
Die Ende des 18. Jahrhunderts freigelegte Villa di Diomede in Pompeji galt über mehr als 100 Jahre als Musterbeispiel einer luxuriösen römischen Privatvilla und war eine der Hauptattraktionen der Ausgrabungen am Golf von Neapel. Die Phantasie zahlreicher Künstler, Architekten und Literaten wurde durch die hier entdeckten Malereien und den Anblick der im Keller der Villa gefundenen Opfer des Vesuvausbruchs angeregt und befruchtet. Die vorliegende Arbeit wertet zum ersten Mal die umfangreiche schriftliche und graphische Dokumentation zu dem Gebäude möglichst lückenlos aus und setzt sie in Beziehung zu der noch heute erhaltenen Bausubstanz. Diese wurde, soweit im Rahmen eines Dissertationsvorhabens realisierbar, neu vermessen und photographisch erfasst. Ein umfangreicher Katalog listet Zeichnungen und Aquarelle auf, die heute in Archiven in Berlin, London, Neapel, Oxford und Paris aufbewahrt werden. Damit kann die Untersuchung viele bisher in der Forschung geläufige Fehldeutungen korrigieren, neue Ansatzpunkte zur Datierung der Malereien in die Zeit vor 62 n. Chr. liefern und zeigen, dass es sich bei den bourbonischen Ausgrabungen nicht, wie häufig behauptet, um eine bloße Schatzsuche gehandelt hat, sondern dass sich die Freilegung der Villa im Rahmen des damals Möglichen durchaus an den methodischen Ansprüchen heutiger Archäologie messen kann. Die Auswertung der Baubefunde zeigt, dass das vorrömische Gebäude, von Anfang an mit einer schrägen Fassade an einer alten Ausfallstraße vor den Toren der Stadt errichtet und mit großen Sälen ganz auf den Ausblick zum Golf hin konzipiert, in der augusteischen und frühkaiserzeitlichen Epoche einer umfangreichen Umgestaltung unterzogen wird. Die Raumeinheiten werden intimer, es werden Bereiche geschaffen, die nun nach innen orientiert und mehr abgeschlossen sind. Das Erdbeben von 62 n. Chr. macht dann erneut Reparaturen und Veränderungen am Bauwerk notwendig. Die Fundauswertung wirft zusätzlich ein bezeichnendes Licht auf das Leben und die sozialen Verhältnisse in einer Stadt, die sich nach dem verheerenden Erdbeben gerade im Wiederaufbau befand, als sie durch den Ausbruch des Vesuvs 79 n. Chr. dann endgültig auslöscht wurde.
In den Rheinlanden agierten in der Frühen Neuzeit zahlreiche Räuberbanden. Trotz zahlreicher Hinweise auf Bandenaktivitäten scheitert eine umfassende Studie über die Erscheinungsformen dieser kollektiven Delinquenz jedoch an einer ungleichmäßigen Quellenüberlieferung; denn ausführliche Informationen, beispielsweise über das Deliktspektrum oder die bevorzugten Opfer, fehlen ebenso wie erschöpfende Auskünfte über die Gegenmaßnahmen der Obrigkeit. Die wichtigste Grundlage bilden daher die Actenmäßigen Geschichten, die eine Übersicht der angeklagten Verbrechen enthalten. Die Vielzahl an Delikten, die hingegen nicht zur Anklage gelangten, erschließt sich allerdings nicht. Dies gilt auch im Hinblick auf jene Bandenmitglieder, die nicht am Hauptverfahren beteiligt waren; über sie, ihre Straftaten und ihre Funktion innerhalb der Bande werden wir nicht unterrichtet. Aus diesen Gründen ist es schon als ausgesprochener Glücksfall zu bezeichnen, daß zumindest für die zwischen 1796 und 1802 agierende Schinderhannesbande vollständige Ermittlungsakten vorliegen. Zwischen 1796 und 1802 verübte sie mindestens 211 Verbrechen. Den Höhepunkt ihrer Aktivitäten entfaltete die Bande zwischen dem Herbst 1799 und dem September 1801: Mit seiner Bande erstürmte Bückler in diesen Jahren die Häuser begüterter Kaufleute oder überfiel auf offener Landstraße die Reisenden. Durch Brandbriefe, die er mit "Johannes durch den Wald" unterzeichnete, erpreßte er größere Geldsummen und stellte "Sicherheitskarten" aus, die den Besitzern sicheres Geleit garantieren sollten. Die Opfer der Bande wurden bei den Aktionen in der Regel brutal mißhandelt; einige Personen wurden sogar ermordet. Alle Versuche der Behörden, der Bande das Handwerk zu legen, schlugen zunächst fehl. Die Wende erfolgte 1801, als die Einwohner von Staudernheim und Obermoschel erstmals gegen die Räuber vorgingen; in der Folgezeit mißlangen viele Verbrechen. Auch die damaligen Justizorgane erhöhten permanent den Fahndungsdruck und engten so den Operationsraum mehr und mehr ein. Mit den noch verbliebenen Komplizen setzte sich der Schinderhannes auf das rechte, vermeintlich sicherere Rheinufer ab, um sich so dem staatlichen Zugriff zu entziehen. Hier wurde er jedoch am 31. Mai 1802 in der Nähe von Wolfenhausen von kurtrierischen Behörden verhaftet und an die Franzosen ausgeliefert. In seinen Verhören gab er bereitwillig Auskunft über seine Verbrechen und nannte alle daran beteiligten Komplizen, die ebenfalls nach und nach ergriffen wurden. Die umfassenden Aussagen der Bandenmitglieder ermöglichen nicht nur eine Fallstudie zur Schinderhannesbande, sondern gewähren darüber hinaus Einblick in die verschiedenen Erscheinungsformen der kollektiven Delinquenz an der Wende vom 18. zum 19. Jahrhundert: Die damaligen Räuberbanden bildeten keine hierarchischen Organisationen, an deren Spitze ein Räuberhauptmann stand. Vielmehr handelte es sich um "lockere Gesellungen", die nur bei schweren Verbrechen in größeren Verbänden auftraten. Meistens arbeiten die Mitglieder jedoch auf eigene Rechnung oder in kleineren Gruppen, die nicht mehr als drei Personen umfaßten. Ihre Mitglieder rekrutierten die Banden zu einem überwiegenden Teil aus den vagierenden Bevölkerungsschichten. Trotz zahlreicher Rückschläge ermöglichte die Verhaftung des Schinderhannes die Festnahme noch flüchtiger Bandenmitglieder zu veranlassen. Dabei kooperierten die französischen Behörden eng mit den rechtsrheinischen Stellen, so daß sich schon nach relativ kurzer Zeit weitere Erfolge einstellten: Ende November 1802 saßen in den Mainzer Gefängnissen fast ein hundert Personen. Nach Abschluß der Ermittlungen eröffnete das Mainzer Spezialgericht schließlich am 23. Oktober 1803 das Verfahren gegen 68 Angeklagte und verhandelte die in der Anklageschrift zusammengestellten Klagepunkte. Den 132 Zeugen der Anklage stellten die neun Anwälte, welche die Mandate der Angeklagten übernommen hatten, 202 Zeugen der Verteidigung gegenüber. Nach langandauernden Beratungen " das Spezialgericht mußte in nahezu 700 Einzelpunkten über die individuelle Schuld jedes Angeklagten befinden " erging am 20. November 1803 das Urteil: 19 Bandenmitglieder, unter ihnen auch Johannes Bückler, wurden zum Tode durch die Guillotine verurteilt, 24 Angeklagte erhielten zum Teil langjährige Gefängnisstrafen; die übrigen Angeklagten sprach das Spezialgericht frei. Die Todesurteile wurden einen Tag später vor einer großen Zuschauermenge vollstreckt. Endgültig unterbinden konnten die Behörden die Aktivitäten von Räuberbanden am Rhein nicht; schon im Mai 1803 war zum Beispiel im Soonwald eine neue Bande unter Führung von Peter Schwarz aktiv, und Berichte über die Aktivitäten von Räuberbanden sollten auch in den folgenden Jahren nicht enden. Offene Straßenüberfälle oder Raubzüge mit hoher Personalstärke sind für das erste Jahrzehnt des 19. Jahrhunderts allerdings nicht mehr belegt. Statt dessen verlegten die Räuber die Schwerpunkte ihrer Tätigkeit auf Einbruch und Diebstahl.
Ziel der Untersuchung ist, in dem durch die Grundkarte des Geschichtlichen Atlas der Rheinlande vorgegebenen Gebiet die höheren Bildungseinrichtungen zu erfassen, sie schulgeschichtlich zu analysieren und darauf aufbauend die Entwicklungslinien dieser Schulen über den Zeitraum vom Ausgang des Mittelalters bis zum Ende des Alten Reiches, auf dem linken Rheinufer noch bis 1814 aufzuzeigen. Von besonderem Interessen sind dabei die Territorien Kurtriers und das pfälzische Gebiet links des Rheins. Zu den untersuchten Schultypen gehören Universitäten, Akademien, protestantische Archigymnasien, Jesuitengymnasien, protestantische Gymnasien sowie protestantische und katholischen Lateinschulen. Die Universitäten bildeten über Jahrhunderte die weltlichen und geistlichen Eliten aus, ließen sich unterschiedlich gut auf die neuen geistesgeschichtlichen Strömungen ein. Es entwickelten sich protestantische und katholische Hochburgen sowie Zentren des Humanismus oder der Aufklärung. Die häufig in der Forschung vertretene These der Rückständigkeit katholischer Einrichtungen kann nur bedingt gehalten werden, da auch die katholischen Universitäten sich Neuerungen öffneten. Dies trifft gerade für die Bonner Hochschule zu, die von den 1780er Jahren an bis zum Ende des Alten Reiches mit am konsequentesten die Anforderung der Aufklärung umsetzte. Die Akademien bzw. Spezialschulen, Gründungen des 18. Jahrhundert, dienten ebenso der Elitenausbildung, vermittelten in besonderem Maße praxisrelevantes Wissen und entstanden teilweise in bewusster Konkurrenz zu den Universitäten. Ihre Bildungsinhalte waren zeitgemäßer als das, was an den Universitäten gelehrt wurde, weshalb sie sich großer Beliebtheit erfreuten. Als dann aber im weiteren Verlauf des 18. Jahrhunderts die alten Hochschulen in reformpolitischer Hinsicht gleichzogen, verloren die Akademien ihre anfängliche Attraktivität. Die protestantischen Archigymnasien entstanden hauptsächlich in den Herzogtümern Kleve-Jülich-Berg, die bis zur Mitte des 17. Jahrhunderts über keine protestantische Universität verfügten; daher übernahmen diese Anstalten nach dem Konfessionswechsel eines Territoriums die Funktion einer Hochschule, auch wenn hier keine akademischen Grade verliehen werden konnten. Häufig auf den ausdrücklichen Wunsch der Bürgerschaft gegründet, versorgten diese Einrichtungen in akademischen Oberkursen ihr Umfeld mit Verwaltungskräften und Pfarrern und entwickelten sich zu kleineren Bildungszentren. Ihr Ziel war es nie, mit den Universitäten direkt zu konkurrieren. In erster Linie ging es bei diesen Einrichtungen darum, den lutherischen oder reformierten Glauben zu festigen und durch die Vermittlung von profundem Wissen auch auf den Besuch der Universität vorzubereiten. Sie verpflichteten sich fast durchgängig einer bestimmen Orthodoxie und wurden deshalb im 18. Jahrhundert im Zuge der Aufklärung mehr und mehr hinterfragt.
Academic achievement is a central outcome in educational research, both in and outside higher education, has direct effects on individual’s professional and financial prospects and a high individual and public return on investment. Theories comprise cognitive as well as non-cognitive influences on achievement. Two examples frequently investigated in empirical research are knowledge (as a cognitive determinant) and stress (as a non-cognitive determinant) of achievement. However, knowledge and stress are not stable, what raises questions as to how temporal dynamics in knowledge on the one hand and stress on the other contribute to achievement. To study these contributions in the present doctoral dissertation, I used meta-analysis, latent profile transition analysis, and latent state-trait analysis. The results support the idea of knowledge acquisition as a cumulative and long-term process that forms the basis for academic achievement and conceptual change as an important mechanism for the acquisition of knowledge in higher education. Moreover, the findings suggest that students’ stress experiences in higher education are subject to stable, trait-like influences, as well as situational and/or interactional, state-like influences which are differentially related to achievement and health. The results imply that investigating the causal networks between knowledge, stress, and academic achievement is a promising strategy for better understanding academic achievement in higher education. For this purpose, future studies should use longitudinal designs, randomized controlled trials, and meta-analytical techniques. Potential practical applications include taking account of students’ prior knowledge in higher education teaching and decreasing stress among higher education students.
Building Fortress Europe Economic realism, China, and Europe’s investment screening mechanisms
(2023)
This thesis deals with the construction of investment screening mechanisms across the major economic powers in Europe and at the supranational level during the post-2015 period. The core puzzle at the heart of this research is how, in a traditional bastion of economic liberalism such as Europe, could a protectionist tool such as investment screening be erected in such a rapid manner. Within a few years, Europe went from a position of being highly welcoming towards foreign investment to increasingly implementing controls on it, with the focus on China. How are we to understand this shift in Europe? I posit that Europe’s increasingly protectionist shift on inward investment can be fruitfully understood using an economic realist approach, where the introduction of investment screening can be seen as part of a process of ‘balancing’ China’s economic rise and reasserting European competitiveness. China has moved from being the ‘workshop of the world’ to becoming an innovation-driven economy at the global technological frontier. As China has become more competitive, Europe, still a global economic leader, broadly situated at the technological frontier, has begun to sense a threat to its position, especially in the context of the fourth industrial revolution. A ‘balancing’ process has been set in motion, in which Europe seeks to halt and even reverse the narrowing competitiveness gap between it and China. The introduction of investment screening measures is part of this process.
Durch Bodendegradation werden jedes Jahr weltweit große Schäden verursacht. Die beiden Hauptverursacher für die globale Bodendegradation sind die Wind- und die Wassererosion. Für die Planung von effizienten Schutzmaßnahmen oder regionalen Managementplänen ist es deshalb wichtig zu verstehen, dass die beiden Prozesse nicht nur als abgekoppelte Phänomene auftreten. Auch wenn seit einiger Zeit das Bewusstsein hierfür zugenommen hat und eine steigende Anzahl von Bodenerosionsstudien auf diesen Sachverhalt eingehen, so bestehen vor allem bei der Abschätzung der relativen Bedeutung und dem Verständnis der vorhandenen Interaktionen zwischen der Wind- und Wassererosion noch substantielle Wissenslücken. Da indirekte Messverfahren, wie beispielsweise die Luftbildauswertung oder die Fernerkundung, für mikro-skalige Prozessstudien ungeeignet sind, beschränken sich die Studien zur Erfassung der Interaktion beider Prozesse zumeist auf die direkten und/oder experimentellen Messungen. Ein Vergleich der Abtragsraten und eine Untersuchung der Interaktionen zwischen der Wind- und der Wassererosion ist jedoch sehr schwierig, da es bislang kein Messinstrument gibt, dass einfach und schnell, die durch Wind, Wasser oder deren Zusammenwirken verursachten Erosionsraten auf natürlichen Oberflächen bestimmen kann. Aus diesem Grund wurde im Rahmen dieses Dissertationsprojekts erstmals, ein mobiler Windkanal mit integrierter Beregnungsanlage konzipiert und umgesetzt. Seine simulierten Wind- und Niederschlagseigenschaften wurden in Labormessungen mit einem Laserdistrometer, Niederschlagssammlern, Anemometern und Nebelversuchen bestimmt. Die beim Einsatz der Anlage in unterschiedlichen Messkampagnen gewonnenen Erkenntnisse zu seinem Aufbau flossen stetig in die Weiterentwicklung des Kanals ein. Die Qualität der simulierten Bedingungen im Kanal können nach den Modifikationen und unter Einbeziehung der Anforderungen an einen geländefähigen Kanal mit guter Mobilität, als sehr gut bezeichnet werden. Insbesondere die Reproduzierbarkeit der simulierten Bedingungen treten hier positiv hervor. Die angestrebten Ziele dieser Arbeit konnten weitestgehend erfüllt werden. Mit dem mobilen Windkanal mit integrierter Beregnungsanlage steht in Zukunft eine Anlage zur Verfügung, mit der die Abtragsraten der Wind- und Wassererosion im Gelände, getrennt und in ihrer gemeinsamen Wirkung, gemessen werden können. Durch den Einsatz der Anlage ist es möglich, einige der noch offenen wissenschaftlichen Fragen zur relativen Bedeutung und Interaktion der beiden Prozesse zukünftig zu untersuchen, um weitere Erkenntnisse über Ihren Einfluss auf die Bodendegradation, in Abhängigkeit von Landnutzungsänderungen und dem Klimawandel, zu erhalten.
Nicht erst seit Einleitung der "Energiewende" im Jahr 2011 gehören Fragen der Energie- und Klimapolitik zu den politisch kontrovers diskutierten Themen in Deutschland. In Folge des europäischen Integrationsprozesses gewinnt dabei zunehmend auch die Europäische Union als Handlungsebene an Bedeutung. In dieser Arbeit wird der Frage nachgegangen, wie deutsche Akteure die Energie- und Klimapolitik der EU seit dem Gipfel des Europäischen Rates 2007 beeinflusst haben und welche Auswirkungen die Entscheidungen auf EU-Ebene für die Politikgestaltung im nationalen Kontext hatten. Anhand von drei Fallstudien wird eine Prozessanalyse in den Bereichen Strombinnenmarkt, Erneuerbare-Energien-Politik und Klimaschutz im Zeitraum der Jahre 2007 bis 2013 vorgenommen.
Im Fokus der Ursachenanalyse der zunehmenden Homogenisierung von Biozönosen und des weltweiten Artenverlustes steht neben dem Flächennutzungs- und Klimawandel vorrangig auch die durch den Menschen verursachte Einbringung gebietsfremder, invasiver Arten. Aufgrund ihrer Charakteristika bilden diese Arten einen wichtigen Schnittpunkt von Ökologie, Ökonomie und Soziologie in Theorie und Praxis und erfahren folglich im Zuge der weltweit steigenden Anzahl von biologischen Invasionen zunehmend eine rechtliche Regulierung. Eine grundsätzliche Herausforderung in der Invasionsforschung liegt in der Identifikation von Faktoren, die Verbreitung, Dynamik und Erfolg der Arten erklären, um anhand dieses Wissens ihr Risiko für das Ökosystem als auch hinsichtlich ökonomischer und gesundheitlicher Aspekte abschätzen zu können. Eine Einschätzung der Invasivität der Art zur Ableitung von Handlungsstrategien und zur rechtlichen Einstufung erfolgt anhand von Risikoanalysen, deren kriterienbasierte Bewertung eine Reihe wissenschaftlicher Fakten voraussetzen. Um mögliche Ausbreitungswege- und barrieren zu identifiziert und Faktoren herauszustellen, welche die erfolgreiche Etablierung und Ausbreitung des Nordamerikanischen Waschbären in Deutschland und Europa erklären, wird in dieser Dissertation unter Verwendung populationsgenetischer Methoden die Ausbreitung der Art rekonstruiert. Darüberhinaus wird in dieser Arbeit die Bedeutung von Verbreitungsmodellen als Analyse- und Präventions-Instrument in der naturschutzfachlichen Risikoabschätzung verdeutlicht und zudem die Problematik einer Risikoabschätzung auf Grundlage einer lückenhaften Wissensbasis erläutert. Der rechtliche Schwerpunkt der Dissertation widmet sich der Regulierung der Haltung von IAS, die als ein aktiver und dominanter Einbringungsweg insbesonders für gebietsfremde Wirbeltierarten zählt und für die hier betrachtete Modellart nachweislich von hoher Bedeutung ist. Die gewonnenen Erkenntnisse geben Hilfestellung zur Einstufung der Invasivität der Art und zur Beurteilung eines Handlungsbedarfes.
Nicolaus Hieronymus Gundling (1671-1729) ist eine bislang wenig beachtete Persönlichkeit der deutschen Frühaufklärung. Gleichwohl ist der Hallenser Publizist an der Entstehung eines neuen Entwurfs der Gesellschaft aktiv beteiligt: Ihm obliegt - wie vielen seiner in Vergessenheit geratenen Kollegen - die Ausbildung jener Beamter, die am Ausbau des modernen Anstaltsstaates mitwirken. Aus den akademisch geschulten Amtsträgern bildet sich eine neue soziale Schicht, die ihr Selbstverständnis an die folgenden Gelehrten- generationen weitergibt: Aus diesen rekrutiert sich im 19. Jahrhundert der Kern des "Bildungsbürgertums", dessen Verhältnis zu Staat und Obrigkeit bis heute umstritten ist. Priorität in Gundlings Lehre " der Thomasiusschüler rezipiert u. a. Hobbes, Locke und Pufendorf - hat die Erhaltung des Friedens, die auf der Trennung von Politik und Religion beruht: Mit Glaubensfragen soll sich das Individuum in seiner Privatsphäre auseinandersetzen, das öffentliche Leben soll allein durch Vernunft bestimmt sein " wobei Gundling insbesondere den juristisch und ökonomisch versierten Staatsdienern eine Schlüsselposition im politischen Geschehen einräumt, während er den Einfluß des Klerus zurückzudrängen bestrebt ist. Dieser Gedanke wird jedoch vom Autor selbst konterkariert. Gundling zweifelt grundlegend an der menschlichen Vernunftbegabung, so dass er auf den Glauben als traditionelles Disziplinierungsmittel nicht verzichten kann. Deshalb hält er " lehnt er das Gottesgnadentum auch strikt ab - an seinem Wunsch nach der väterlichen Zwangsgewalt eines allmächtigen Herrschers fest, der den Frieden bewahrt. Letzterer hängt damit eher von der undefinierten "Güte" des Monarchen als von der Vernunft der Amtsträger ab. Jedoch: Durch seine kritische Haltung nimmt Gundling selbst, im Rahmen der Möglichkeiten seines Wirkungskreises und seiner Zeit, durchaus politische Verantwortung wahr und gibt damit in der Praxis das Beispiel eines mündig werdenden Bürgers " auch wenn er sich dabei in Widersprüche verstrickt.
Global change, i.e. climate and land use changes, severely impact natural ecosystems at different scales. Poikilothermic animals as butterflies, amphibians and reptiles have proven to be useful indicators for global change impacts as their phenology, spatial distribution, individual fitness and survival strongly depend on external environmental factors. In this aspect, phenological changes in terms of advanced flight or breeding periods, immigrations of foreign species, range shifts concomitant with temperature increases and even local population declines have been observed in both species groups. However, to date much attention has been paid to global change impacts on the species or population level and analyses concerning entire ecosystems are scarce. Applying a novel statistical modelling algorithm we assessed future changes in the extent and composition of terrestrial ecoregions as classified by the World Wide Fund for Nature (WWF). They are defined as coarse-scale conservation units containing exceptional assemblages of species and ecological dynamics. Our results demonstrate dramatic geographical changes in the extent and location of these ecoregions across all continents and even imply a repriorisation of conservation efforts to cope with future climate change impacts on biodiversity. On the local scale, climate change impacts become unequivocal. Comparing historical to contemporary butterfly assemblages on vineyard fallows of the Trier Region, a significant decline in butterfly richness, but also a severe depletion in trait diversity was observed. Comparisons of community temperature indices reveal a striking shift in community composition leading to a replacement of sedentary and monophagous habitat specialists by ubiquitous species. Similar changes have been observed in nature reserves in the Saar-Mosel-area. Monitoring data reveal strong losses of species diversity and remarkable shifts of community compositions at the expense of habitat specialists. Besides climatic variability, these findings are largely attributed to changes in habitat structures, mostly due to eutrophication and monotonisation. Management activities are unlikely to counterbalance these effects, thus severely questioning current conservation strategies. Most dramatic global change impacts are suspected on closely associated species and disruptions of biotic interactions are often hold responsible for species declines. A strong host-parasite association has developed in Myrmica ants and Maculinea butterflies, the later crucially depending on specific host ants for their larval survival. Applying environmental niche models we determined considerable niche dynamics in the observed parasite-host relation with a pronounced niche plasticity in the butterfly species adapting to previous evasive niche shifts in their host ants. Moreover, the new emergence of species continuously expanding their northernmost range borders concomitant with global warming like the Short-tailed blue (Cupido argiades) is attributed to climate change. However, species distribution models predict a severe habitat loss and shifts of potentially suitable habitats of this species towards north-eastern Europe and higher altitudes under several IPCC scenarios making the presence of this species in the Trier region a contemporary phenomenon. Species distribution models have emerged as powerful tools to predict species distributions over spatial and temporal scales. However, not only the presence of a species, but also its abundance have significant implications for species conservation. The ability to deduce spatial abundance patterns from environmental suitability might more efficiently guide field surveys or monitoring programs over large geographical areas saving time and money. Although the application of species distribution models to deduce vertebrate abundances is well recognized, our results indicate that this method is not an adequate approach to predict invertebrate abundances. Structural and ecological factors as well as climatic patterns acting at the microscale are key drivers of invertebrate occurrence and abundances limiting conclusions drawn from modeling approaches. Population declines should be interpreted with care as in butterflies and amphibians various reasons are debated. Both species groups are acknowledged to be highly susceptible to land use changes and variations in landscape structure. Moreover, climate and land use are not independently operating factors. The combined impact of both is demonstrated in our study linking climate-driven changes in amphibian phenologies to temporal advanced applications of pesticides and fertilizers. Both environmental factors already represent severe threats to amphibians when standing alone, but linking their combined impacts may result in an potentiated risk for amphibian populations. As all amphibians and numerous butterfly species are legally protected under the Federal Nature Conservation Act, intensifications of agricultural land use in large parts of Germany as well as new agrarian practices (including genetically manipulated plants accompanied by new herbicide technologies) might severely challenge regional conservation activities in the future.
The following dissertation contains three studies examining academic boredom development in five high-track German secondary schools (AVG-project data; Study 1: N = 1,432; Study 2: N = 1,861; Study 3: N = 1,428). The investigation period spanned 3.5 years, with four waves of measurement from grades 5 to 8 (T1: 5th grade, after transition to secondary school; T2: 5th grade, after mid-term evaluations; T3: 6th grade, after mid-term evaluations; T4: 8th grade, after mid-term evaluations). All three studies featured cross-sectional and longitudinal analyses, separating, and comparing the subject domains of mathematics and German.
Study 1 provided an investigation of academic boredom’s factorial structure alongside correlational and reciprocal relations of different forms of boredom and academic self-concept. Analyses included reciprocal effects models and latent correlation analyses. Results indicated separability of boredom intensity, boredom due to underchallenge and boredom due to overchallenge, as separate, correlated factors. Evidence for reciprocal relations between boredom and academic self-concept was limited.
Study 2 examined the effectiveness and efficacy of full-time ability grouping for as a boredom intervention directed at the intellectually gifted. Analyses included propensity score matching, and latent growth curve modelling. Results pointed to limited effectiveness and efficacy for full-time ability grouping regarding boredom reduction.
Study 3 explored gender differences in academic boredom development, mediated by academic interest, academic self-concept, and previous academic achievement. Analyses included measurement invariance testing, and multiple-indicator-multi-cause-models. Results showed one-sided gender differences, with boys reporting less favorable boredom development compared to girls, even beyond the inclusion of relevant mediators.
Findings from all three studies were embedded into the theoretical framework of control-value theory (Pekrun, 2006; 2019; Pekrun et al., 2023). Limitations, directions for future research, and practical implications were acknowledged and discussed.
Overall, this dissertation yielded important insights into boredom’s conceptual complexity. This concerned factorial structure, developmental trajectories, interrelations to other learning variables, individual differences, and domain specificities.
Keywords: Academic boredom, boredom intensity, boredom due to underchallenge, boredom due to overchallenge, ability grouping, gender differences, longitudinal data analysis, control-value theory
As a target for condemnation, the thematic prevalence of racism in African American novels of satire is not surprising. In order to confront this vice in its shifting manifestations, however, the African American satirist has to employ special techniques. This thesis examines some of these devices as they occur in George Schuyler- Black No More, Charles Wright- The Wig, and Percival Everett- Erasure. Given the reciprocity of target and technique in the satiric context, close attention is paid to how the authors under study locate and interrogate racism in their narratives. In this respect, the significance of anti-essentialist Marxist criticism in Schuyler- Black No More and the author- portrayal of the society of his time as capitalist machinery is examined. While Schuyler is concerned with exposing the general socioeconomic workings of the 1920s from a Marxist perspective, Wright offers the reader perspective into how this oppressive machinery psychologically manipulates and corrupts the individual in the historic context of Lyndon B. Johnson- political vision of the Great Society. Everett then elaborates on the epistemological concern which is traceable in Wright- work and addresses the role media representation plays in manufacturing images and rigid categories that shape systematic racism. As such, the present study not only highlights the versatility of satire as a rhetorical secret weapon and thus ventures toward the idiosyncrasies of the African American novel of satire, it also makes an effort to trace the ever-changing face of racial discrimination.
Every day we are exposed to a large set of appetitive food cues, mostly of high caloric, high carbohydrate content. Environmental factors like food cue exposition can impact eating behavior, by triggering anticipatory endocrinal responses and reinforcing the reward value of food. Additionally, it has been shown that eating behavior is largely influence by neuroendocrine factors. Energy homeostasis is of great importance for survival in all animal species. It is challenged under the state of food deprivation which is considered to be a metabolic stressor. Interestingly, the systems regulating stress and food intake share neural circuits. Adrenal glucocorticoids, as cortisol, and the pancreatic hormone insulin have been shown to be crucial to maintain catabolic and anabolic balance. Cortisol and insulin can cross the blood-brain barrier and interact with receptors distributed throughout the brain, influencing appetite and eating behavior. At the same time, these hormones have an important impact on the stress response. The aim of the current work is to broaden the knowledge on reward related food cue processing. With that purpose, we studied how food cue processing is influenced by food deprivation in women (in different phases of the menstrual cycle) and men. Furthermore, we investigated the impact of the stress/metabolic hormones, insulin and cortisol, at neural sites important for energy metabolism and in the processing of visual food cues. The Chapter I of this thesis details the underlying mechanisms of the startle response and its application in the investigation of food cue processing. Moreover, it describes the effects of food deprivation and of the stress-metabolic hormones insulin and cortisol in reward related processing of food cues. It explains the rationale for the studies presented in Chapter II-IV and describes their main findings. A general discussion of the results and recommendations for future research is given. In the study described in Chapter II, startle methodology was used to study the impact of food deprivation in the processing of reward related food cues. Women in different phases of the menstrual cycle and men were studied, in order to address potential effects of sex and menstrual cycle. All participants were studied either satiated or food deprived. Food deprivation provoked enhanced acoustic startle (ASR) response during foreground presentation of visual food cues. Sex and menstrual cycle did not influence this effect. The startle pattern towards food cues during fasting can be explained by a frustrative nonreward effect (FNR), driven by the impossibility to consume the exposed food. In Chapter III, a study is described, which was carried out to explore the central effects of insulin and cortisol, using continuous arterial spin labeling to map cerebral blood flow patterns. Following standardized periods of fasting, male participants received either intranasal insulin, oral cortisol, both, or placebo. Intranasal insulin increased resting regional cerebral blood flow in the putamen and insular cortex, structures that are involved in the regulation of eating behavior. Neither cortisol nor interaction effects were found. These results demonstrate that insulin exerts an action in metabolic centers during resting state, which is not affected by glucocorticoids. The study described in Chapter IV uses a similar pharmacological manipulation as the one presented in Chapter III, while assessing processing of reward related food cues through the startle paradigm validated in Chapter II. A sample of men was studied during short-term food deprivation. Considering the importance of both cortisol and insulin in glucose metabolism, food pictures were divided by glycemic index. Cortisol administration enhanced ASR during foreground presentation of "high glycemic" food pictures. This result suggests that cortisol provokes an increase in reward value of high glycemic food cues, which is congruent with previous research on stress and food consumption. This thesis gives support to the FNR hypothesis towards food cues during states of deprivation. Furthermore, it highlights the potential effects of stress related hormones in metabolism-connected neuronal structures, and in the reward related mechanisms of food cue processing. In a society marked by increased food exposure and availability, alongside with increased stress, it is important to better understand the impact of food exposition and its interaction with relevant hormones. This thesis contributes to the knowledge in this field. More research in this direction is needed.
Rückkehrprozesse aus Genderperspektive: remigrierte (Spät-)Aussiedler-Ehepaare in Westsibirien
(2019)
Die Studie untersucht die Rückkehrprozesse von (Spät-)Aussiedler-Ehepaaren aus Deutschland nach Westsibirien. Ein besonderes Augenmerk wird auf die Sichtweisen der Frauen und Männer hinsichtlich ihrer gemachten Erfahrung der Remigration gelegt. Darüber hinaus analysiert die Studie einerseits die Gemeinsamkeiten und Unterschiede beider Geschlechter im Hinblick auf die Rückkehrmotive, die Zufriedenheit mit der Wiederanpassung in Russland sowie die Einstellung hinsichtlich einer erneuten Migration nach Deutschland. Andererseits fokussiert die Arbeit auf die Geschlechterverhältnisse unter den Ehegatten im Prozess der Entscheidungsfindung zur Remigration. Die Studie folgt einem qualitativen methodischen Ansatz und verbindet verschiedene Forschungsrichtungen, genauer (Re)Migrations-, Familien-, (Spät-)AussiedlerInnen- und Geschlechterforschung.
The stress hormone cortisol as the end-product of the hypothalamic-pituitary-adrenal (HPA) axis has been found to play a crucial role in the release of aggressive behavior (Kruk et al., 2004; Böhnke et al., 2010). In order to further explore potential mechanisms underlying the relationship between stress and aggression, such as changes in (social) information processing, we conducted two experimental studies that are presented in this thesis. In both studies, acute stress was induced by means of the Socially Evaluated Cold Pressor Test (SECP) designed by Schwabe et al. (2008). Stressed participants were classified as either cortisol responders or nonresponders depending on their rise in cortisol following the stressor. Moreover, basal HPA axis activity was measured prior to the experimental sessions and EEG was recorded throughout the experiments. The first study dealt with the influence of acute stress on cognitive control processes. 41 healthy male participants were assigned to either the stress condition or the non-stressful control procedure of the SECP. Before as well as after the stress induction, all participants performed a cued task-switching paradigm in order to measure cognitive control processes. Results revealed a significant influence of acute and basal cortisol levels, respectively, on the motor preparation of the upcoming behavioral response, that was reflected in changes in the magnitude of the terminal Contingent Negative Variation (CNV). In the second study, the effect of acute stress and subsequent social provocation on approach-avoidance motivation was examined. 72 healthy students (36 males, 36 females) took part in the study. They performed an approach-avoidance task, using emotional facial expressions as stimuli, before as well as after the experimental manipulation of acute stress (again via the SECP) and social provocation realized by means of the Taylor Aggression Paradigm (Taylor, 1967). Additionally to salivary cortisol, testosterone samples were collected at several points in time during the experimental session. Results indicated a positive relationship between acute testosterone levels and the motivation to approach social threat stimuli in highly provoked cortisol responders. Similar results were found when the testosterone-to-cortisol ratio at baseline was taken into account instead of acute testosterone levels. Moreover, brain activity during the approach-avoidance task was significantly influenced by acute stress and social provocation, as reflected in reductions of early (P2) as well as of later (P3) ERP components in highly provoked cortisol responders. This may indicate a less accurate, rapid processing of socially relevant stimuli due to an acute increase in cortisol and subsequent social provocation. In conclusion, the two studies presented in this thesis provide evidence for significant changes in information processing due to acute stress, basal cortisol levels and social provocation, suggesting an enhanced preparation for a rapid behavioral response in the sense of a fight-or-flight reaction. These results confirm the model of Kruk et al. (2004) proposing a mediating role of changed information processes in the stress-aggression-link.
Some of the largest firms in the DACH region (Germany, Austria, Switzerland) are (partially) owned by a foundation and/or a family office, such as Aldi, Bosch, or Rolex. Despite their growing importance, prior research neglected to analyze the impact of these intermediaries on the firms they own. This dissertation closes this research gap by contributing to a deeper understanding of two increasingly used family firm succession vehicles, through four empirical quantitative studies. The first study focuses on the heterogeneity in foundation-owned firms (FOFs) by applying a descriptive analysis to a sample of 169 German FOFs. The results indicate that the family as a central stakeholder in a family foundation fosters governance that promotes performance and growth. The second study examines the firm growth of 204 FOFs compared to matched non-FOFs from the DACH region. The findings suggest that FOFs grow significantly less in terms of sales but not with regard to employees. In addition, it seems that this negative effect is stronger for the upper than for the middle or lower quantiles of the growth distribution. Study three adopts an agency perspective and investigates the acquisition behavior within the group of 164 FOFs. The results reveal that firms with charitable foundations as owners are more likely to undertake acquisitions and acquire targets that are geographically and culturally more distant than firms with a family foundation as owner. At the same time, they favor target companies from the same or related industries. Finally, the fourth study scrutinizes the capital structure of firms owned by single family-offices (SFOs). Drawing on a hand-collected sample of 173 SFO-owned firms in the DACH region, the results show that SFO-owned firms display a higher long-term debt ratio than family-owned firms, indicating that SFO-owned firms follow trade-off theory, similar to private equity-owned firms. Additional analyses show that this effect is stronger for SFOs that sold their original family firm. In conclusion, the outcomes of this dissertation furnish valuable research contributions and offer practical insights for families navigating such intermediaries or succession vehicles in the long term.
Seit dem Godesberger Programm 1959 entwickelte sich aus dem Umgang der SPD mit Geschichte und Geschichtswissenschaft eine sozialdemokratische Geschichtskultur. Sie manifestierte sich in zweierlei Hinsicht. Zum einen wurde auf geschichtspolitischer Ebene das national-konservative Geschichtsbild und insbesondere die staats- und kontinuitätszentrierten Vorstellungen von Nation und Nationalstaat kritisiert und die Stellung des Nationalsozialismus in der deutschen Geschichte neu bewertet. Zum anderen wurde auf geschichtswissenschaftlicher Ebene das Forschungsfeld der Geschichte der Arbeiterbewegung und der Sozialdemokratie erfolgreich etabliert. Parallel dazu entstand eine große Gruppe akademischer Historiker, die der SPD angehörten oder ihr nahestanden. Sie beschäftigten sich mit Themen der Partei-, der Arbeiter- und der Sozialgeschichte, unterstützten die Geschichtspolitik der SPD, kümmerten sich um Geschichtsbewusstsein dieser Partei und nahmen - zuweilen auch kritisch - an den Diskussionen ihrer Tagespolitik teil. Aus diesen beiderseitigen Aktivitäten bildeten sich vielfältige Kommunikationswege und personelle Netzwerke zwischen SPD und Historikern. Von 1959 bis 1969 vermied die SPD im Zuge ihrer Strategie der Regierungsbeteiligung eine deutliche Profilierung ihrer eigenen Geschichtspolitik, gleichzeitig lenkte nur eine kleine und fachlich eher marginale Gruppe von Historikern die Aufmerksamkeit auf die sozialdemokratische Geschichtsschreibung und ihre Themen. Aber inzwischen wurden seitens der SPD die organisatorischen Rahmenbedingungen für die Intensivierung der Kommunikation gelegt und wurden Kontakte zu einer wachsenden Zahl jüngerer Historiker geknüpft. Trotzdem waren die damaligen Kommunikationsnetzwerke räumlich und personell beschränkt. Seit 1969 erweiterten sich die Verbindungen zwischen beiden Seiten dank des politischen Aufschwungs der Sozialdemokratie und des Generationswechsels der Historikerschaft. Bis 1982 kommunizierten SPD und Historiker miteinander über viele aktuelle Themen: das Spektrum reichte von den historischen Gedenktagen über den Geschichtsunterricht in den Schulen bis hin zur Neuen Ostpolitik der sozialliberalen Koalition. Parallel dazu erlebte die sozialdemokratische Historiographie eine Konjunktur der Arbeiterbewegungsgeschichte, eine sozialgeschichtliche Neuorientierung und einen Erfolg der Sonderwegsthese. Die Kommunikationsnetzwerke umfassten immer mehr jüngere Fachhistoriker. In den Jahren 1983 bis 1989 wurden die Verbindungen der Sozialdemokratie mit den ihr nahestehenden Historikern auf politischer Ebene wegen ihrer geschichtspolitischen Auseinandersetzung mit der Christdemokratie immer enger, während die sozialdemokratische Geschichtsschreibung vor allem von der Strömung der Alltagsgeschichte und -»Geschichte von unten-« gefördert wurde. Haupttendenzen der dreißigjährigen Entwicklung der Kommunikation zwischen SPD und Geschichtswissenschaft waren wechselseitiger Austausch und Zusammenarbeit. Dabei darf jedoch nicht vernachlässigt werden, dass nicht nur die Historiker, die der Sozialdemokratie nahestanden, sondern auch die, die sich von ihr entfremdeten bzw. kritisch gegenüberstanden, Einfluss auf die Kommunikationslandschaft ausübten.
Bei Albert Dietz und Bernhard Grothe handelt es sich um zwei bedeutende Architekten im französisch-saarländischen Grenzgebiet. Sie gründeten 1952 eine Arbeitsgemeinschaft mit dem Ziel, auf gemeinschaftlicher Basis den nach dem Krieg entstandenen Bedarf an profanen und sakralen Wiederaufbau- und Neubaumaßnahmen in ihren Bauwerken möglichst effektiv reaslisieren zu können. Diese Arbeit befaßt sich ausschließlich mit den Sakralbauten, die deren künstlerische und architektonische Leistungen auf anschauliche Weise demonstrieren und belegen.
The discretization of optimal control problems governed by partial differential equations typically leads to large-scale optimization problems. We consider flow control involving the time-dependent Navier-Stokes equations as state equation which is stamped by exactly this property. In order to avoid the difficulties of dealing with large-scale (discretized) state equations during the optimization process, a reduction of the number of state variables can be achieved by employing a reduced order modelling technique. Using the snapshot proper orthogonal decomposition method, one obtains a low-dimensional model for the computation of an approximate solution to the state equation. In fact, often a small number of POD basis functions suffices to obtain a satisfactory level of accuracy in the reduced order solution. However, the small number of degrees of freedom in a POD based reduced order model also constitutes its main weakness for optimal control purposes. Since a single reduced order model is based on the solution of the Navier-Stokes equations for a specified control, it might be an inadequate model when the control (and consequently also the actual corresponding flow behaviour) is altered, implying that the range of validity of a reduced order model, in general, is limited. Thus, it is likely to meet unreliable reduced order solutions during a control problem solution based on one single reduced order model. In order to get out of this dilemma, we propose to use a trust-region proper orthogonal decomposition (TRPOD) approach. By embedding the POD based reduced order modelling technique into a trust-region framework with general model functions, we obtain a mechanism for updating the reduced order models during the optimization process, enabling the reduced order models to represent the flow dynamics as altered by the control. In fact, a rigorous convergence theory for the TRPOD method is obtained which justifies this procedure also from a theoretical point of view. Benefiting from the trust-region philosophy, the TRPOD method guarantees to save a lot of computational work during the control problem solution, since the original state equation only has to be solved if we intend to update our model function in the trust-region framework. The optimization process itself is completely based on reduced order information only.
This dissertation is dedicated to the analysis of the stabilty of portfolio risk and the impact of European regulation introducing risk based classifications for investment funds.
The first paper examines the relationship between portfolio size and the stability of mutual fund risk measures, presenting evidence for economies of scale in risk management. In a unique sample of 338 fund portfolios we find that the volatility of risk numbers decreases for larger funds. This finding holds for dispersion as well as tail risk measures. Further analyses across asset classes provide evidence for the robustness of the effect for balanced and fixed income portfolios. However, a size effect did not emerge for equity funds, suggesting that equity fund managers simply scale their strategy up as they grow. Analyses conducted on the differences in risk stability between tail risk measures and volatilities reveal that smaller funds show higher discrepancies in that respect. In contrast to the majority of prior studies on the basis of ex-post time series risk numbers, this study contributes to the literature by using ex-ante risk numbers based on the actual assets and de facto portfolio data.
The second paper examines the influence of European legislation regarding risk classification of mutual funds. We conduct analyses on a set of worldwide equity indices and find that a strategy based on the long term volatility as it is imposed by the Synthetic Risk Reward Indicator (SRRI) would lead to substantial variations in exposures ranging from short phases of very high leverage to long periods of under investments that would be required to keep the risk classes. In some cases, funds will be forced to migrate to higher risk classes due to limited means to reduce volatilities after crises events. In other cases they might have to migrate to lower risk classes or increase their leverage to ridiculous amounts. Overall, we find if the SRRI creates a binding mechanism for fund managers, it will create substantial interference with the core investment strategy and may incur substantial deviations from it. Fruthermore due to the forced migrations the SRRI degenerates to a passive indicator.
The third paper examines the impact of this volatility based fund classification on portfolio performance. Using historical data on equity indices we find initially that a strategy based on long term portfolio volatility, as it is imposed by the Synthetic Risk Reward Indicator (SRRI), yields better Sharpe Ratios (SRs) and Buy and Hold Returns (BHRs) for the investment strategies matching the risk classes. Accounting for the Fama-French factors reveals no significant alphas for the vast majority of the strategies. In our simulation study where volatility was modelled through a GJR(1,1) - model we find no significant difference in mean returns, but significantly lower SRs for the volatility based strategies. These results were confirmed in robustness checks using alternative models and timeframes. Overall we present evidence which suggests that neither the higher leverage induced by the SRRI nor the potential protection in downside markets does pay off on a risk adjusted basis.
The Eurosystem's Household Finance and Consumption Survey (HFCS) collects micro data on private households' balance sheets, income and consumption. It is a stylised fact that wealth is unequally distributed and that the wealthiest own a large share of total wealth. For sample surveys which aim at measuring wealth and its distribution, this is a considerable problem. To overcome it, some of the country surveys under the HFCS umbrella try to sample a disproportionately large share of households that are likely to be wealthy, a technique referred to as oversampling. Ignoring such types of complex survey designs in the estimation of regression models can lead to severe problems. This thesis first illustrates such problems using data from the first wave of the HFCS and canonical regression models from the field of household finance and gives a first guideline for HFCS data users regarding the use of replicate weight sets for variance estimation using a variant of the bootstrap. A further investigation of the issue necessitates a design-based Monte Carlo simulation study. To this end, the already existing large close-to-reality synthetic simulation population AMELIA is extended with synthetic wealth data. We discuss different approaches to the generation of synthetic micro data in the context of the extension of a synthetic simulation population that was originally based on a different data source. We propose an additional approach that is suitable for the generation of highly skewed synthetic micro data in such a setting using a multiply-imputed survey data set. After a description of the survey designs employed in the first wave of the HFCS, we then construct new survey designs for AMELIA that share core features of the HFCS survey designs. A design-based Monte Carlo simulation study shows that while more conservative approaches to oversampling do not pose problems for the estimation of regression models if sampling weights are properly accounted for, the same does not necessarily hold for more extreme oversampling approaches. This issue should be further analysed in future research.
Family firms play a crucial role in the DACH region (Germany, Austria, Switzerland). They are characterized by a long tradition, a strong connection to the region, and a well-established network. However, family firms also face challenges, especially in finding a suitable successor. Wealthy entrepreneurial families are increasingly opting to establish Single Family Offices (SFOs) as a solution to this challenge. An SFO takes on the management and protection of family wealth. Its goal is to secure and grow the wealth over generations. In Germany alone, there are an estimated 350 to 450 SFOs, with 70% of them being established after the year 2000. However, research on SFOs is still in its early stages, particularly regarding the role of SFOs as firm owners. This dissertation delves into an exploration of SFOs through four quantitative empirical studies. The first study provides a descriptive overview of 216 SFOs from the DACH-region. Findings reveal that SFOs exhibit a preference for investing in established companies and real estate. Notably, only about a third of SFOs engage in investments in start-ups. Moreover, SFOs as a group are heterogeneous. Categorizing them into three groups based on their relationship with the entrepreneurial family and the original family firm reveals significant differences in their asset allocation strategies. Subsequent studies in this dissertation leverage a hand-collected sample of 173 SFO-owned firms from the DACH region, meticulously matched with 684 family-owned firms from the same region. The second study focusing on financial performance indicates that SFO-owned firms tend to exhibit comparatively poorer financial performance than family-owned firms. However, when members of the SFO-owning family hold positions on the supervisory or executive board of the firm, there's a notable improvement. The third study, concerning cash holdings, reveals that SFO-owned firms maintain a higher cash holding ratio compared to family-owned firms. Notably, this effect is magnified when the SFO has divested its initial family firms. Lastly, the fourth study regarding capital structure highlights that SFO-owned firms tend to display a higher long-term debt ratio than family-owned firms. This suggests that SFO-owned firms operate within a trade-off theory framework, like private equity-owned firms. Furthermore, this effect is stronger for SFOs that sold their original family firm. The outcomes of this research are poised to provide entrepreneurial families with a practical guide for effectively managing and leveraging SFOs as a strategic long-term instrument for succession and investment planning.
Im Mittelpunkt der Arbeit Freizeithandeln Jugendlicher - Motive und Bedeutungen stehen die subjektiven Bedeutungen jugendlichen Freizeithandelns. Dazu wurden zentrale Freizeitmotive ermittelt, mit denen Jugendliche ihrer Freizeit Bedeutung verleihen. Ist als Folge der modernen Bedingungen des Aufwachsens Spasserleben zu einem typischen Kennzeichen des Freizeithandelns der heutigen Jugend geworden, wie dies z. B. OPASCHOWSKI zu erkennen glaubt? Die bundesdeutsche Gesellschaft hat sich in den letzten Jahrzehnten in vielerlei Hinsicht gewandelt. Traditionelle Orientierungen und Segmentierungen (z. B. schicht- bzw. milieuspezifische Lebensweisen) haben ihre Verbindlichkeit eingebuesst. In einer komplexer werdenden Umwelt gehen traditionell gegebene Orientierungen des alltaeglichen Lebens verloren. Welche Auswirkungen haben solche Veraenderungen auf Jugendliche? Ist die hohe Bedeutung von Spasserleben die Antwort? Beduerfnisse und Beweggruende fuer Freizeithandeln koennen vielfaeltig sein. Die Arbeit konzentriert sich auf den Lebensbereich der Freizeit und verfolgt das Ziel, ihre subjektive Bedeutung fuer Jugendliche zu analysieren. Hierzu wird zunaechst der Stand der Forschung im Hinblick auf die Besonderheiten der Jugendphase und die Freizeitgestaltung Jugendlicher aufgezeigt. Die subjektive Bedeutung wird ueber die Rekonstruktion von Freizeitmotiven herausgearbeitet. Sie duerften ein zentrales Element der Bedeutungen sein, in denen Menschen den Zusammenhang zwischen innerer und aeusserer Umwelt herstellen und durch die einzelne Aktivitaeten ihren subjektiven Sinn finden. Zentrale Annahmen der Arbeit Der Lebensbereich Freizeit wird aus einer eher marktorientierten Sichtweise analysiert. Allen Akteuren des Freizeitmarktes kann unterstellt werden, dass ihrem Agieren auf dem Markt eine Zielstruktur zugrunde liegt, die sich - allgemein formuliert - handlungsleitend auf ihre jeweiligen Aktivitaeten auswirkt. Diese Zielstruktur muss nach Ansicht d. V. dem jeweiligen Marktakteur und insbesondere den Jugendlichen jedoch nicht notwendigerweise als klar formulierbare Verhaltensabsicht bewusst sein. Die von den Jugendlichen selbst wahrgenommenen Antriebskraefte fuer Nachfrage und Ausuebung ausgewaehlter Freizeittaetigkeiten werden hier als Motive bezeichnet. Ueber spezifische Motive geben sie ihrer Freizeit einen subjektiven Sinn, der fuer sie wiederum handlungsrelevant wird. Dementsprechend wird untersucht, welche Motive von Jugendlichen fuer ihre vielfaeltigen Freizeitaktivitaeten genannt werden. Die Bedeutung von Freizeit kann mit typischen Mustern dargestellt werden, die Einzelaktivitaeten uebergreifen.
The influence of the dopamine agonist Ritalin-® on performance in a card sorting task involving a monetary reward component was tested in 43 healthy male participants. It was investigated whether Ritalin-® would have differential behavioral effects as a function of the participants' parental bonding experiences and the personality variable "Novelty Seeking". When activity and performance accuracy were stimulated my monetary reward, Ritalin-® reduced activity in response to reward and added to the reward-induced increase in performance accuracy. However, performance accuracy after drug challenge was improved only in the low care participants. In the high care participants, it was contrarily impaired. This observation suggests that the successful therapeutic administration of Ritalin-® in ADHD may be influenced by early life parental care. Suggesting an association between the personality dimension of "Novelty Seeking" and the dopamine system, high "Novelty Seeking" scores positively correlated with sensitivity to Ritalin-® challenge.
Zum Einfluss von Transformationen schiefer Verteilungen auf die Analyse mit imputierten Daten
(2015)
Die korrekte Behandlung fehlender Daten in empirischen Untersuchungen spielt zunehmend eine wichtige Rolle in der anwendungsorientierten, quantitativen Forschung. Als zentrales flexibles Instrument wurde von Rubin (1987) die multiple Imputation entwickelt, welche unter regulären Bedingungen eine korrekte Inferenz der eigentlichen Schätzungen ermöglicht. Eine Reihe von Imputationsmethoden beruht im Wesentlichen auf der Normalverteilungsannahme. In der Empirie wird diese Annahme normalverteilter Daten zunehmend kritisiert. So erweisen sich Variablen auf Grund ihrer sehr schiefen Verteilungen für die Imputation als besonders problematisch. In dieser Arbeit steht die korrekte Behandlung fehlender Werte mit der Intention einer validen Inferenz der eigentlichen Schätzung im Vordergrund. Ein Instrument ist die Transformation schiefer Verteilungen, um mit Hilfe der transformierten und approximativ normalverteilten Daten Imputationen unter regulären Bedingungen durchzuführen. In der Arbeit wird ein multivariater Ansatz eingeführt. Anschließend wird im Rahmen mehrerer Monte-Carlo-Simulationsstudien gezeigt, dass der neue Ansatz bereits bekannte Verfahren dominiert und sich die Transformation positiv auf die Analyse mit imputierten Daten auswirkt.
Early life adversity (ELA) is associated with a higher risk for diseases in adulthood. Changes in the immune system have been proposed to underlie this association. Although higher levels of inflammation and immunosenescence have been reported, data on cell-specific immune effects are largely absent. In addition, stress systems and health behaviors are altered in ELA, which may contribute to the generation of the "ELA immune phenotype". In this thesis, we have investigated the ELA immune phenotype on a cellular level and whether this is an indirect consequence of changes in behavior or stress reactivity. To address these questions the EpiPath cohort was established, consisting of 115 young adults with or without ELA. ELA participants had experienced separation from their parents in early childhood and were subsequently adopted, which is a standard model for ELA, whereas control participants grew up with their biological parents. At a first visit, blood samples were taken for analysis of epigenetic markers and immune parameters. A selection of the cohort underwent a standardized laboratory stress test (SLST). Endocrine, immune, and cardiovascular parameters were assessed at several time points before and after stress. At a second visit, participants underwent structural clinical interviews and filled out psychological questionnaires. We observed a higher number of activated T cells in ELA, measured by HLA-DR and CD25 expression. Neither cortisol levels nor health-risk behaviors explained the observed group differences. Besides a trend towards higher numbers of CCR4+CXCR3-CCR6+ CD4 T cells in ELA, relative numbers of immune cell subsets in circulation were similar between groups. No difference was observed in telomere length or in methylation levels of age-related CpGs in whole blood. However, we found a higher expression of senescence markers (CD57) on T cells in ELA. In addition, these cells had an increased cytolytic potential. A mediation analysis demonstrated that cytomegalovirus infection " an important driving force of immunosenescence " largely accounted for elevated CD57 expression. The psychological investigations revealed that after adoption, family conditions appeared to have been similar to the controls. However, PhD thesis MMC Elwenspoek 18 ELA participants scored higher on a depression index, chronic stress, and lower on self-esteem. Psychological, endocrine, and cardiovascular parameters significantly responded to the SLST, but were largely similar between the two groups. Only in a smaller subset of groups matched for gender, BMI, and age, the cortisol response seemed to be blunted in ELA participants. Although we found small differences in the methylation level of the GR promoter, GR sensitivity and mRNA expression levels GR as well as expression of the GR target genes FKBP5 and GILZ were similar between groups. Taken together, our data suggest an elevated state of immune activation in ELA, in which particularly T cells are affected. Furthermore, we found higher levels of T cells immunosenescence in ELA. Our data suggest that ELA may increase the risk of cytomegalovirus infection in early childhood, thereby mediating the effect of ELA on T cell specific immunosenescence. Importantly, we found no evidence of HPA dysregulation in participants exposed to ELA in the EpiPath cohort. Thus, the observed immune phenotype does not seem to be secondary to alterations in the stress system or health-risk behaviors, but rather a primary effect of early life programming on immune cells. Longitudinal studies will be necessary to further dissect cause from effect in the development of the ELA immune phenotype.
Habitat selection of nine songbird species (Sylviidae, Prunellidae, Emberizidae, Fringillidae, Laniidae) in a semi-open transitional landscape (wood/meadow ecotone) is assessed and compared by a quantitative approach over a period of three years. The structural diversity and heterogeneity of this landscape allows a common occurrence to bird species that are spatially segregated in other habitats. On the one hand habitat selection, which in this study is defined by the choice of vegetation structures at the microhabitat level, is regarded as the confrontation of the single bird individuals with their environment and on the other hand as a common trait of subpopulations. The process of habitat selection is only real at the level of the individual. Drawing against this background, a model for the quantification of habitat selection is introduced, making possible an objective analysis of both individual and average habitat selection (not explaining the process itself, however, that leads to the observed habitat selection). The influence of several structural features, mainly regarding the shape of vegetational subunits, on the dispersion of the birds on the plots is analyzed by means of quantitative methods (factor analysis, cluster analysis, discriminant analysis). Preferences and avoidances, constancy in time and space and the degree of selectivity of the specific choice of vegetational structures are discussed in detail for each bird species. There is quantitative evidence that along with increasing abstraction from the individual in the form of spatially increasing data aggregation, the specific distinctness of habitat preferences as a common trait increases. This happens, however, at the expense of information about the variability of the individual selective behaviour. Therefore the flexibility of a bird species would be underrated cosiderably, confining habitat selection to its meaning as an integrating trait of populations. Habitat selection is a dynamic process. It is shown that the structural offer in a landscape strongly influences the result of the species" habitat selection. The availability of vegetational structures on a plot determines the quantitative structural framework, which may be more or less quantitatively modified by the single species. Nevertheless, the structural offer is reflected clearly in the selected structural portions of the bird species. Therefore opportunism and selectivity in the form of structural preferences and avoidances in habitat selection have to be interpreted against the background of the quantitative composition of the vegetational structures that a landscape offers to the birds.
Dans une perspective du développement touristique durable du territoire d'Agadir / région Souss Massa Draa (Maroc), qu'est un territoire touristique offrant un produit balnéaire diversifié et généralement consolidé par une offre en matière du tourisme rural. Ce travail de recherche vise la mise en œuvre d"un management environnemental adapté à la situation locale, conforme aux normes internationales et à l'apporté des entreprises touristiques y opérant. Ainsi, la réalisation d"un diagnostic environnemental est une étape fondamentale et se fera à l'aide de quatre différents outils d'enquête (Observation, guide d"entretien, grille d'évaluation et questionnaires). Cependant, il va falloir choisir les cas leadeurs en la matière - s'ils existent - pour les présenter aux managers afin de les sensibiliser concrètement à la nécessité d'adopter un management environnemental au sein de leurs structures et de prendre ces cas sélectionnés comme modèles. Cette étude a permis de tirer les conclusions suivantes : - Une maturité du territoire d'étude de la région SMD, lui permettra de s"inscrire dans une démarche de développement touristique durable à travers l'adoption d'un management environnemental en passant par l"assurance de la qualité des services. - La qualité des services est satisfaisante au sein des EHT étudiés et relevant du milieu urbain. En revanche, en milieu rural elle à rehausser en soulignant qu'ils sont dotés d'un paysage régional remarquable et exceptionnel. - Les responsables interviewés n'ont cité que les impacts positifs de leurs activités sur l"environnement (Création d'emplois, promotion de l'économie et de la culture locales, financement des événements à caractère social...). - Une faible existence du Management environnemental au sein des EHT étudiés (4,16 % l'échantillonnage dispose d'une politique environnementale). Ainsi que à l'issue de l'évaluation deux cas ont été proposés comme modèles en la matière. - La charte et le Manuel comme de deux solutions locales visant la promotion du Management Environnemental. Actuellement, la charte a été mise en Å“uvre en milieu rural dans une perspective de la généraliser sur la totalité du territoire régional voire même national. Enfin, cette étude a apporté une réponse à la problématique et aux hypothèses de recherche et a permis par la même occasion de proposer des outils visant l'instauration et/ou la promotion du management environnemental à l'échelle régionale.
In this study, candidate loci for periodic catatonia (SCZD10, OMIM #605419) on chromosome 15q15 and 22q13.33 have been fine mapped and investigated. Previously, several studies found evidences for a major susceptibility locus on chromosome 15q15 and a further potential locus on 22q13.33 pointing to genetic heterogeneity. Fine mapping was done in our multiplex families through linkage and mutational analysis using genomic markers selected from public databases. Positional candidate genes like SPRED1 and BRD1, and ultra-conserved elements were investigated by direct sequencing in these families. The results narrow down the susceptibility locus on chromosome 15q14-15q15.1 to a region between markers D15S1042 and D15S968, as well as exclusion of SPRED1 and ultra-conserved elements as susceptibility candidates. Fine mapping for two chromosome 23q13.33-linked families showed that the recombination events would place the disease-causing gene to a telomeric ~577 Kb interval and SNP rs138880 investigation revealed an A-allele in the affected person, therefore excludes BRD1 as well as confirmed MLC1 to be the candidate gene for periodic catatonia.
Die vorliegende Studie untersucht die Besonderheiten diskursiver Strategien, sowie struktureller und sprachlicher Merkmale der japanischsprachigen Textsorte Literatur-Rezension. Auf der Grundlage der herausgearbeiteten textlinguistischen Merkmale werden Didaktisierungsbeispiele für den Fachtext-Leseunterricht entworfen. Ziel ist somit der Entwurf einer textlinguistischen Fundierung der (Fach-)textlektüre am Beispiel der Textsorte Rezension.
Die Materialbasis der vorliegenden Studie bilden 45 Rezensionen literarischer Neuerscheinungen aus dem wöchentlich erscheinenden Rezensionsorgan Tosho shinbun (Die Bücherzeitung) des Jahres 1999.
Die Kriterien für die Analyse werden aus einem Modell des Textsortenwissens von Fix 2006 abgeleitet (Teil I). Bei der Analyse stehen daher Aspekte im Zentrum, die den Aufbau von Wissen (Schemata) über die Textsorte bzw. Textsortenkonventionen und deren struktureller und sprachlicher Realisationen dienen können. Übergeordnete Phänomene wie Tempusgebrauch oder Fachsprachlichkeit werden ebenfalls untersucht. Eine quantitative Auswertung der Ergebnisse ermöglicht Rückschlüsse auf die didaktische Relevanz eines beobachteten Phänomens (Teil II).
Kriterien zur Textauswahl und Progression bei der Didaktisierung ausgewählter Rezensionen liefert ein Ansatz von Sandig 2000, die eine Klassifizierung von Texten auf der Grundlage der Prototypentheorie vorschlägt. Danach verdichten sich bestimmte Kommunikationsmuster zu mentalen Textschemata mit unterschiedlichen Ausprägungen je nach Prototypikalität der Texteigenschaften.
Das konstruktivistische Leseprozessmodell von Wolff 1990 schließlich liefert die Vorgaben, nach denen die Ergebnisse der Textanalyse anhand ausgewählter Beispiele lesedidaktisch aufbereitet werden (Teil III).
Der Anhang (Teil IV) bietet eine Zusammenstellung von in den untersuchten Rezensionen verwendeten Ausdrücken, der sich auf die Darstellung, Interpretation, Analyse und Bewertung von literarischen Werken beziehen.
Beim Rückschaufehler handelt es sich um eine systematisch verzerrte Erinnerung an früher getroffene Urteile. Der Rückschaufehler ist eine robuste kognitive Täuschung, die bislang aber nur unbefriedigend erklärt wurde. In dieser Arbeit wird ein detailliertes kognitives Prozeßmodell (SARA) vorgestellt. Der grundlegende Prozeß ist demnach ein zyklischer, probabilistischer Abruf von Informationen aus dem Langzeitgedächtnis ins Arbeitsgedächtnis. Dies führt zu einer höheren Abrufwahrscheinlichkeit dieser Informationen und wird daher im Modell als selektive Aktivierung bezeichnet. Der Rückschaufehler ist somit auf veränderte Abrufwahrscheinlichkeiten von durch die Enkodierung der Lösung selektiv aktivierten Informationen zurückzuführen. In fünf Experimenten wurde das Konzept selektive Aktivierung überprüft. Probanden sollten die Entwicklung von Sachverhalten beurteilen und sich später nach Bekanntgabe der Lösung wieder daran erinnern. Zusätzlich wur-den Argumente dargeboten, die für eine Zu- bzw. Abnahme des Sachverhalts sprachen. Durch die Lösung selektiv aktivierte Argumente sollten zu einem verbesserten Abruf führen. In drei Wiedererkennenstests konnte eine selektive Aktivierung der Argumente durch die Lösung nicht nachgewiesen werden. In diesen Experimenten trat allerdings auch der Rückschaufehler nicht auf. In zwei Experimenten mit freier Wiedergabe ließen sich die erwarteten Effekte dagegen zeigen. Dies kann als erster Nachweis selektiver Aktivierung interpretiert werden.
Ziel der Optimierung bestimmter molekulargenetischer Methoden war die Aufklärung möglicher Zusammenhänge zwischen landwirtschaftlichen Nutzungsformen und der Genetik von Microtus arvalis. Um mögliche Populationsunterschiede feststellen zu können wurden zwei unterschiedliche genetische Untersuchungsmethoden eingesetzt. die Fingerprints, die mit dem Multi-locus DNA Fingerprint gemacht werden besitzen einen sehr hohen Informationswert und sind individualspezifisch. Der Nachteil dieser Methode besteht darin, dass sie sehr aufwendig ist. Die RAPD-PCR hat den Vorteil, dass sie sehr schnell Bandemuster produziert, und leicht anwendbar ist. der Informationsgehalt des RAPD-PCR ist jedoch geringer. Da beide Methoden auf die Feldmaus noch nicht angewandt wurden, mussten sie so modifiziert werden, dass genetische Untersuchungen mit Microtus arvalis erst möglich wurden. Insgesamt wurden 161 Microtus arvalis aus Wahlen (Nordsaarland) und Herl (Regierungsbezirk trier) untersucht. Dabei stellte sich heraus, dass die Brachflächen in Wahlen (Zill1, Zill2 und Zill3), die zwischen ca. 20m und 200m voneinander entfernt liegen erwartungsgemäß eine zusammenhängende Population darstellen. Die Feldmäuse der Brachfläche am Hohberg (ca. 400m entfernt) die durch eine Straße, sowie Wald bzw. Feldgehölze von den Zill-Populationen getrennt sind können genetisch eindeutig abgegrenzt werden. Noch deutlicher sind die Populationsunterschiede von Wahlen zu Herl. Die Populationsunterschiede in Herl lassen sich weder durch die Distanz noch durch Isolationsbarrieren erklären. Alles deutet darauf hin, dass einzelne Bandenmuster mit den spezifischen Landbewirtschaftungsformen korrelieren.
Die Probleme bezüglich der Existenz universeller Funktionen und die universelle Approximation von Funktionen sind von klassischer Natur und spielen eine zentrale Rolle. Folgende Untersuchungen sind Gegenstand dieser Arbeit: Universelle Funktionen, die durch Lückenreihen dargestellt werden, sog. eingeschränkte Universalitäten, mehrfache Universalitäten sowie die universelle Approximation messbarer Funktionen. In einem letzten Kapitel werden abschließend ganzzahlige Cesaro-Mittel untersucht. Hier zeigt sich, dass alle bewiesenen Ergebnisse dieser Arbeit über universelle Approximation im Komplement des abgeschlossenen Einheitskreises durch Teilsummen einer Potenzreihe vom Konvergenzradius 1 auch auf die jeweiligen ganzzahligen Cesaro-Transformierten der Teilsummen übertragbar sind.
Der Forschungsbereich der Systembiologie hat sich in den letzten Jahren mit unvergleichlicher Dynamik entwickelt und sich als interdisziplinäres Feld in den Biowissenschaften etabliert. Die Systembiologie verfolgt hierbei unter anderem das Ziel, biologische Systeme als Ganzes zu betrachten. Die analytische Erfassung der Stoffwechselzwischenprodukte, auch Metaboliten genannt, eröffnet hierbei neue Möglichkeiten. Metaboliten stellen Zwischenprodukte in vivo ablaufender biochemischer Reaktionen dar und stehen in enger Abhängigkeit zu Vorgängen, welche auf der Ebene von Transkriptom und Proteom gesteuert und ermöglicht werden. In dieser Arbeit wurden Zeitreihen von Metabolitkonzentrationen untersucht, welche im Rahmen von Fermentationsexperimenten mit dem nicht-pathogenen Bodenbakterium Corynebacterium glutamicum erfasst worden sind. Die Fermentationsexperimente wurden auf unterschiedlichen Ausgangssubstraten durchgeführt, wobei die Erfassung der Metabolitkonzentration in äquidistanten zeitlichen Abständen gehandhabt wurde. Zur Korrektur von Messfehlern und zur optimalen Vorverarbeitung der Daten wurde ein maßgeschneidertes System der Datenprozessierung entwickelt. Eine unüberwachte Datenstrukturanalyse ergab, dass sich die Metaboliten ihrer zeitlichen Ausprägung nicht uniform oder gar zufällig verhalten, sondern sich in Gruppen unterschiedlichen Prozessverhaltens einordnen lassen. Diese unüberwachte Eingruppierung anhand der in den Zeitreihen vorhandenen Strukturen erlaubte eine erste grundlegende funktionelle Zuordnung der Metaboliten. Weiterhin konnten in den Konzentrationsdaten Strukturen gefunden werden, welche deutliche Übereinstimmungen mit den physiologischen Phasen des bakteriellen Wachstums zeigten. Die Analyse der Metabolomdaten wurde in einem nächsten Schritt durch eine theoretische Betrachtungsweise erweitert. Hierzu wurde der Stoffwechsel von C. glutamicum rechnergestützt modelliert. Zu diesem Zweck wurde eine Genomannotation durchgeführt, mit dem Ziel einen möglichst umfangreichen und qualitativ hochwertigen Katalog über das enzymatische Repertoire von C. glutamicum aus Sequenzinformation abzuleiten. Generiertes Wissen über vorhandene Enzyme wurde in biochemische Reaktionen übersetzt, welche zu Reaktionsnetzwerken zusammengefügt wurden. Die erzeugten Reaktionsnetzwerke wurden unter Verwendung graphentheoretischer Ansätze analysiert. Die integrative Analyse experimenteller und theoretischer Daten ergab, dass sich Eigenschaften von Metabolitzeitreihen deutlich topologischen Merkmalen zuordnen lassen. So zeigt sich beispielsweise, dass ein auffälliger Zusammenhang zwischen der experimentell erfassten Sensitivität im Konzentrationsverlauf eines Metaboliten und seinem theoretischen Verknüpfungsgrad existiert. Weiterhin konnte gezeigt werden, dass eine hochsignifikante Prozessähnlichkeit zwischen Metaboliten sowohl in direkter Nachbarschaft als auch in größeren Reaktionsabständen auftreten kann, jedoch vorzugsweise dann existiert, wenn beide Metaboliten ihrerseits wenige Reaktionspartner haben. Die integrative Datenanalyse wurde in einem weiteren Schritt abermals erweitert, indem Transkriptominformation weiterer Studien integriert wurde. Im Detail wurde in dieser Analyse die Prozessähnlichkeit theoretisch benachbarter Metaboliten des Zentralstoffwechsels in Zusammenschau mit der Transkription enzymkodierender Gene untersucht. Die Ergebnisse zeigten deutlich, dass eine erhöhte Prozessähnlichkeit benachbarter Metaboliten dann existiert, wenn die entsprechenden enzymkodierenden Gene in Abhängigkeit des verwendeten Ausgangssubstrates signifikant exprimiert waren. Somit konnte ein Zusammenhang zwischen der Prozessähnlichkeit benachbarter Metaboliten in Abhängigkeit zur Genexpression als Resultat substratinduzierter Anpassungsvorgänge gezeigt werden. Es konnte folglich im systembiologischen Kontext belegt werden, dass auf der Ebene des Transkriptoms stattfindende Vorgänge sich deutlich bis in die Zeitreiheneigenschaften erfasster Metabolitkonzentrationen durchpausen können. Darüber hinaus zeigte sich, dass die Berechnung paarweiser Prozessähnlichkeiten das Potenzial zur Charakterisierung der zugrundeliegenden Systemeigenschaften besitzt. So ermöglichte die Betrachtung paarweiser Prozessähnlichkeiten aus allen untersuchten Fermentationsexperimenten, signifikante substrat-induzierte Veränderungen als auch invariante Merkmale im Stoffwechsel von C. glutamicum zu detektieren.
Die Frage, wie und in welche Richtung sich Wohlfahrtsstaaten entwickeln ist seit gut zwei Jahrzehnten zentraler Gegenstand der wissenschaftlichen Auseinandersetzung. Insbesondere dem konservativen Wohlfahrtsstaat, zu dem u.a. Österreich und Deutschland gezählt werden, wird dabei eine gewisse Reformresistenz nachgesagt. Besonders bei der Bewältigung neuer sozialer Risiken, wie Pflegebedürftigkeit, zeigt sich, dass der Wohlfahrtsstaat an tradierten sozialstaatlichen Leitprinzipien und kulturellen Leitbildern festhält und damit die tatsächlichen Anforderungen und Bedürfnisse sich wandelnder gesellschaftlicher Verhältnisse vernachlässigt. Auf dieses institutionelle Setting ist auch die Entstehung sogenannter Grauer Pflegemärkte in konservativen Wohlfahrtsstaaten zurückzuführen. Auf diesen Grauen Pflegemärkten bieten Migrantinnen Betreuungs- und Pflegedienstleistungen an, die überwiegend unter Umgehung nationaler arbeits- und sozialrechtlicher Standards erbracht und deshalb als irregulär eingestuft werden. Versuche der Regulierung Grauer Pflegemärkte müssen deshalb beim bisherigen sozialstaatlichen institutionellen Setting der Bereitstellung formeller/informeller Betreuungsdienstleistungen in Frage gestellt werden " aus diesem Grund können sie auch Hinweise auf die Entwicklung von Wohlfahrtsstaaten geben. Gerade hier mangelt es den zahlreichen Analysen zu den Ursachen und Folgen der Entstehung Grauer Pflegemärkte die Regulierungsversuche und -diskurse in einen größeren politikübergreifenden Forschungskontext zu setzen und zu analysieren. Dieses Dissertationsprojekt setzt an dieser Forschungslücke an und geht der Frage nach, was der parlamentarische Diskurs um die Legalisierung der 24-Stunden-Betreuung über die Richtung des wohlfahrtsstaatlichen Wandels konservativer Wohlfahrtsstaaten aussagt. Hierbei werden die wohlfahrtsstaatlichen Entwicklungen der vergangenen zwei Jahrzehnte sowie die sozialpolitischen Leitprinzipien des konservativen Wohlfahrtsstaates in die Untersuchung mit einbezogen. In theoretischer Hinsicht knüpft das Vorhaben an Theorieansätze der Wissenspolitologie und Wissenssoziologie an und verbindet sie mit dem Ansatz der Theorie der sozialen Probleme. Wissenspolitologie erlaubt es wohlfahrtsstaatliche Veränderungsprozesse vor dem Hintergrund von Deutungen, Ideen oder Argumenten, also dem, was politische Akteure sagen, zu analysieren und sehen gleichzeitig hierin den Ausgangspunkt eben jener wohlfahrtsstaatlichen Veränderungsprozesse und Entwicklungen. Der wissenssoziologische Zugang in dieser Arbeit begründet sich über die Beobachtung, dass Graue Pflegemärkte rund zwanzig Jahre unbeachtet von Politik und Gesellschaft existieren konnten. Erst die Problematisierung der Grauen Pflegemärkte bzw. der auf ihnen irregulär erbrachten Betreuungsdienstleistungen ermöglichte einen Diskurs um die Frage, wie und in welchem Rahmen Betreuungsdienstleistungen zukünftig erbracht werden sollen. Insofern kann die Problematisierung als Ausgangspunkt für einen sozialpolitischen Veränderungsprozess gesehen werden. Die Analyse stützt sich dabei auf qualitative Methoden und wertet hierzu wichtige Parlamentsdebatten, Gesetzesentwürfe, Parteiendokumente sowie Zeitungsartikel die im Rahmen der Problematisierung und öffentlichen Diskussion zur Legalisierung der 24-Stunden-Betreuung geführt wurden aus. Ziel dieser Arbeit ist es, den Wandel des konservativen Wohlfahrtsstaates (1) durch das bislang wenig beachtete Politikfeld Betreuungsarbeit und Pflege zu ergänzen und (2) die Analyse um die Bedeutung von Deutungen und sozialpolitischen Leitprinzipien für sozialpolitische Reformprozesse zu erweitern.
Psychotherapien verlaufen selten linear. Ein Ansatz zur Beschreibung plötzlicher Veränderungen sind Sudden Gains und Losses. Dabei handelt es sich um reliable, bedeutsame und relativ stabile Veränderungen in Therapieverlauf, die mithilfe kontinuierlicher Verlaufsmessung zwischen zwei Sitzungen feststellbar sind.rnBislang liegen nur wenige naturalistisch angelegte Studien vor, die das Auftreten von Sudden Gains und Losses an störungsheterogenen Patientengruppen unter praxisnahen Bedingungen untersuchen. Zudem sind bisherige Forschungsbefunde wenig aussagekräftig bezüglich möglicher Ursachen und Moderatoren von Sudden Gains und Losses.rnZwar sprechen bisherige Forschungsbefunde dafür, dass Sudden Gains im Therapieverlauf ein wünschenswertes Behandlungsergebnis begünstigen. Allerdings gibt es nur wenige Hinweise darauf, ob und wie sich diskontinuierliche Therapieverläufe vorhersagen, fördern oder abmildern lassen. Zudem ist wenig über das konkrete psychotherapeutische Geschehen, das den Sudden Gains und Losses vorausgeht, bekannt. Dies aber könnte einen wichtigen Beitrag zum Verständnis psychotherapeutischer Veränderungsprozesse liefern. Auch eröffnen sich dadurch Perspektiven der Optimierung von Therapeuten-Feedback und der Erstellung von Entscheidungsregeln und klinischen Handlungsempfehlungen.rnDie vorliegende Arbeit verbindet Outcome- und Prozessforschung in ambulanten psychotherapeutischen Versorgung, indem zunächst auf Grundlage von Fragebogen-Daten Sudden Gains und Losses in der Symptombelastung und im Therapiefortschritt identifiziert werden. Die so gewonnen Klassifikationen werden verglichen hinsichtlich psychometrischer Erhebungen zu Behandlungsbeginn, zu Behandlungsdauer und Therapierfolg. Die Verteilung diskontinuierlicher Therapieverläufe über verschiedene Diagnosen wird untersucht. Mithilfe von Fragebogen-Daten und Videoanalysen werden Aspekte der therapeutischen Beziehungsgestaltung und das Vorliegen außertherapeutischer Ereignisse in ihrem Zusammenhang mit Diskontinuitäten im Therapieverlauf verglichen.rnDie in dieser Arbeit analysierten Status- und Verlaufsdaten stammen aus der Poliklinischen Psychotherapieambulanz der Universität Trier, wo neben umfangreichen Statuserhebungen auch eine intensive kontinuierliche Verlaufsmessung die Therapien begleitet und standardmäßig alle Therapien audiovisuell aufgezeichnet werden. Die Stichprobe umfasste damit 314 Patienten, die mit bewältigungsorientierter Verhaltenstherapie unter Betonung einer ergänzenden motivationalen, interpersonalen und Ressourcen-Perspektive behandelt wurden. Therapievideos zweier Teilstichproben (ausgewählt anhand von Symptom- bzw. Fortschrittsmaß) wurden mithilfe eines bestehenden Manuals zur Erkennung von Brüchen in der therapeutischen Allianz und deren Reparatur genutzt. Eine weitere Videostichprobe aus einem vorangegangen Forschungsprojekt wurde mit einem selbst zusammengestellten Ratinginventar untersucht.rnEs zeigt sich, dass rund ein Drittel aller Patienten einen diskontinuierlichen Behandlungsverlauf zeigen. Im Fortschrittsmaß lassen sich an der Poliklinischen Psychotherapieambulanz deutlich weniger Sudden Losses feststellen als in einer Vorgängerstudie, in der vor allem Daten aus anderen Ambulanzen genutzt wurden. Es treten keine überzufälligen Häufungen von diskontinuierlichen Therapieverläufen in verschiedenen Störungsgruppen, auch nicht in Hinblick auf Persönlichkeitsakzentuierungen, auf. Insgesamt zeigen Patienten, die Sudden Gains erleben, höhere Belastung und geringeres Wohlbefinden bei Behandlungsbeginn, wobei sich nur Patienten mit Sudden Gains im Symptommaß auch hinsichtlich ihres initialen Symptomstatus als schwerer belastet erweisen. Das Auftreten von Sudden Gains im Fortschrittsmaß und im Symptommaß hängt überzufällig miteinander zusammen, wobei Sudden Gains im Therapiefortschritt plötzlichen Symptomlinderungen häufiger vorausgehen. Sudden Gains hängen ungeachtet des Messinstruments mit größerem Behandlungserfolg zusammen. Mit einem geringeren Behandlungserfolg assoziiert sind Verläufe, die durch plötzliche Symptom-verschärfungen oder ein Auf und Ab im wahrgenommenen Therapiefortschritt assoziiert sind, wobei letzteres lediglich eine nicht signifikante Tendenz beschreibt, die sich jedoch weitgehend mit bisherigen Forschungsbefunden deckt. Dabei nehmen Patienten mit diskontinuierlichen Verläufen gleich welcher Art mehr Therapie in Anspruch als Patienten mit kontinuierlichem Verlauf. rnZudem zeigt sich um Sudden Gains im Therapiefortschritt ein deutlicher Anstieg der therapeutischen Allianz, während diese um Sudden Losses abnimmt. Hingegen sinkt um Sudden Gains in der Symptombelastung die Belastung durch außertherapeutische Ereignisse, während sie um Sudden Losses zunimmt. In den Videoanalysen zeigen sich teils signifikante Unterschiede im Umgang der Therapeuten mit auftretenden Beziehungsbrüchen.rn
Insekten stellen die artenreichste Klasse des Tierreichs dar, wobei viele der Arten bedroht sind. Das liegt neben dem Klimawandel vor allem an der sich in den letzten Jahrzehnten stark verändernden landwirtschaftlichen Nutzung von Flächen, was zu Lebensraumzerstörung und Habitatfragmentierung führt. Die intensivere Bewirtschaftung von Gunstflächen einerseits, sowie die Flächenaufgabe unrentabler Flächen andererseits, hat schwerwiegende Folgen für Insekten, die an extensiv genutzte Kulturflächen angepasst sind, was besonders durch den abnehmenden Anteil an Spezialisten deutlich wird. Eine Region, die aufgrund des kleinräumigen Nebeneinanders von naturnahen Bereichen und anthropogen geschaffenen Kulturflächen (entlang eines großen Höhengradienten) eine wichtige Rolle für die Biodiversität besitzt, speziell als Lebensraum für Spezialisten aller Artengruppen, sind die Alpen. Auch hier stellt der landwirtschaftliche Nutzungswandel ein großes Problem dar, weshalb es einen nachhaltigen Schutz der extensiv genutzten Kulturlebensräume bedarf. Um zu klären, wie eine nachhaltige Berglandwirtschaft zukünftig erhalten bleiben kann, wurden im ersten Kapitel der Promotion die Regelungsrahmen der internationalen, europäischen, nationalen und regionalen Gesetze näher betrachtet. Es zeigt sich, dass der multifunktionale Ansatz der Alpenkonvention und des zugehörigen Protokolls „Berglandwirtschaft“ nur eine geringe normative Konkretisierung aufweisen und daher nicht im ausreichenden Maße in der Gemeinsamen Agrarpolitik der EU sowie im nationalen Recht umgesetzt werden; dadurch können diese einer negativen Entwicklung in der Berglandwirtschaft nicht ausreichend entgegenwirken. Neben diesen Rechtsgrundlagen fehlt es jedoch auch an naturwissenschaftlichen Grundlagen, um die Auswirkungen des landwirtschaftlichen Nutzungswandels auf alpine und arktische Tierarten zu beurteilen. Untersuchungen mit Charakterarten für diese Kulturräume sind somit erforderlich, wobei Tagfalter aufgrund ihrer Sensibilität gegenüber Umweltveränderungen geeignete Indikatoren sind. Deshalb wurden im zweiten Kapitel der Promotion die beiden Schwestertaxa Boloria pales und B. napaea untersucht, die für arktische und / oder alpine Grünlandflächen typisch sind. Die bisher unbekannte Phylogeographie beider Arten wurde daher mit zwei mitochondrialen und zwei Kerngenen über das gesamte europäische Verbreitungsgebiet untersucht. In diesem Zusammenhang die zwischen- und innerartlichen Auftrennungen analysiert und datiert sowie die ihnen unterliegenden Ausbreitungsmuster entschlüsselt. Um spezielle Anpassungsformen an die arktischen und alpinen Lebensräume der Arten zu entschlüsseln und die Folgen der landwirtschaftlichen Nutzungsänderung richtig einordnen zu können, wurden mehrere Populationen beider Arten freilandökologisch untersucht. Während B. pales über den gesamten alpinen Sommer schlüpfen kann und proterandrische Strukturen zeigt, ist B. napaea durch das Fehlen der Proterandie und ein verkürztes Schlupfzeitfenster eher an die kürzeren, arktischen Sommer angepasst. Obwohl beide Arten die gleichen Nektarquellen nutzen, gibt es aufgrund verschiedener Bedürfnisse Unterschiede in den Nektarpräferenzen zwischen den Geschlechtern; auch innerartliche Unterschiede im Dispersionsverhalten wurden gefunden. Populationen beider Arten können eine kurze Beweidung überleben, wobei der Zeitpunkt der Beweidung von Bedeutung ist; eine Nutzung gegen Ende der Schlupfphase hat einen größeren Einfluss auf die Population. Daneben wurde ein deutlicher Unterschied zwischen Flächen mit langfristiger und fehlender Beweidung gefunden. Neben einer geringen Populationsdichte, gibt es auf ganzjährig beweideten Flächen einen größeren Druck, den Lebensraum zu verlassen und die zurückgelegten Flugdistanzen sind hier auch deutlich größer.
Many real-life phenomena, such as computer systems, communication networks, manufacturing systems, supermarket checkout lines as well as structural military systems can be represented by means of queueing models. Looking at queueing models, a controller may considerably improve the system's performance by reducing queue lengths, or increasing the throughput, or diminishing the overhead, whereas in the absence of a controller the system behavior may get quite erratic, exhibiting periods of high load and long queues followed by periods, during which the servers remain idle. The theoretical foundations of controlled queueing systems are led in the theory of Markov, semi-Markov and semi-regenerative decision processes. In this thesis, the essential work consists in designing controlled queueing models and investigation of their optimal control properties for the application in the area of the modern telecommunication systems, which should satisfy the growing demands for quality of service (QoS). For two types of optimization criterion (the model without penalties and with set-up costs), a class of controlled queueing systems is defined. The general case of the queue that forms this class is characterized by a Markov Additive Arrival Process and heterogeneous Phase-Type service time distributions. We show that for these queueing systems the structural properties of optimal control policies, e.g. monotonicity properties and threshold structure, are preserved. Moreover, we show that these systems possess specific properties, e.g. the dependence of optimal policies on the arrival and service statistics. In order to practically use controlled stochastic models, it is necessary to obtain a quick and an effective method to find optimal policies. We present the iteration algorithm which can be successfully used to find an optimal solution in case of a large state space.
Die vorliegende Arbeit ist eine Fallstudie zu Gender- und ethnischen Identitäts- und Differenzkonstruktionen in einer indigenen Gemeinde im Tiefland Ecuadors. Sie sucht folgende Fragen zu beantworten: I. Wie wird Gender im sog. "Oriente" Ecuadors verhandelt und performativ produziert? Existieren Gegenstimmen und Subversionen zu dominanten Genderrollen, und wenn ja, in welcher Form? II. Wie entwerfen die Napo Runa von der sogenannten Peripherie aus ihre nationale und ethnische Identität? Welche Diskurse und praktischen Strategien entwickeln sie im Umgang mit den ethnisch "Anderen" innerhalb des nationalen, ecuadorianischen Kontextes? III. Auf welche Art und Weise sind die Kategorien Gender, Ethnizität und Nation ineinander verwoben? Wie werden Männlichkeiten und Weiblichkeiten in Abgrenzung und Anziehung zum ethnisch "Anderen" konstruiert? Wie werden dabei hegemoniale Gender-, ethnisch-rassische und nationale Diskurse und Praxen von den Runa aufgenommen, verarbeitet und umgedeutet? In der feministisch ausgerichteten Gender-Forschung dienen "nicht-westliche" Beispiele häufig dazu, Alternativen zur euro-amerikanischen binären, heteronormativen Geschlechterordnung aufzuzeigen und letztere somit zu dekonstruieren. Diese Fallstudie zu den Tiefland-Runa in Ecuador kann dazu nur sehr bedingt einen Beitrag leisten: Die Runa bestehen auf der Dichotomie weiblich-männlich, die nach dem biologischen Geschlecht des Kindes bei der Geburt bestimmt wird. Und dennoch erfordert das Herausbilden der "richtigen" Genderidentität aus indigener Perspektive von Kindheit an beständige Formung, was sich besonders in der früh einsetzenden Arbeitsteilung äußert, welche Wissen in den Körper "einschreibt". Wer die gegenderten, alltagspraktischen Techniken in seinen/ihren Körperhabitus übernommen hat, gilt als "richtiger Mann" resp. "richtige Frau", als erwachsen. Der biologischen Reifung des Körpers wird dagegen weniger Bedeutung beigemessen. Explizit ausformuliert wird die für gesellschaftliches Leben als unerlässlich angesehene Komplementarität beider Geschlechter. Die jüngere ethnographische Literatur zum Amazonastiefland tendiert mehrheitlich zur Gleichsetzung dieser Komplementarität mit einem egalitären Geschlechterverhältnis. Meine Daten deuten jedoch auf ein unausgeglichenes Machtverhältnis zwischen Männern und Frauen hin. Eine klare Hierarchie lässt sich in verschiedenen Bereichen ablesen, wie z.B. dem unterschiedlichen Zugang zu politischer Macht, spirituellem Wissen, ökonomischen Möglichkeiten, Arbeitszeitaufteilung, Bewegungsfreiheit und Verfügungsgewalt über den eigenen und fremde Körper. Auch in der Abgrenzung der Runa gegenüber anderen ethnischen Gruppen spielt die Kategorie Geschlecht eine zentrale Rolle. Entlang der Runa-Ideale von geschlechtsspezifischer Arbeitsteilung und Verhaltensidealen werden Grenzen gezogen. Dabei sind es die MestizInnen, welche die wichtigste Rolle in diesem fortwährenden identitätszeichnenden und -versichernden Prozess als direkte und dominanteste Gegenüber spielen. Einerseits sucht man sich gegen mestizische Dominanz und Vereinnahmung durch Betonung der eigenen, ethnisierten Kraft und Stärke und einer "reinen" Heiratspraxis zu erwehren. Andererseits eifert insbesondere die jüngere Generation, auch in ihren Genderentwürfen, einem mestizischen Lebensstil als Inbegriff von "Zivilisation", Modernität, Urbanität und Fortschrittlichkeit nach und versucht, dies besonders durch Bildung zu erreichen. Speziell in den Feminitätsentwürfen der ruralen, traditionellen runa warmi und ihrem Gegenstück "urbane Mestizin" findet dieser Widerspruch seinen Ausdruck. Für Männer stellt das Militär den größten außerdörflichen Einfluss auf jugendliche maskuline Runa-Identitätsbildung dar und drängt diese zusehends in die Richtung eines mestizisch-virilen Männlichkeitsideals, das eng verbunden ist mit einer nationalen Identität als Ecuadorianer. Beruhend auf Viveiros de Castros" Multinaturalismus-Theorie findet man in der wissenschaftlichen Literatur zum Amazonastiefland immer wieder die Darstellung äußerst aufnahmefähiger, flexibler Gesellschaften, welche starren ethnischen Grenzen mit größter Skepsis zu begegnen wüssten. Die Inkorporierung "Fremder", seien sie Affinalverwandte oder ethnisch different, geschehe über die konstante gemeinsame Produktion entlang der gegenderten Arbeitsteilung und den Konsum der gleichen Nahrung, die zusehends und fortlaufend die Unterschiede zwischen Menschen nivellieren. Ich halte diese Einschätzung amazonischen Gemeinschaftslebens für idealisiert. Sie mag partiell richtig sein, jedoch wird "Fremdartigkeit" nie ganz vergessen. Eine gewisse "fremde" Essenz, welcher Art diese auch immer sein möge, bleibt bestehen " unabhängig davon, ob die Betreffenden die geschlechtsspezifischen Runa-Körpertechniken erlernt haben. Es stehen hier m. E. zwei Diskurse nebeneinander.
Im Mittelpunkt dieser Untersuchung steht das Werk des nigerianischen Künstlers Twins Seven-Seven. Er gehört der ersten postkolonialen Künstlergeneration an und zählt zu den nicht akademisch ausgebildeten Künstlern, die innerhalb der aufstrebenden und äußerst vitalen Kunstszene der sechziger Jahre einen Teil der Kunstschaffenden stellten, die vor allem seitens der westlichen Rezeption als besonders attraktiv wahrgenommen wurden. Erstaunlich schnell avancierte Twins Seven-Seven zu einem der bekanntesten Künstler so genannter Neuer Kunst aus Afrika und war in Ausstellungen weltweit vertreten. Erstmalig wurden für diese Untersuchung Bildwerke des Künstlers aus vier Jahrzehnten systematisch zusammengetragen und unter werkimmanenten wie werkübergreifenden Aspekten beschrieben und analysiert. Die spezifische Entstehungssituation des Oeuvres, biographische Aspekte der "Generation Seven-Seven", der Wandel von Arbeitsbedingungen des Künstlers sowie die westliche Rezeption Twins Seven-Sevens waren dabei zentrale Bezugspunkte für die Auseinandersetzung mit dem Oeuvre. Die Untersuchung zeigt wie notwendig und oftmals überraschend im Ergebnis die konkrete objektbezogene Auseinandersetzung mit dem Oeuvre ist und versteht sich deshalb als Erweiterung zum bislang vor allem theoretisch geführten Diskurs zur zeitgenössischen außereuropäischen Kunst. Sie ist mehr als das Portrait eines Pioneers postkolonialen Kunstschaffens, weil sie exemplarisch für die Auseinandersetzung mit einem Oeuvre steht, das nicht in der westlichen Kultur beheimatet ist, aber dennoch vielfältige Beziehungen mit ihr eingeht, was ein bis heute aktuelles Merkmal nicht traditioneller afrikanischer Kunst darstellt.
In light of an alarming increase of sick leave and early retirement because of mental diseases, the public, political and scientific interest in an effective protection of psychological health within organizational context has been increasing for years. More and more the focus is especially on executives who influence the mental health of their employees by leadership behavior within interactions and by designing work tasks and working pro-cesses. In this regard classical and modern, explicit health-oriented leadership approaches provide valuable insights but also neglect the important influence of leadership situation on health-oriented leadership. This situation reduces the explanatory and predictive potential of available health-oriented leadership concepts.
In article 1 a conceptual framework model called Systemic Salutogenic Interaction Model (SSIM) is developed and justified that is based on findings of evidence-based leadership research but also integrates systemic concepts and key elements of the theory of saluto-genesis. The SSIM distinguishes between two levels: Within the primary system of salutogenic interaction salutogenic leadership and employees behavior for the first time are conceptualized as recipocal influence factors that influence each other (level 1). The organizational context is explicitly taken into account as significant factor outside the primary system that effects the behavior of both interaction partners mediated via cognitive pro-cesses (level 2). Due to this focus on interactions und context factors for the first time leadership situation becomes an explicit component of a health-oriented leadership concept.
First of all, article 2 focusses on the systematic analysis of the relative importance health related leadership aspects. For this purpose the TIMP-inventory was developed that records three distinct core-factors of salutogenic leadership (trust, incident management and pressure) which explain more variance of the Work-SoC construct than established general approaches and health-related leadership concepts.
In article 3 the results of a cross-sectional multilevel analysis indicate that the perceived leadership situation significantly explains variance of salutogenic leadership between teams. For the first time, this shows a significant correlation between specific aspects of leadership situation und salutogenic leadership behavior.
Within the frame of a quasi-experimental study (article 4), for the first time, a correlation is shown between salutogenic target-setting processes on executive’s side and the Work-SoC of team members. These results support an essential effect mechanism that is postulated in the SSIM. Furthermore these findings indicate that the SSIM can profitably be used within the context of salutogenic coachings, underlining its practical benefit.
Taken together the empirical findings of this dissertation support the assumption that the new SSIM approach significantly expands the explanatory und predictive potential of the health-oriented leadership concepts so far available. The results also raise a number of new, interesting questions for future research. Furthermore the SSIM broadens the perspective regarding the strategic orientation of human resource and organizational devel-opment. Especially out of the SSIM important guiding principles and innovative concepts for a target-oriented diagnostic und effective interventions can be derived. Thus this dissertation lays the foundation for a coherent, holistic oriented salutogenic leadership research und practice.
Estimation and therefore prediction -- both in traditional statistics and machine learning -- encounters often problems when done on survey data, i.e. on data gathered from a random subset of a finite population. Additional to the stochastic generation of the data in the finite population (based on a superpopulation model), the subsetting represents a second randomization process, and adds further noise to the estimation. The character and impact of the additional noise on the estimation procedure depends on the specific probability law for subsetting, i.e. the survey design. Especially when the design is complex or the population data is not generated by a Gaussian distribution, established methods must be re-thought. Both phenomena can be found in business surveys, and their combined occurrence poses challenges to the estimation.
This work introduces selected topics linked to relevant use cases of business surveys and discusses the role of survey design therein: First, consider micro-econometrics using business surveys. Regression analysis under the peculiarities of non-normal data and complex survey design is discussed. The focus lies on mixed models, which are able to capture unobserved heterogeneity e.g. between economic sectors, when the dependent variable is not conditionally normally distributed. An algorithm for survey-weighted model estimation in this setting is provided and applied to business data.
Second, in official statistics, the classical sampling randomization and estimators for finite population totals are relevant. The variance estimation of estimators for (finite) population totals plays a major role in this framework in order to decide on the reliability of survey data. When the survey design is complex, and the number of variables is large for which an estimated total is required, generalized variance functions are popular for variance estimation. They allow to circumvent cumbersome theoretical design-based variance formulae or computer-intensive resampling. A synthesis of the superpopulation-based motivation and the survey framework is elaborated. To the author's knowledge, such a synthesis is studied for the first time both theoretically and empirically.
Third, the self-organizing map -- an unsupervised machine learning algorithm for data visualization, clustering and even probability estimation -- is introduced. A link to Markov random fields is outlined, which to the author's knowledge has not yet been established, and a density estimator is derived. The latter is evaluated in terms of a Monte-Carlo simulation and then applied to real world business data.
Gegenstand dieser bauarchäologischen Analyse ist die Baugeschichte von Saint-Jacques zu Dieppe von ihrem Beginn bis zur 1543 abgeschlossenen Chorwölbung. Die Untersuchung stützt sich auf eine detaillierte Bauanalyse sowie auf die Auswertung des spärlichen Quellenmaterials, das neue Aufschlüsse zur ursprünglichen Bestimmung des Baus und zum Zeitpunkt der Gründung lieferten. Zu Beginn lieferten Bauten der Niedernormandie mit Caen als Zentrum die Vorbilder und die Anregungen. Nach einem kurzen Aufscheinen der kronländischen Architektur, insonderheit Mello, kommen hauptsächlich Roueneser Kirchenbauten als Inspirationsquellen für die Architektur vor. Die Pfarrkirche Saint-Jacques konnte aufgrund ihrer langjährigen Entstehungsgeschichte nicht als Gesamtkonzept rezipiert werden. Dort wurden aber Teillösungen entwickelt, die in normannischen Nachfolgebauten wiederzufinden sind. Die Rose des Südquerhauses von Saint-Ouen in Rouen stellt das bedeutendste Beispiel dafür dar. Ob der im Bauverlauf zu Beginn des 13. Jahrhundert konstatierte Formen- und Vorbilderwechsel auf die politischen Ereignisse zurückzuführen ist, konnte ebenso wenig für Dieppe wie auch für die Kathedrale Notre-Dame in Rouen beantwortet werden. Außer Zweifel steht, dass Saint-Jacques eine wichtige Rolle für das Verständnis der Entwicklungsgeschichte der normannischen Gotik spielt, indem dort etwa 350 Jahre Baukunst dokumentiert sind.
As the oldest genre in New Zealand literature written in English, poetry always played a significant role in the country's literary debate and was generally considered to be an indicator of the country's cultural advancement. Throughout the 20th century, the question of home, of where it is and what it entails, became a crucial issue in discussing a distinct New Zealand sense of identity and in strengthening its independent cultural status. The establishment of a national sense of home was thus of primary concern, and poetry was regarded as the cultural marker of New Zealand's independence as a nation. In this politically motivated cultural debate, the writing of women was only considered on the margin, largely because their writing was considered too personal and too intimately tied together with daily life, especially domestic life, as to be able to contribute to a larger cultural statement. Such criticism built on gender role stereotypes, like for instance women's roles as mothers and housewives in the 1950s. The strong alignment of women with the home environment is not coincidental but a construct that was, and still is, predominantly shaped by white patriarchal ideology. However, it is in particular women's, both Pakeha and Maori, thorough investigation into the concept of home from within New Zealand's society that bears the potential for revealing a more profound relationship between actual social reality and the poetic imagination. The close reading of selected poems by Ursula Bethell, Mary Stanley, Lauris Edmond and J.C. Sturm in this thesis reveals the ways in which New Zealand women of different backgrounds subvert, transcend and deconstruct such paradigms through their poetic imagination. Bethell, Stanley, Edmond and Sturm position their concepts of home at the crossroads between the public and the private realm. Their poems explore the correspondence between personal and national concerns and assess daily life against the backdrop of New Zealand's social development. Such complex socio-cultural interdependence has not been paid sufficient attention to in literary criticism, largely because a suitable approach to capturing the complexity of this kind of interconnectedness was lacking. With Spaces of Overlap and Spaces of Mediation this thesis presents two critical models that seek to break the tight critical frames in the assessment of poetic concepts of home. Both notions are based on a contextualised approach to the poetic imagination in relation to social reality and seek to carve out the concept of home in its interconnected patterns. Eventually, this approach helps to comprehend the ways in which women's intimate negotiations of home translate into moments of cultural insight and transcend the boundaries of the individual poets' concerns. The focus on women's (re)negotiations of home counteracts the traditionally male perspective on New Zealand poetry and provides a more comprehensive picture of New Zealand's cultural fabric. In highlighting the works of Ursula Bethell, Mary Stanley, Lauris Edmond and J.C. Sturm, this thesis not only emphasises their individual achievements but makes clear that a traditional line of New Zealand women's poetry exists that has been neglected far too long in the estimation of New Zealand's literary history.
Zu Beginn des 18. Jh. setzten sich der Franzose Jean-Baptiste Du Bos (Réflexions critiques sur la poësie et sur la peinture, Paris 1719) und der Italiener Francesco de Ficoroni (Le maschere sceniche e le figure comiche d"antichi romani, Rom 1736) mit der Frage auseinander, ob die antiken Theatermasken die Aufgabe gehabt haben könnten, die Stimme ihrer Träger zu verstärken. Beide kamen zu einem bejahenden Ergebnis, was zur Folge hatte, dass sich viele Handbücher der damaligen Zeit ihrer Meinung anschlossen. Bisweilen wurde dieser Ansicht widersprochen, die Frage offengelassen oder ganz übergangen. Mit der Veröffentlichung von Otto Dingeldeins Aufsatz "Haben die Theatermasken der Alten die Stimme verstärkt?" (Berlin 1890) schien das Interesse an dieser Thematik zu versiegen. Dingeldein erteilte der Stimmverstärkungsfunktion eine entschiedene Absage. Zahlreiche spätere Autoren folgten ihm, indem sie hinsichtlich der akustischen Funktion der Masken lediglich auf seine Abhandlung verwiesen. Kann die Frage der Stimmverstärkung durch die antiken Theatermasken wirklich als vollständig geklärt gelten? Die Tatsache, dass dieses Thema bisher überwiegend aus archäologisch-philologischer Sicht betrachtet wurde, gibt zu Bedenken Anlass, denn eine umfassende Untersuchung desselben erfordert unweigerlich interdisziplinäre Behandlung: Kenntnisse der alten Sprachen, der antiken Kultur (Religion, Theater- und Maskengeschichte, Theater- und Maskenbau), der Akustik sowie insbesondere der menschlichen Stimme. Die bisherigen Beiträge auf diesem Gebiet versuchten zwar teilweise, diesem Anspruch zu genügen, doch fördert eine Einsichtnahme derselben häufig ein unzureichendes phonetisches Verständnis zutage. Aus diesem Grund greift die vorliegende Arbeit die Überprüfung der Verstärkungsfunktion erneut auf, mit dem Ziel, sowohl archäologisch-philologischen als auch phonetischen Erwartungen zu entsprechen. Da die Maske nicht nur zu den Requisiten des antiken Theaters zählte, sondern auch ein Element der griechischen Religion bildete, ist der eigentlichen Untersuchung der Verstärkungsfähigkeit antiker Masken eine Einführung in das antike Theaterwesen und den mit diesem stets verbunden gebliebenen Dionysos-Kult vorangestellt. Ausgehend von einer knappen Skizzierung der antiken Maske (Definition, Aussehen, Handhabung) und ihrer Verankerung im religiösen Bereich (Herkunft) wird zunächst ein Einblick in die Entstehungsgeschichte des griechischen Theaters gegeben (der Gott Dionysos, seine Begleiter, seine Attribute und sein Kult). Danach erfolgt eine Einführung in das dem Kult entsprungene eigentliche Theater, das Theater als staatliche Institution: angefangen bei den attischen Dionysos-Festen, aus denen exemplarisch die Städtischen Dionysien herausgegriffen werden (Festverlauf, -vorbereitung, Ehrungen und Weihgeschenke, Chancengleichheit, Publikum, Schauspieler), über die außerattischen Aufführungen bis hin zu der Geschichte der antiken Maske als theatralischem Requisit, ihrer Entwicklung in der Tragödie und Komödie sowie ihrem Einfluss auf das Mienenspiel. Im Anschluss daran wird das Theaterwesen der Römer vorgestellt, da diese nicht nur das Bühnenspiel, sondern auch den Gebrauch der Maske (nicht aber deren religiöse Komponente) von den Griechen übernommen haben. So weit es möglich war, wurde hierbei versucht, die bei den Griechen besprochenen Aspekte auch bei den Römern Erwähnung finden zu lassen, so dass auch hier der Ursprung des Bühnenspiels den Anfang bildet, gefolgt von den verschiedenen "Spielen" (ludi), unter denen vor allem die "Bühnenspiele" (ludi scaenici) hervorgehoben werden, bis hin zu den Spielbedingungen, Schauspielern und Masken. Den Auftakt für die Untersuchung der akustischen Funktion der antiken Masken macht die Definition der Begriffe "Verstärkung" und "Verständlichkeit", die in der Vergangenheit oft miteinander in Zusammenhang gebracht wurden, deren phonetische Differenzierung für die Analyse der vorliegenden Fragestellung jedoch von erheblicher Wichtigkeit ist. Anschließend werden die für eine Verstärkungsfähigkeit der antiken Masken vorgebrachten Belege vorgestellt, unterteilt in literarische Zeugnisse (Angaben antiker und spätantiker Autoren, aus denen eine Stimmverstärkungsfunktion hervorzugehen scheint), architektonische Beobachtungen (häufig sehr auffallende Mundöffnungen der antiken Masken, für die man eine andere Erklärung als Stimmverstärkung nicht zu finden wusste) sowie pragmatische Überlegungen (Glaube an die Unerlässlichkeit einer künstlichen Stimmverstärkung angesichts der gewaltigen Größe der antiken Freilufttheater und der damit verbundenen Zuschauermassen; befremdende Wirkung maskierter Schauspieler, woraus geschlossen wurde, dass die Masken eine spezielle Bedeutung gehabt haben müssen), deren Gültigkeit detailliert untersucht wird. Als Abschluss werden die Ergebnisse zusammengefasst.
Die vorliegende Arbeit setzt sich die Übertragung und Anwendung des pragma-semantischen Ansatzes der germanistischen Phraseologie auf die englische Sprache zum Ziel, wobei die beiden Konzepte des semantischen Mehrwerts und der Multifunktionalität als dominante Charakteristika im Mittelpunkt stehen. Dazu wird die Verwendung von Phraseologismen in einer bestimmten Textsorte - der englischsprachigen Werbung - untersucht. Ihre besondere Bedeutungsstruktur und ihre kommunikativen Funktionen prädestinieren Phraseologismen als effektvolles sprachliches Gestaltungsmittel für die kreative Verwendung in Texten der Medienwelt. Werbung als wesentlicher Bestandteil nationaler Alltags- und Medienkultur und Phraseologismen als in ihrer Ausprägung spezifisch kulturelle Phänomene weisen viele Gemeinsamkeiten auf, die sich bei beiden in Form von semantischem Mehrwert und Multifunktionalität äußern.
Die Auswirkungen von Rahmenfehlern in Zensen werden bereits seit vielen Jahren untersucht. Eine Methode, um aktuelle Bevölkerungszahlen zu gewinnen, basiert auf Fortschreibung. Wegen Ungenauigkeiten in der Fortschreibung wurden aber auch andere Modelle entwickelt - die capture-recapture-Modelle. Am 29. August 2006 hat die Bundesregierung beschlossen, dass in Deutschland 2011 ein registergestützter Zensus durchgeführt wird. Der Schwerpunkt dieser Dissertation liegt in der Anwendung des capture-recapture-Modelles im deutschen Zensus 2011. Die Dissertation vergleicht den dual system estimator (DSE) und alternative Schätzer (Verallgemeinerter-Regressionsschätzer, Verhältnis-synthetischer Schätzer, Schätzer basierend auf dem Unit-level Modell) für die Schätzung der Anzahl der tatsächlich vorhandenen Personen. Die empirische Untersuchung der Güte der Schätzer basiert auf Monte Carlo Simulationen synthetischer Populationen des Bundeslandes Saarland.
Die Fragestellung der Dissertation lautet: Welche Rolle spielten die politische Repräsentation, ihr Wandel und die Auseinandersetzung um die Teilhabe an ihr für das Entstehen einer gemeinsamen Vorstellung der Nation? Diese Frage kombiniert ein historisches und ein politikwissenschaftliches Interesse. Auf Seiten der Geschichtswissenschaft ist die Dissertation Teil des Forschungsprojekts "Nationenbildung und Demokratie" an der Universität Luxemburg. Auf Seiten der Politikwissenschaft ist sie im Bereich der Politischen Theorie angesiedelt. Im Anschluss an das abgeschlossene Forschungsprojekt "Formen und Funktionsweisen politischer Repräsentation von Fremden und Armen" im Sonderforschungsbereich 600 an der Universität Trier sind dabei primär repräsentationstheoretische Fragen von Interesse. Das Fallbeispiel Luxemburg erlaubt in diesem Zusammenhang einen neuen Blick auf Probleme, die in der Literatur bislang eher im französischen oder angelsächsischen Kontext diskutiert werden. In Auseinandersetzung mit gängigen Theorien der Nation wird in der Arbeit zunächst argumentiert, dass die Nation weder als ethnische Identität noch als Willenseinheit angemessen verstanden werden kann. Diese Überlegungen münden in die These, dass die erfolgreiche Verhandlung von Konflikten auf einer gemeinsamen politischen Bühne die Vorstellung eines gemeinsamen Schicksals mit erzeugen kann. Diese Vermutung wird in einem zweiten Schritt demokratieheoretisch begründet. Das Volk der modernen Demokratie ist kein einheitliches Subjekt, das einfach an die Stelle des alten Souveräns treten könnte. Zum einen verunmöglicht die Tatsache, dass die Demokratie durch multiple Zeitlichkeiten konstituiert ist, ihre Reduktion auf einen ursprünglichen Moment der Präsenz. Zum anderen ist der Demos selbst von Differenzen durchzogen. Doch indem gesellschaftliche Konflikte auf der Bühne der Macht symbolisch dargestellt werden, verlagert Repräsentation den Konflikt in ein politisches Kontinuum, auf das alle Bürger in gleicher Weise bezogen sind. Die Bürger erfahren, beurteilen und unterstellen sich wechselseitig als Teilnehmer an demselben Gemeinwesen, auch wenn sie unterschiedlicher Meinung sind. Diese These wird in einem dritten Schritt anhand einer Genealogie der verschiedenen Versuche " von Hobbes und Rousseau über Sieyès, Hegel und Proudhon bis zu Carl Schmitt und Hans Kelsen ", den Demos und den korrekten Modus seiner Vergegenwärtigung zu identifizieren, historisch fundiert. Das empirische Fallbeispiel steht im Zentrum des zweiten Teils der Arbeit. Zunächst wird das Entstehen einer landesweiten politischen Öffentlichkeit herausgearbeitet. In der Folge der Protest- und Petitionsbewegung von 1848 wurde das Parlament zur politischen Bühne, auf der vor aller Augen öffentliche Angelegenheiten diskutiert wurden. Die anschließende Entwicklung hin zum allgemeinen Wahlrecht führte zu einem qualitativen Wandel des Politischen. Das Wahlrecht nahm den Charakter eines Rechts an, das jedem Staatsbürger als solchem zustand, die einzig legitime Grenze des neuen Raums der Gleichheit wurde durch die Nation gestiftet. Die vorgestellte Gemeinschaft der Staatsbürger verselbstständigte sich dabei auch gegenüber dem Fürsten und trat zuletzt an dessen Stelle. Statt als über der Gesellschaft und den Bürgern thronende Hüterin der staatlichen Einheit wurde die Monarchie seit 1918 im Namen des Volkswillens begründet. Doch in demselben Augenblick, in dem das Volk als Gemeinschaft der Gleichen zum neuen Souverän erklärt wurde, wurden auch gesellschaftliche Konfliktlinien politisiert und durch ein landesweites Parteiensystem dauerhaft abgebildet. Durch die repräsentative Politisierung des Konflikts wurde die Frage, was denn das Gemeinsame sei, das sich durch die verschiedenen Teilungen hindurch zeige, dramatisiert. Anhand von zwei Fallbeispielen wird in der Arbeit gezeigt, wie auch diejenigen, die sich als Repräsentanten der Arbeiterklasse verstanden, im Kampf um Hegemonie auf eine nationale Rhetorik zurückgriffen und ein Narrativ der Nation als Solidaritätsgemeinschaft entwarfen. Zusammenfassend kommt die Dissertation zum Ergebnis, dass die Erfahrung der Politisierung und der öffentlichen Auseinandersetzung um politische Teilhabe innerhalb bestehender, ursprünglich aber keineswegs national oder demokratisch legitimierter Institutionen maßgeblich dazu beitrug, dass ein großer Teil der Bevölkerung Luxemburgs sich nach und nach als Teil einer vorgestellten Gemeinschaft verstand.