Filtern
Erscheinungsjahr
- 2024 (25)
- 2023 (61)
- 2022 (80)
- 2021 (75)
- 2020 (90)
- 2019 (84)
- 2018 (77)
- 2017 (50)
- 2016 (39)
- 2015 (36)
- 2014 (45)
- 2013 (47)
- 2012 (56)
- 2011 (49)
- 2010 (55)
- 2009 (49)
- 2008 (42)
- 2007 (61)
- 2006 (45)
- 2005 (52)
- 2004 (62)
- 2003 (54)
- 2002 (45)
- 2001 (30)
- 2000 (28)
- 1999 (11)
- 1998 (6)
- 1997 (4)
- 1996 (6)
- 1995 (8)
- 1994 (3)
- 1993 (2)
- 1992 (3)
- 1991 (1)
- 1990 (2)
- 1989 (2)
- 1988 (2)
- 1987 (2)
- 1986 (3)
- 1985 (1)
- 1984 (4)
- 1983 (2)
- 1980 (3)
- 1979 (1)
- 1978 (1)
- 1976 (1)
- 1973 (1)
- 1972 (3)
- 1970 (4)
- 1969 (1)
- (31)
Dokumenttyp
- Dissertation (830)
- Wissenschaftlicher Artikel (219)
- Buch (Monographie) (113)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (108)
- Arbeitspapier (62)
- Teil eines Buches (Kapitel) (22)
- Ausgabe (Heft) zu einer Zeitschrift (22)
- Konferenzveröffentlichung (17)
- Sonstiges (15)
- Rezension (10)
Sprache
- Deutsch (838)
- Englisch (516)
- Französisch (75)
- Mehrsprachig (15)
- Russisch (1)
Volltext vorhanden
- ja (1445) (entfernen)
Schlagworte
- Deutschland (82)
- Luxemburg (52)
- Stress (40)
- Schule (37)
- Schüler (33)
- Politischer Unterricht (29)
- Modellierung (28)
- Fernerkundung (25)
- Geschichte (24)
- Demokratie (23)
Institut
- Psychologie (212)
- Raum- und Umweltwissenschaften (212)
- Politikwissenschaft (132)
- Universitätsbibliothek (81)
- Rechtswissenschaft (77)
- Wirtschaftswissenschaften (66)
- Mathematik (65)
- Fachbereich 4 (57)
- Medienwissenschaft (57)
- Fachbereich 6 (50)
Die in einem Einzugsgebiet herrschende räumliche Inhomogenität wird im Wasserhaushaltsmodell LARSIM (Large Area Runoff Simulation Modell) in den einzelnen Modellkomponenten unterschiedlich stark berücksichtigt. Insbesondere die räumliche Verteilung der Abflussprozesse wurde bisher nicht berücksichtigt, weil keine flächenhaft verfügbare Information über eben diese Verteilung vorlag. Für das Einzugsgebiet der Nahe liegt nun seit dem Jahr 2007 eine Bodenhydrologische Karte vor, die flächenhaft den bei ausreichenden Niederschlägen zu erwartenden Abflussprozess ausweist. In der vorliegenden Dissertation wird die Nutzung dieser Prozessinformation bei der Parametrisierung des Bodenmoduls von LARSIM beschrieben: Für drei Prozessgruppen " gesättigter Oberflächenabfluss, Abfluss im Boden, Tiefenversickerung " werden mittels zweier neuer Parameter P_Bilanz und P_Dämpfung inhomogene Parametersätze aus empirisch ermittelten Kennfeldern gewählt, um die Prozessinformation bei der Abflussbildung im Modell zu berücksichtigen. Für die Abbildung der Prozessintensitäten in den Gebietsspeichern werden zwei unterschiedliche Ansätze vorgestellt, die sich in ihrer Komplexität unterscheiden. In der ersten Variante werden fünf Oberflächenabflussspeicher für unterschiedlich schnell reagierende Prozessgruppen eingeführt, in der zweiten Variante wird der erste Ansatz mit dem ursprünglichen Schwellenwert zur Aufteilung in schnelle und langsame Oberflächenabflusskomponenten kombiniert. Es wird gezeigt, dass die Parametrisierung mit den beiden neuen Parametern P_Bilanz und P_Dämpfung einfacher, effektiver und effizienter ist, da beide Parameter minimale Interaktionen aufweisen und in ihrer Wirkungsweise leicht verständlich sind, was auf die ursprünglichen Bodenparameter nicht zutrifft. Es wird ein Arbeitsfluss vorgestellt, in dem die neuen Parameter in Kombination mit Signature Measures und unterschiedlichen Darstellungen der Abflussdauerlinie gemeinsam genutzt werden können, um in wenigen Arbeitsschritten eine Anpassung des Modells in neuen Einzugsgebieten vorzunehmen. Die Methode wurde durch Anwendung in drei Gebieten validiert. In den drei Gebieten konnte in wenigen Kalibrierungsschritten die Simulationsgüte der ursprünglichen Version erreicht und " je nach Zielsetzung " übertroffen werden. Hinsichtlich der Gütemaße zeigte sich bei der Variante, in der die Gebietsspeicher nicht modifiziert wurden, aber kein eindeutiges Bild, ob die ursprüngliche Parametrisierung oder die neue grundsätzlich überlegen ist. Neben der Auswertung der Validierungszeiträume wurden dabei auch die simulierten Ganglinien in geschachtelten Gebieten betrachtet. Die Version, in der die Gebietsspeicher modifiziert wurden, zeigt hingegen vor allem im Validierungszeitraum tendenziell bessere Simulationsergebnisse. Hinsichtlich der Abbildung der Abflussprozesse ist das neue Verfahren dem alten deutlich überlegen: Es resultiert in plausiblen Anteilen von Abflusskomponenten, deren Verteilung und Abhängigkeit von Speicherkapazitäten, Landnutzungen und Eingangsdaten systematisch ausgewertet wurden. Es zeigte sich, dass vor allem die Speicherkapazität des Bodens einen signifikanten Einfluss hat, der aber im hydrologischen Sinn richtig und hinsichtlich der Modellannahmen plausibel ist. Es wird deutlich gemacht, dass die Einschränkungen, die sich ergeben haben, aufgrund der Modellannahmen zustande kommen, und dass ohne die Änderung dieser Annahmen keine bessere Abbildung möglich ist. Für die Zukunft werden Möglichkeiten aufgezeigt, wie die Annahmen modifiziert werden können, um eine bessere Abbildung zu erzielen, indem der bereits bestehende Infiltrationsansatz in die Methode integriert wird.
Today obesity has been recognized as a disease. Evidence suggests that obesity often has Genetic, environmental, psychological and other factors. Growing evidence points to heredity as a strong determining factor of obesity. The characterization of uncoupling proteins (UCP) represents a major breakthrough of genetic factors towards understanding the molecular basis for energy expenditure and therefore likely to have important implication for the cause and treatment of human obesity. UCPs as mitochondrial anion carriers which creates a pathway that allows dissipation of the proton electrochemical gradient therefore which when deregulated are key risk factors in the development of obesity and other eating disorders. In order to better understand the roles of both UCP2 and UCP3 which considered as prime candidate genes involved in the pathogenesis of obesity, this study elucidate (1) Genomic organization: The human UCP2 (3) gene spans over 8.7 kb (7.5 kb) distributed on 8 (7) exons. Three UCP genes may have evolved from a common ancestor or are the result from gene duplication events. Two mRNA transcripts are generated from hUCP3 gene, the long and short form of hUCP3 is differing by the presence or absence of 37 amino acid residues at the C-terminus. (2) Mutational analysis revealed a mutation in exon 4 of hUCP2 resulting in the substitution of an alanine by a valine at codon 55 and an insertion polymorphism in exon 8 consisted of a 45 bp repeat located 150 bp downstream of the stop codon in the 3'-UTR. The allele frequencies of both polymorphisms were not significantly elevated in a subgroup of children characterized by low Resting Metabolic Rates (RMR). (3) Promoter Analysis showed that the promoter region of hUCP2 lacks a classical TATA or CAAT box. Functional characterization of hUCP2 promoter showed that minimal promoter activity was observed within 65 bp upstream of the transcriptional start site. 75 bp further upstream a strong cis-acting regulatory element was identified which significantly enhanced basal promoter activity. The regulation of human UCP2 gene expression involves complex interactions among positive and negative regulatory elements. the 5"-flanking region of the hUCP3 gene were characterized in which contains both TATA and CAAT boxes as well as consensus motifs for PPRE, TRE, CRE and muscle-specific MyoD and MEF2 sites. Functional characterization identified a cis-acting negative regulatory element between - 2983 and -982 while the region between -982 and -284 showed greatly increased basal promoter activity suggesting the presence of a strong enhancer element. Promoter activity was particularly enhanced in the murine skeletal muscle cell line C2C12 reflecting the tissue-selective expression pattern of UCP3.
The parameterization of ocean/sea-ice/atmosphere interaction processes is a challenge for regional climate models (RCMs) of the Arctic, particularly for wintertime conditions, when small fractions of thin ice or open water cause strong modifications of the boundary layer. Thus, the treatment of sea ice and sub-grid flux parameterizations in RCMs is of crucial importance. However, verification data sets over sea ice for wintertime conditions are rare. In the present paper, data of the ship-based experiment Transarktika 2019 during the end of the Arctic winter for thick one-year ice conditions are presented. The data are used for the verification of the regional climate model COSMO-CLM (CCLM). In addition, Moderate Resolution Imaging Spectroradiometer (MODIS) data are used for the comparison of ice surface temperature (IST) simulations of the CCLM sea ice model. CCLM is used in a forecast mode (nested in ERA5) for the Norwegian and Barents Seas with 5 km resolution and is run with different configurations of the sea ice model and sub-grid flux parameterizations. The use of a new set of parameterizations yields improved results for the comparisons with in-situ data. Comparisons with MODIS IST allow for a verification over large areas and show also a good performance of CCLM. The comparison with twice-daily radiosonde ascents during Transarktika 2019, hourly microwave water vapor measurements of first 5 km in the atmosphere and hourly temperature profiler data show a very good representation of the temperature, humidity and wind structure of the whole troposphere for CCLM.
In 2014/2015 a one-year field campaign at the Tiksi observatory in the Laptev Sea area was carried out using Sound Detection and Ranging/Radio Acoustic Sounding System (SODAR/RASS) measurements to investigate the atmospheric boundary layer (ABL) with a focus on low-level jets (LLJ) during the winter season. In addition to SODAR/RASS-derived vertical profiles of temperature, wind speed and direction, a suite of complementary measurements at the Tiksi observatory was available. Data of a regional atmospheric model were used to put the local data into the synoptic context. Two case studies of LLJ events are presented. The statistics of LLJs for six months show that in about 23% of all profiles LLJs were present with a mean jet speed and height of about 7 m/s and 240 m, respectively. In 3.4% of all profiles LLJs exceeding 10 m/s occurred. The main driving mechanism for LLJs seems to be the baroclinicity, since no inertial oscillations were found. LLJs with heights below 200 m are likely influenced by local topography.
The first part of this thesis offers a theoretical foundation for the analysis of Tolkien- texts. Each of the three fields of interest, nostalgia, utopia, and the pastoral tradition, are introduced in separate chapters. Special attention is given to the interrelations of the three fields. Their history, meaning, and functions are shortly elaborated and definitions applicable to their occurrences in fantasy texts are reached. In doing so, new categories and terms are proposed that enable a detailed analysis of the nostalgic, pastoral, and utopian properties of Tolkien- works. As nostalgia and utopia are important ingredients of pastoral writing, they are each introduced first and are finally related to a definition of the pastoral. The main part of this thesis applies the definitions and insights reached in the theoretical chapters to Tolkien- The Lord of the Rings and The Hobbit. This part is divided into three main sections. Again, the order of the chapters follows the line of argumentation. The first section contains the analysis of pastoral depictions in the two texts. Given the separation of the pastoral into different categories, which were outlined in the theoretical part, the chapters examine bucolic and georgic pastoral creatures and landscapes before turning to non-pastoral depictions, which are sub-divided into the antipastoral and the unpastoral. A separate chapter looks at the bucolic and georgic pastoral- positions and functions in the primary texts. This analysis is followed by a chapter on men- special position in Tolkien- mythology, as their depiction reveals their potential to be both pastoral and antipastoral. The second section of the analytical part is concerned with the role of nostalgia within pastoral culture. The focus is laid on the meaning and function of the different kinds of nostalgia, which were defined in the theoretical part, detectable in bucolic and georgic pastoral cultures. Finally, the analysis turns to the utopian potential of Tolkien- mythology. Again, the focus lies on the pastoral and non-pastoral creatures. Their utopian and dystopian visions are presented and contrasted. This way, different kinds of utopian vision are detected and set in relation to the overall dystopian fate of Tolkien- fictional universe. Drawing on the results of this thesis and on Terry Gifford- ecocritical work, the final chapter argues that Tolkien- texts can be defined as modern pastorals. The connection between Tolkien- work and pastoral literature made explicit in the analysis is thus cemented in generic terms. The conclusion presents a summary of the central findings of this thesis and introduces questions for further study.
Let K be a compact subset of the complex plane. Then the family of polynomials P is dense in A(K), the space of all continuous functions on K that are holomorphic on the interior of K, endowed with the uniform norm, if and only if the complement of K is connected. This is the statement of Mergelyan's celebrated theorem.
There are, however, situations where not all polynomials are required to approximate every f ϵ A(K) but where there are strict subspaces of P that are still dense in A(K). If, for example, K is a singleton, then the subspace of all constant polynomials is dense in A(K). On the other hand, if 0 is an interior point of K, then no strict subspace of P can be dense in A(K).
In between these extreme cases, the situation is much more complicated. It turns out that it is mostly determined by the geometry of K and its location in the complex plane which subspaces of P are dense in A(K). In Chapter 1, we give an overview of the known results.
Our first main theorem, which we will give in Chapter 3, deals with the case where the origin is not an interior point of K. We will show that if K is a compact set with connected complement and if 0 is not an interior point of K, then any subspace Q ⊂ P which contains the constant functions and all but finitely many monomials is dense in A(K).
There is a close connection between lacunary approximation and the theory of universality. At the end of Chapter 3, we will illustrate this connection by applying the above result to prove the existence of certain universal power series. To be specific, if K is a compact set with connected complement, if 0 is a boundary point of K and if A_0(K) denotes the subspace of A(K) of those functions that satisfy f(0) = 0, then there exists an A_0(K)-universal formal power series s, where A_0(K)-universal means that the family of partial sums of s forms a dense subset of A_0(K).
In addition, we will show that no formal power series is simultaneously universal for all such K.
The condition on the subspace Q in the main result of Chapter 3 is quite restrictive, but this should not be too surprising: The result applies to the largest possible class of compact sets.
In Chapter 4, we impose a further restriction on the compact sets under consideration, and this will allow us to weaken the condition on the subspace Q. The result that we are going to give is similar to one of those presented in the first chapter, namely the one due to Anderson. In his article “Müntz-Szasz type approximation and the angular growth of lacunary integral functions”, he gives a criterion for a subspace Q of P to be dense in A(K) where K is entirely contained in some closed sector with vertex at the origin.
We will consider compact sets with connected complement that are -- with the possible exception of the origin -- entirely contained in some open sector with vertex at the origin. What we are going to show is that if K\{0} is contained in an open sector of opening angle 2α and if Λ is some subset of the nonnegative integers, then the span of {z → z^λ : λ ϵ Λ} is dense in A(K) whenever 0 ϵ Λ and some Müntz-type condition is satisfied.
Conversely, we will show that if a similar condition is not satisfied, then we can always find a compact set K with connected complement such that K\{0} is contained in some open sector of opening angle 2α and such that the span of {z → z^λ : λ ϵ Λ} fails to be dense in A(K).
This work studies typical mathematical challenges occurring in the modeling and simulation of manufacturing processes of paper or industrial textiles. In particular, we consider three topics: approximate models for the motion of small inertial particles in an incompressible Newtonian fluid, effective macroscopic approximations for a dilute particle suspension contained in a bounded domain accounting for a non-uniform particle distribution and particle inertia, and possibilities for a reduction of computational cost in the simulations of slender elastic fibers moving in a turbulent fluid flow.
We consider the full particle-fluid interface problem given in terms of the Navier-Stokes equations coupled to momentum equations of a small rigid body. By choosing an appropriate asymptotic scaling for the particle-fluid density ratio and using an asymptotic expansion for the solution components, we derive approximations of the original interface problem. The approximate systems differ according to the chosen scaling of the density ratio in their physical behavior allowing the characterization of different inertial regimes.
We extend the asymptotic approach to the case of many particles suspended in a Newtonian fluid. Under specific assumptions for the combination of particle size and particle number, we derive asymptotic approximations of this system. The approximate systems describe the particle motion which allows to use a mean field approach in order to formulate the continuity equation for the particle probability density function. The coupling of the latter with the approximation for the fluid momentum equation then reveals a macroscopic suspension description which accounts for non-uniform particle distributions in space and for small particle inertia.
A slender fiber in a turbulent air flow can be modeled as a stochastic inextensible one-dimensionally parametrized Kirchhoff beam, i.e., by a stochastic partial differential algebraic equation. Its simulations involve the solution of large non-linear systems of equations by Newton's method. In order to decrease the computational time, we explore different methods for the estimation of the solution. Additionally, we apply smoothing techniques to the Wiener Process in order to regularize the stochastic force driving the fiber, exploring their respective impact on the solution and performance. We also explore the applicability of the Wiener chaos expansion as a solution technique for the simulation of the fiber dynamics.
Les formes de démocratie directe contribuent à mettre en oeuvre des processus de décision et de développement scolaires et sociaux au-delà des possibilités de participation directe des élèves et des enseignant·e·s ancrées dans le droit scolaire. Elles ouvrent des perspectives pour façonner la culture de l’école et favoriser l’auto-efficacité indépendamment du mandat ou de la fonction. Les élèves peuvent discuter progressivement des hiérarchies traditionnelles de l’école en tant qu’institution et vivre la participation directe comme une opportunité de développement individuel et institutionnel. Le concept de la Just Community et les processus de négociation sont des méthodes d’éducation inspirantes qui permettent de façonner le développement de l’école dans son ensemble par un processus de démocratie directe commun et de promouvoir l’autonomisation.
In this thesis we study structure-preserving model reduction methods for the efficient and reliable approximation of dynamical systems. A major focus is the approximation of a nonlinear flow problem on networks, which can, e.g., be used to describe gas network systems. Our proposed approximation framework guarantees so-called port-Hamiltonian structure and is general enough to be realizable by projection-based model order reduction combined with complexity reduction. We divide the discussion of the flow problem into two parts, one concerned with the linear damped wave equation and the other one with the general nonlinear flow problem on networks.
The study around the linear damped wave equation relies on a Galerkin framework, which allows for convenient network generalizations. Notable contributions of this part are the profound analysis of the algebraic setting after space-discretization in relation to the infinite dimensional setting and its implications for model reduction. In particular, this includes the discussion of differential-algebraic structures associated to the network-character of our problem and the derivation of compatibility conditions related to fundamental physical properties. Amongst the different model reduction techniques, we consider the moment matching method to be a particularly well-suited choice in our framework.
The Galerkin framework is then appropriately extended to our general nonlinear flow problem. Crucial supplementary concepts are required for the analysis, such as the partial Legendre transform and a more careful discussion of the underlying energy-based modeling. The preservation of the port-Hamiltonian structure after the model-order- and complexity-reduction-step represents a major focus of this work. Similar as in the analysis of the model order reduction, compatibility conditions play a crucial role in the analysis of our complexity reduction, which relies on a quadrature-type ansatz. Furthermore, energy-stable time-discretization schemes are derived for our port-Hamiltonian approximations, as structure-preserving methods from literature are not applicable due to our rather unconventional parametrization of the solution.
Apart from the port-Hamiltonian approximation of the flow problem, another topic of this thesis is the derivation of a new extension of moment matching methods from linear systems to quadratic-bilinear systems. Most system-theoretic reduction methods for nonlinear systems rely on multivariate frequency representations. Our approach instead uses univariate frequency representations tailored towards user-defined families of inputs. Then moment matching corresponds to a one-dimensional interpolation problem rather than to a multi-dimensional interpolation as for the multivariate approaches, i.e., it involves fewer interpolation frequencies to be chosen. The notion of signal-generator-driven systems, variational expansions of the resulting autonomous systems as well as the derivation of convenient tensor-structured approximation conditions are the main ingredients of this part. Notably, our approach allows for the incorporation of general input relations in the state equations, not only affine-linear ones as in existing system-theoretic methods.
Traditionell werden Zufallsstichprobenerhebungen so geplant, dass nationale Statistiken zuverlässig mit einer adäquaten Präzision geschätzt werden können. Hierbei kommen vorrangig designbasierte, Modell-unterstützte (engl. model assisted) Schätzmethoden zur Anwendung, die überwiegend auf asymptotischen Eigenschaften beruhen. Für kleinere Stichprobenumfänge, wie man sie für Small Areas (Domains bzw. Subpopulationen) antrifft, eignen sich diese Schätzmethoden eher nicht, weswegen für diese Anwendung spezielle modellbasierte Small Area-Schätzverfahren entwickelt wurden. Letztere können zwar Verzerrungen aufweisen, besitzen jedoch häufig einen kleineren mittleren quadratischen Fehler der Schätzung als dies für designbasierte Schätzer der Fall ist. Den Modell-unterstützten und modellbasierten Methoden ist gemeinsam, dass sie auf statistischen Modellen beruhen; allerdings in unterschiedlichem Ausmass. Modell-unterstützte Verfahren sind in der Regel so konstruiert, dass der Beitrag des Modells bei sehr grossen Stichprobenumfängen gering ist (bei einer Grenzwertbetrachtung sogar wegfällt). Bei modellbasierten Methoden nimmt das Modell immer eine tragende Rolle ein, unabhängig vom Stichprobenumfang. Diese Überlegungen veranschaulichen, dass das unterstellte Modell, präziser formuliert, die Güte der Modellierung für die Qualität der Small Area-Statistik von massgeblicher Bedeutung ist. Wenn es nicht gelingt, die empirischen Daten durch ein passendes Modell zu beschreiben und mit den entsprechenden Methoden zu schätzen, dann können massive Verzerrungen und / oder ineffiziente Schätzungen resultieren.
Die vorliegende Arbeit beschäftigt sich mit der zentralen Frage der Robustheit von Small Area-Schätzverfahren. Als robust werden statistische Methoden dann bezeichnet, wenn sie eine beschränkte Einflussfunktion und einen möglichst hohen Bruchpunkt haben. Vereinfacht gesprochen zeichnen sich robuste Verfahren dadurch aus, dass sie nur unwesentlich durch Ausreisser und andere Anomalien in den Daten beeinflusst werden. Die Untersuchung zur Robustheit konzentriert sich auf die folgenden Modelle bzw. Schätzmethoden:
i) modellbasierte Schätzer für das Fay-Herriot-Modell (Fay und Herrot, 1979, J. Amer. Statist. Assoc.) und das elementare Unit-Level-Modell (vgl. Battese et al., 1988, J. Amer. Statist. Assoc.).
ii) direkte, Modell-unterstützte Schätzer unter der Annahme eines linearen Regressionsmodells.
Das Unit-Level-Modell zur Mittelwertschätzung beruht auf einem linearen gemischten Gauss'schen Modell (engl. mixed linear model, MLM) mit blockdiagonaler Kovarianzmatrix. Im Gegensatz zu bspw. einem multiplen linearen Regressionsmodell, besitzen MLM-Modelle keine nennenswerten Invarianzeigenschaften, so dass eine Kontamination der abhängigen Variablen unvermeidbar zu verzerrten Parameterschätzungen führt. Für die Maximum-Likelihood-Methode kann die resultierende Verzerrung nahezu beliebig groß werden. Aus diesem Grund haben Richardson und Welsh (1995, Biometrics) die robusten Schätzmethoden RML 1 und RML 2 entwickelt, die bei kontaminierten Daten nur eine geringe Verzerrung aufweisen und wesentlich effizienter sind als die Maximum-Likelihood-Methode. Eine Abwandlung von Methode RML 2 wurde Sinha und Rao (2009, Canad. J. Statist.) für die robuste Schätzung von Unit-Level-Modellen vorgeschlagen. Allerdings erweisen sich die gebräuchlichen numerischen Verfahren zur Berechnung der RML-2-Methode (dies gilt auch für den Vorschlag von Sinha und Rao) als notorisch unzuverlässig. In dieser Arbeit werden zuerst die Konvergenzprobleme der bestehenden Verfahren erörtert und anschließend ein numerisches Verfahren vorgeschlagen, das sich durch wesentlich bessere numerische Eigenschaften auszeichnet. Schließlich wird das vorgeschlagene Schätzverfahren im Rahmen einer Simulationsstudie untersucht und anhand eines empirischen Beispiels zur Schätzung von oberirdischer Biomasse in norwegischen Kommunen illustriert.
Das Modell von Fay-Herriot kann als Spezialfall eines MLM mit blockdiagonaler Kovarianzmatrix aufgefasst werden, obwohl die Varianzen des Zufallseffekts für die Small Areas nicht geschätzt werden müssen, sondern als bereits bekannte Größen betrachtet werden. Diese Eigenschaft kann man sich nun zunutze machen, um die von Sinha und Rao (2009) vorgeschlagene Robustifizierung des Unit-Level-Modells direkt auf das Fay-Herriot Model zu übertragen. In der vorliegenden Arbeit wird jedoch ein alternativer Vorschlag erarbeitet, der von der folgenden Beobachtung ausgeht: Fay und Herriot (1979) haben ihr Modell als Verallgemeinerung des James-Stein-Schätzers motiviert, wobei sie sich einen empirischen Bayes-Ansatz zunutze machen. Wir greifen diese Motivation des Problems auf und formulieren ein analoges robustes Bayes'sches Verfahren. Wählt man nun in der robusten Bayes'schen Problemformulierung die ungünstigste Verteilung (engl. least favorable distribution) von Huber (1964, Ann. Math. Statist.) als A-priori-Verteilung für die Lokationswerte der Small Areas, dann resultiert als Bayes-Schätzer [=Schätzer mit dem kleinsten Bayes-Risk] die Limited-Translation-Rule (LTR) von Efron und Morris (1971, J. Amer. Statist. Assoc.). Im Kontext der frequentistischen Statistik kann die Limited-Translation-Rule nicht verwendet werden, weil sie (als Bayes-Schätzer) auf unbekannten Parametern beruht. Die unbekannten Parameter können jedoch nach dem empirischen Bayes-Ansatz an der Randverteilung der abhängigen Variablen geschätzt werden. Hierbei gilt es zu beachten (und dies wurde in der Literatur vernachlässigt), dass die Randverteilung unter der ungünstigsten A-priori-Verteilung nicht einer Normalverteilung entspricht, sondern durch die ungünstigste Verteilung nach Huber (1964) beschrieben wird. Es ist nun nicht weiter erstaunlich, dass es sich bei den Maximum-Likelihood-Schätzern von Regressionskoeffizienten und Modellvarianz unter der Randverteilung um M-Schätzer mit der Huber'schen psi-Funktion handelt.
Unsere theoriegeleitete Herleitung von robusten Schätzern zum Fay-Herriot-Modell zeigt auf, dass bei kontaminierten Daten die geschätzte LTR (mit Parameterschätzungen nach der M-Schätzmethodik) optimal ist und, dass die LTR ein integraler Bestandteil der Schätzmethodik ist (und nicht als ``Zusatz'' o.Ä. zu betrachten ist, wie dies andernorts getan wird). Die vorgeschlagenen M-Schätzer sind robust bei Vorliegen von atypischen Small Areas (Ausreissern), wie dies auch die Simulations- und Fallstudien zeigen. Um auch Robustheit bei Vorkommen von einflussreichen Beobachtungen in den unabhängigen Variablen zu erzielen, wurden verallgemeinerte M-Schätzer (engl. generalized M-estimator) für das Fay-Herriot-Modell entwickelt.
The main achievement of this thesis is an analysis of the accuracy of computations with Loader's algorithm for the binomial density. This analysis in later progress of work could be used for a theorem about the numerical accuracy of algorithms that compute rectangle probabilities for scan statistics of a multinomially distributed random variable. An example that shall illustrate the practical use of probabilities for scan statistics is the following, which arises in epidemiology: Let n patients arrive at a clinic in d = 365 days, each of the patients with probability 1/d at each of these d days and all patients independently from each other. The knowledge of the probability, that there exist 3 adjacent days, in which together more than k patients arrive, helps deciding, after observing data, if there is a cluster which we would not suspect to have occurred randomly but for which we suspect there must be a reason. Formally, this epidemiological example can be described by a multinomial model. As multinomially distributed random variables are examples of Markov increments, which is a fact already used implicitly by Corrado (2011) to compute the distribution function of the multinomial maximum, we can use a generalized version of Corrado's Algorithm to compute the probability described in our example. To compute its result, the algorithm for rectangle probabilities for Markov increments always uses transition probabilities of the corresponding Markov Chain. In the multinomial case, the transition probabilities of the corresponding Markov Chain are binomial probabilities. Therefore, we start an analysis of accuracy of Loader's algorithm for the binomial density, which for example the statistical software R uses. With the help of accuracy bounds for the binomial density we would be able to derive accuracy bounds for the computation of rectangle probabilities for scan statistics of multinomially distributed random variables. To figure out how sharp derived accuracy bounds are, in examples these can be compared to rigorous upper bounds and rigorous lower bounds which we obtain by interval-arithmetical computations.
This thesis deals with economic aspects of employees' sickness. In addition to the classical case of sickness absence, in which an employee is completely unable to work and hence stays at home, there is the case of sickness presenteeism, in which the employee comes to work despite being sick. Accordingly, the thesis at hand covers research on both sickness states, absence and presenteeism. The first section covers sickness absence and labour market institutions. Chapter 2 presents theoretical and empirical evidence that differences in the social norm against benefit fraud, so-called benefit morale, can explain cross country diversity in the generosity of statutory sick pay entitlements between developed countries. In our political economy model, a stricter benefit morale reduces the absence rate, with counteracting effects on the politically set sick pay replacement rate. On the one hand, less absence caused by a stricter norm, makes the tax-financed insurance cheaper, leading to the usual demand side effect and hence to more generous sick pay entitlements. On the other hand, being less likely to be absent due to a stricter norm, the voters prefer a smaller fee over more insurance. We document both effects in a sample of 31 developed countries, capturing the years from 1981 to 2010. In Chapter 3 we investigate the relationship between the existence of works councils and illness-related absence and its consequences for plants. Using individual data from the German Socio-Economic Panel (SOEP), we find that the existence of a works council is positively correlated with the incidence and the annual duration of absence. Additionally, linked employer-employee data (LIAB) suggests that employers are more likely to expect personnel problems due to absence in plants with a works council. In western Germany, we find significant effects using a difference-in-differences approach, which can be causally interpreted. The second part of this thesis covers two studies on sickness presenteeism. In Chapter 4, we empirically investigate the determinants of the annual duration of sickness presenteeism using the European Working Conditions Survey (EWCS). Work autonomy, workload and tenure are positively related to the number of sickness presenteeism days, while a good working environment comes with less presenteeism. In Chapter 5 we theoretically and empirically analyze sickness absence and presenteeism behaviour with a focus on their interdependence. Specifically, we ask whether work-related factors lead to a substitutive, a complementary or no relationship between sickness absence and presenteeism. In other words, we want to know whether changes in absence and presenteeism behaviour incurred by work-related characteristics point in opposite directions (substitutive), the same direction (complementary), or whether they only affect either one of the two sickness states (no relationship). Our theoretical model shows that the relationship between sickness absence and presenteeism with regard to work-related characteristics is not necessarily of a substitutive nature. Instead, a complementary or no relationship can emerge as well. Turning to the empirical investigation, we find that only one out of 16 work-related factors, namely the supervisor status, leads to a substitutive relationship between absence and presenteeism. Few of the other determinants are complements, while the large majority is either related to sickness absence or presenteeism.
On the Influence of Ignored Stimuli: Generalization and Application of Distractor-Response Binding.
(2011)
In selection tasks where target stimuli are accompanied by distractors, responses to target stimuli, target stimuli and the distractor stimuli can be encoded together as one episode in memory. Subsequent repetition of any aspect of such an episode can lead to the retrieval of the whole episode including the response. Thus, repeating a distractor can retrieve responses given to previous targets; this mechanism was labeled distractor-response binding and has been evidenced in several visual setups. Three experiments of the present thesis implemented a priming paradigm with an identification task to generalize this mechanism to auditory and tactile stimuli as well as to stimulus concepts. In four more experiments the possible effect of distractor-response binding on drivers' reactions was investigated. The same paradigm was implemented using more complex stimuli, foot responses, go/no-go responses, and a dual task setup with head-up and head-down displays. The results indicate that distractor-response binding effects occur with auditory and tactile stimuli and that the process is mediated by a conceptual representation of the distractor stimuli. Distractor-response binding effects also revealed for stimuli, responses, and framework conditions likely to occur in a driving situation. It can be concluded that the effect of distractor-response binding needs to be taken into account for the design of local danger warnings in driver assistance systems.
Die Arbeit untersucht das Potential kleiner unbemannter Luftfahrtsysteme (UAS) in Landwirtschaft und Archäologie. Der Begriff UAS beinhaltet dabei: Fluggerät, Antriebsmechanismus, Sensorik, Bodenstation, Kommunikationsmittel zwischen Bodenstation und Fluggerät und weiteres Equipment. Aufgrund ihrer Flexibilität, fanden UAS seit der Jahrtausendwende eine blühende Entwicklung. Um die wachsende Weltbevölkerung zu ernähren, muss die landwirtschaftliche Produktion sensibel und nachhaltig intensiviert werden, um Nahrungssicherheit für alle zu gewährleisten und weitere Boden- und Landdegradation zu vermeiden. Präzisionslandwirtschaft umfasst technologische Verbesserungen hin zur effizienteren und weniger schädlichen landwirtschaftlichen Praxis. Hierbei ist die Verfügung über zeitnahe, leicht zugängliche hoch aufgelöste räumliche Daten eine Voraussetzung für die Nahrungsmittelproduktion. UAS schließen hier die Lücke zwischen Bodendaten und teuren bemannten Luftfahrtsysteme und selteneren Satellitenbildern. Die Vorteile der UAS-Daten liegen in der ad-hoc Akquisition großmaßstäbiger Fernerkundungsdaten, den geringeren Kosten gegenüber der bemannten Systeme und einer relativen Wetterunabhängigkeit, da auch unter Wolken geflogen werden kann. Den größten Anteil innerhalb der UAS stellen die Mini-UAS (Abfluggewicht von 5kg) und dabei vertikale Start- und Landesysteme. Diese können über Untersuchungsgebieten schweben, sind dadurch jedoch langsamer und eher geeignet für kleinere Flächen. Flugregularien und die Integration in den bemannten Luftraum werden derzeit europaweit harmonisiert und in den Mitgliedstaaten umgesetzt. Die Hauptziele dieser Arbeit lagen in der Evaluierung wie Schlüsselparametern landwirtschaftlicher Nutzpflanzen (Chlorophyll-, Stickstoffgehalt, Erntemenge, sonnendinduzierter Chlorophyll-Fluoreszenz) mittels UAS abgeleitet und wie UAS-Daten für archäologische Aufklärung genutzt werden können. Dazu wurde ein Quadrokopter (md4-1000, microdrones GmbH) mit einer digitalen Spiegelreflexkamera, einem Multispektralsensor (MiniMCA-6, Tetracam Inc.) und einer Thermalkamera (UCM, Zeiss) ausgestattet. Eine Sensitivitätsanalyse führte zur Ableitung geeigneter Wellenlängenbereiche und untersuchte bidirektionale und Flughöheneffekte auf das Multispektralsignal. Die Studie beschreibt außerdem die Vorgehensweise bei Bildaufnahme und Vorprozessierung mit besonderem Schwerpunkt auf die Multispektralkamera (530-900 nm). Die Vorprozessierung beinhaltet die Korrektur von Sensorfehlern (Linsenverzeichnung, Vignettierung, Kanalkalibrierung), die radiometrische Kalibrierung über eine empirische Korrektur mit Hilfe von Referenzspektren, Atmosphärenkorrektur und schließlich die geometrische Verarbeitung unter Verwendung von Structure from Motion Programme zur Generierung von Punktwolkenmodellen bis hin zum digitalen Orthophotomosaik und Höhenmodell in Zentimeterauflösung. In einer Weinbergsstudie (2011, 2012) wurden geeignete Beobachtungswinkel für die Untersuchung des Einflusses von Bodenbearbeitungsstrategien auf das Multispektralsignal evaluiert. Schrägichtaufnahmen von 45-° Beobachtungswinkel gegenüber Nadir waren am besten geeignet zur Ableitung pflanzenphysiolgischer Parameter und multispektraler Unterscheidung von Bodenbearbeitungstypen. So konnten Chlorophyll-Gehalte über Regressionsanalysen über mehrere saisonale Aufnahmen mit einem kreuzvalidierten R-² von 0.65, Stickstoffgehaltsindex von 0.76 (2012) und Ernte mit 0.84 (2011) und für verschiedene Zeitpunkte nach der Blüte (0.87) und während der Reifephase (0.73) ermittelt werden. Desweiteren wurde die (Fs) in einem Stickstoff-Düngung-Experiment bei Zuckerrüben von Multispektral-, Indizes und Thermaldaten untersucht (HyFlex-Kampagne 2012). Zuckerrübenvarietäten konnten spektral und thermal unterschieden werden, die Fluoreszenzindizes waren wetterbedingt, weniger erfolgreich. Außerdem konnte der Tagesgang der Fs trotz instabiler Einstrahlungsverhältnisse am Morgen abgeleitet werden. Die Werte waren jedoch gegenüber Bodenmessungen um ein Vielfaches erhöht. Archäologische Fernerkundung durch UAS wird bereits seit Jahren (z.B. mit Fesselballons) durchgeführt. Die Mustererkennung profitiert von der spektralen Ausdehnung vom menschlichen Auge hin zu multispektralen, neuerdings auch hyperspektralen Sensoren. Studien in Los Bañales, Spanien, zeigten die Möglichkeiten des Informationsgewinns durch Bildverarbeitung von UAS-Daten: vermutliche historische Siedlungsmuster konnten durch Landoberflächenklassifikation von Multispektraldaten mittels Support Vector Machines und Bestandsmusterdetektion beschrieben werden. Um qualitative hochwertige, hochaufgelöste UAS-Daten zu erhalten, sollten die Daten mit hoher Überlappung (80%) und auch Schrägsicht akquiriert und ggf. durch Referenzmessungen zur radiometrischen Kalibrierung und GPS-Messungen für geometrische Referenzierung ergänzt werden.
This work is concerned with two kinds of objects: regular expressions and finite automata. These formalisms describe regular languages, i.e., sets of strings that share a comparatively simple structure. Such languages - and, in turn, expressions and automata - are used in the description of textual patterns, workflow and dependence modeling, or formal verification. Testing words for membership in any given such language can be implemented using a fixed - i.e., finite - amount of memory, which is conveyed by the phrasing finite-automaton. In this aspect they differ from more general classes, which require potentially unbound memory, but have the potential to model less regular, i.e., more involved, objects. Other than expressions and automata, there are several further formalisms to describe regular languages. These formalisms are all equivalent and conversions among them are well-known.However, expressions and automata are arguably the notions which are used most frequently: regular expressions come natural to humans in order to express patterns, while finite automata translate immediately to efficient data structures. This raises the interest in methods to translate among the two notions efficiently. In particular,the direction from expressions to automata, or from human input to machine representation, is of great practical relevance. Probably the most frequent application that involves regular expressions and finite automata is pattern matching in static text and streaming data. Common tools to locate instances of a pattern in a text are the grep application or its (many) derivatives, as well as awk, sed and lex. Notice that these programs accept slightly more general patterns, namely ''POSIX expressions''. Concerning streaming data, regular expressions are nowadays used to specify filter rules in routing hardware.These applications have in common that an input pattern is specified in form a regular expression while the execution applies a regular automaton. As it turns out, the effort that is necessary to describe a regular language, i.e., the size of the descriptor,varies with the chosen representation. For example, in the case of regular expressions and finite automata, it is rather easy to see that any regular expression can be converted to a finite automaton whose size is linear in that of the expression. For the converse direction, however, it is known that there are regular languages for which the size of the smallest describing expression is exponential in the size of the smallest describing automaton.This brings us to the subject at the core of the present work: we investigate conversions between expressions and automata and take a closer look at the properties that exert an influence on the relative sizes of these objects.We refer to the aspects involved with these consideration under the titular term of Relative Descriptional Complexity.
This dissertation is dedicated to the analysis of the stabilty of portfolio risk and the impact of European regulation introducing risk based classifications for investment funds.
The first paper examines the relationship between portfolio size and the stability of mutual fund risk measures, presenting evidence for economies of scale in risk management. In a unique sample of 338 fund portfolios we find that the volatility of risk numbers decreases for larger funds. This finding holds for dispersion as well as tail risk measures. Further analyses across asset classes provide evidence for the robustness of the effect for balanced and fixed income portfolios. However, a size effect did not emerge for equity funds, suggesting that equity fund managers simply scale their strategy up as they grow. Analyses conducted on the differences in risk stability between tail risk measures and volatilities reveal that smaller funds show higher discrepancies in that respect. In contrast to the majority of prior studies on the basis of ex-post time series risk numbers, this study contributes to the literature by using ex-ante risk numbers based on the actual assets and de facto portfolio data.
The second paper examines the influence of European legislation regarding risk classification of mutual funds. We conduct analyses on a set of worldwide equity indices and find that a strategy based on the long term volatility as it is imposed by the Synthetic Risk Reward Indicator (SRRI) would lead to substantial variations in exposures ranging from short phases of very high leverage to long periods of under investments that would be required to keep the risk classes. In some cases, funds will be forced to migrate to higher risk classes due to limited means to reduce volatilities after crises events. In other cases they might have to migrate to lower risk classes or increase their leverage to ridiculous amounts. Overall, we find if the SRRI creates a binding mechanism for fund managers, it will create substantial interference with the core investment strategy and may incur substantial deviations from it. Fruthermore due to the forced migrations the SRRI degenerates to a passive indicator.
The third paper examines the impact of this volatility based fund classification on portfolio performance. Using historical data on equity indices we find initially that a strategy based on long term portfolio volatility, as it is imposed by the Synthetic Risk Reward Indicator (SRRI), yields better Sharpe Ratios (SRs) and Buy and Hold Returns (BHRs) for the investment strategies matching the risk classes. Accounting for the Fama-French factors reveals no significant alphas for the vast majority of the strategies. In our simulation study where volatility was modelled through a GJR(1,1) - model we find no significant difference in mean returns, but significantly lower SRs for the volatility based strategies. These results were confirmed in robustness checks using alternative models and timeframes. Overall we present evidence which suggests that neither the higher leverage induced by the SRRI nor the potential protection in downside markets does pay off on a risk adjusted basis.
Every action we perform, no matter how simple or complex, has a cognitive representation. It is commonly assumed that these are organized hierarchically. Thus, the representation of a complex action consists of multiple simpler actions. The representation of a simple action, in turn, consists of stimulus, response, and effect features. These are integrated into one representation upon the execution of an action and can be retrieved if a feature is repeated. Depending on whether retrieved features match or only partially match the current action episode, this might benefit or impair the execution of a subsequent action. This pattern of costs and benefits results in binding effects that indicate the strength of common representation between features. Binding effects occur also in more complex actions: Multiple simple actions seem to form representations on a higher level through the integration and retrieval of sequentially given responses, resulting in so-called response-response binding effects. This dissertation aimed to investigate what factors determine whether simple actions form more complex representations. The first line of research (Articles 1-3) focused on dissecting the internal structure of simple actions. Specifically, I investigated whether the spatial relation of stimuli, responses, or effects, that are part of two different simple actions, influenced whether these simple actions are represented as one more complex action. The second line of research (Articles 2, 4, and 5) investigated the role of context on the formation and strength of more complex action representations. Results suggest that spatial separation of responses as well as context might affect the strength of more complex action representations. In sum, findings help to specify assumptions on the structure of complex action representations. However, it may be important to distinguish factors that influence the strength and structure of action representations from factors that terminate action representations.
Diese Arbeit gibt einen Überblick über Open Source-basierte Bibliotheksverwaltungssysteme (Stand Mai 2005). Deren Entwicklungsstand und Leistungsfähigkeit wurden untersucht und bewertet. Ein wichtiger Vergleichspunkt sind die Kosten bei einem Einsatz kommerzieller Systeme (Vergleichsmaßstab ALEPH 500) und einem Einsatz von Open Source-basierten Systemen und deren Weiterentwicklung.
Automata theory is the study of abstract machines. It is a theory in theoretical computer science and discrete mathematics (a subject of study in mathematics and computer science). The word automata (the plural of automaton) comes from a Greek word which means "self-acting". Automata theory is closely related to formal language theory [99, 101]. The theory of formal languages constitutes the backbone of the field of science now generally known as theoretical computer science. This thesis aims to introduce a few types of automata and studies then class of languages recognized by them. Chapter 1 is the road map with introduction and preliminaries. In Chapter 2 we consider few formal languages associated to graphs that has Eulerian trails. We place few languages in the Chomsky hierarchy that has some other properties together with the Eulerian property. In Chapter 3 we consider jumping finite automata, i. e., finite automata in which input head after reading and consuming a symbol, can jump to an arbitrary position of the remaining input. We characterize the class of languages described by jumping finite automata in terms of special shuffle expressions and survey other equivalent notions from the existing literature. We could also characterize some super classes of this language class. In Chapter 4 we introduce boustrophedon finite automata, i. e., finite automata working on rectangular shaped arrays (i. e., pictures) in a boustrophedon mode and we also introduce returning finite automata that reads the input, line after line, does not alters the direction like boustrophedon finite automata i. e., reads always from left to right, line after line. We provide close relationships with the well-established class of regular matrix (array) languages. We sketch possible applications to character recognition and kolam patterns. Chapter 5 deals with general boustrophedon finite automata, general returning finite automata that read with different scanning strategies. We show that all 32 different variants only describe two different classes of array languages. We also introduce Mealy machines working on pictures and show how these can be used in a modular design of picture processing devices. In Chapter 6 we compare three different types of regular grammars of array languages introduced in the literature, regular matrix grammars, (regular : regular) array grammars, isometric regular array grammars, and variants thereof, focusing on hierarchical questions. We also refine the presentation of (regular : regular) array grammars in order to clarify the interrelations. In Chapter 7 we provide further directions of research with respect to the study that we have done in each of the chapters.
Recently, optimization has become an integral part of the aerodynamic design process chain. However, because of uncertainties with respect to the flight conditions and geometrical uncertainties, a design optimized by a traditional design optimization method seeking only optimality may not achieve its expected performance. Robust optimization deals with optimal designs, which are robust with respect to small (or even large) perturbations of the optimization setpoint conditions. The resulting optimization tasks become much more complex than the usual single setpoint case, so that efficient and fast algorithms need to be developed in order to identify, quantize and include the uncertainties in the overall optimization procedure. In this thesis, a novel approach towards stochastic distributed aleatory uncertainties for the specific application of optimal aerodynamic design under uncertainties is presented. In order to include the uncertainties in the optimization, robust formulations of the general aerodynamic design optimization problem based on probabilistic models of the uncertainties are discussed. Three classes of formulations, the worst-case, the chance-constrained and the semi-infinite formulation, of the aerodynamic shape optimization problem are identified. Since the worst-case formulation may lead to overly conservative designs, the focus of this thesis is on the chance-constrained and semi-infinite formulation. A key issue is then to propagate the input uncertainties through the systems to obtain statistics of quantities of interest, which are used as a measure of robustness in both robust counterparts of the deterministic optimization problem. Due to the highly nonlinear underlying design problem, uncertainty quantification methods are used in order to approximate and consequently simplify the problem to a solvable optimization task. Computationally demanding evaluations of high dimensional integrals resulting from the direct approximation of statistics as well as from uncertainty quantification approximations arise. To overcome the curse of dimensionality, sparse grid methods in combination with adaptive refinement strategies are applied. The reduction of the number of discretization points is an important issue in the context of robust design, since the computational effort of the numerical quadrature comes up in every iteration of the optimization algorithm. In order to efficiently solve the resulting optimization problems, algorithmic approaches based on multiple-setpoint ideas in combination with one-shot methods are presented. A parallelization approach is provided to overcome the amount of additional computational effort involved by multiple-setpoint optimization problems. Finally, the developed methods are applied to 2D and 3D Euler and Navier-Stokes test cases verifying their industrial usability and reliability. Numerical results of robust aerodynamic shape optimization under uncertain flight conditions as well as geometrical uncertainties are presented. Further, uncertainty quantification methods are used to investigate the influence of geometrical uncertainties on quantities of interest in a 3D test case. The results demonstrate the significant effect of uncertainties in the context of aerodynamic design and thus the need for robust design to ensure a good performance in real life conditions. The thesis proposes a general framework for robust aerodynamic design attacking the additional computational complexity of the treatment of uncertainties, thus making robust design in this sense possible.
Optimal Control of Partial Integro-Differential Equations and Analysis of the Gaussian Kernel
(2018)
An important field of applied mathematics is the simulation of complex financial, mechanical, chemical, physical or medical processes with mathematical models. In addition to the pure modeling of the processes, the simultaneous optimization of an objective function by changing the model parameters is often the actual goal. Models in fields such as finance, biology or medicine benefit from this optimization step.
While many processes can be modeled using an ordinary differential equation (ODE), partial differential equations (PDEs) are needed to optimize heat conduction and flow characteristics, spreading of tumor cells in tissue as well as option prices. A partial integro-differential equation (PIDE) is a parital differential equation involving an integral operator, e.g., the convolution of the unknown function with a given kernel function. PIDEs occur for example in models that simulate adhesive forces between cells or option prices with jumps.
In each of the two parts of this thesis, a certain PIDE is the main object of interest. In the first part, we study a semilinear PIDE-constrained optimal control problem with the aim to derive necessary optimality conditions. In the second, we analyze a linear PIDE that includes the convolution of the unknown function with the Gaussian kernel.
In dieser Arbeit untersuchen wir das Optimierungsproblem der optimalen Materialausrichtung orthotroper Materialien in der Hülle von dreidimensionalen Schalenkonstruktionen. Ziel der Optimierung ist dabei die Minimierung der Gesamtnachgiebigkeit der Konstruktion, was der Suche nach einem möglichst steifen Design entspricht. Sowohl die mathematischen als auch die mechanischen Grundlagen werden in kompakter Form zusammengetragen und basierend darauf werden sowohl gradientenbasierte als auch auf mechanischen Prinzipien beruhende, neue Erweiterungen punktweise formulierter Optimierungsverfahren entwickelt und implementiert. Die vorgestellten Verfahren werden anhand des Beispiels des Modells einer Flugzeugtragfläche mit praxisrelevanter Problemgröße getestet und verglichen. Schließlich werden die untersuchten Methoden in ihrer Koppelung mit einem Verfahren zur Topologieoptimierung, basierend auf dem topologischen Gradienten untersucht.
Considering actual climatic and land use changes the problem of available water resources or the estimation of potential flood risks gain eco-political and economical relevance. Adequate assessments, thus, require precise process-based hydrological knowledge. Spatially distributed hydrological modelling enables a both abstractive and realistic description of hydrological processes, and therefore contributes to the understanding of the hydrological system- responses. Referring to the example of the mesoscale Ruwer basin (a tributary to the Mosel river), a modified version of the distributive modelling system PRMS/MMS (Precipitation Runoff Modeling System/Modular Modeling System) is applied to calculate spatially and temporally explicit water budgets. To achieve modelling results as precise as possible, integration of detailed land use information (spatial distribution of the existing land use classes, crop- and site-specific growth patterns) is necessary. This information is derived here by analysis of multitemporal, geometrically and radiometrically pre-processed Landsat TM-data. This enables separation of different land use classes and differentiated quantification of the leaf area index (LAI). The LAI is estimated by a spectral unmixing approach using statistically optimized endmember sets, referring to the example of winter grain and grassland plots. As a result, numerical inputs (coefficients for calculating evapotranspiration, interception storages) and extracted non-numerical (classified) information can be provided for hydrological modelling. The version of PRMS applied in this study allows important land use terms to be parameterized in high temporal resolution. Using model input derived from the available satellite data, simulation results are obtained that prove to be realistic compared to gauge data and with respect to their spatial differentiation. Results differ significantly from those obtained by using parameters from literature or by experience without distinguishing specific and site-dependent growth patterns. It can be concluded that the quality of modelling results notably improves by integration and quantitative analysis of remote sensing data; thus, these methods are a significant contribution to physically-based hydrological modelling.
The dissertation deals with methods to improve design-based and model-assisted estimation techniques for surveys in a finite population framework. The focus is on the development of the statistical methodology as well as their implementation by means of tailor-made numerical optimization strategies. In that regard, the developed methods aim at computing statistics for several potentially conflicting variables of interest at aggregated and disaggregated levels of the population on the basis of one single survey. The work can be divided into two main research questions, which are briefly explained in the following sections.
First, an optimal multivariate allocation method is developed taking into account several stratification levels. This approach results in a multi-objective optimization problem due to the simultaneous consideration of several variables of interest. In preparation for the numerical solution, several scalarization and standardization techniques are presented, which represent the different preferences of potential users. In addition, it is shown that by solving the problem scalarized with a weighted sum for all combinations of weights, the entire Pareto frontier of the original problem can be generated. By exploiting the special structure of the problem, the scalarized problems can be efficiently solved by a semismooth Newton method. In order to apply this numerical method to other scalarization techniques as well, an alternative approach is suggested, which traces the problem back to the weighted sum case. To address regional estimation quality requirements at multiple stratification levels, the potential use of upper bounds for regional variances is integrated into the method. In addition to restrictions on regional estimates, the method enables the consideration of box-constraints for the stratum-specific sample sizes, allowing minimum and maximum stratum-specific sampling fractions to be defined.
In addition to the allocation method, a generalized calibration method is developed, which is supposed to achieve coherent and efficient estimates at different stratification levels. The developed calibration method takes into account a very large number of benchmarks at different stratification levels, which may be obtained from different sources such as registers, paradata or other surveys using different estimation techniques. In order to incorporate the heterogeneous quality and the multitude of benchmarks, a relaxation of selected benchmarks is proposed. In that regard, predefined tolerances are assigned to problematic benchmarks at low aggregation levels in order to avoid an exact fulfillment. In addition, the generalized calibration method allows the use of box-constraints for the correction weights in order to avoid an extremely high variation of the weights. Furthermore, a variance estimation by means of a rescaling bootstrap is presented.
Both developed methods are analyzed and compared with existing methods in extensive simulation studies on the basis of a realistic synthetic data set of all households in Germany. Due to the similar requirements and objectives, both methods can be successively applied to a single survey in order to combine their efficiency advantages. In addition, both methods can be solved in a time-efficient manner using very comparable optimization approaches. These are based on transformations of the optimality conditions. The dimension of the resulting system of equations is ultimately independent of the dimension of the original problem, which enables the application even for very large problem instances.
In this thesis, we consider the solution of high-dimensional optimization problems with an underlying low-rank tensor structure. Due to the exponentially increasing computational complexity in the number of dimensions—the so-called curse of dimensionality—they present a considerable computational challenge and become infeasible even for moderate problem sizes.
Multilinear algebra and tensor numerical methods have a wide range of applications in the fields of data science and scientific computing. Due to the typically large problem sizes in practical settings, efficient methods, which exploit low-rank structures, are essential. In this thesis, we consider an application each in both of these fields.
Tensor completion, or imputation of unknown values in partially known multiway data is an important problem, which appears in statistics, mathematical imaging science and data science. Under the assumption of redundancy in the underlying data, this is a well-defined problem and methods of mathematical optimization can be applied to it.
Due to the fact that tensors of fixed rank form a Riemannian submanifold of the ambient high-dimensional tensor space, Riemannian optimization is a natural framework for these problems, which is both mathematically rigorous and computationally efficient.
We present a novel Riemannian trust-region scheme, which compares favourably with the state of the art on selected application cases and outperforms known methods on some test problems.
Optimization problems governed by partial differential equations form an area of scientific computing which has applications in a variety of areas, ranging from physics to financial mathematics. Due to the inherent high dimensionality of optimization problems arising from discretized differential equations, these problems present computational challenges, especially in the case of three or more dimensions. An even more challenging class of optimization problems has operators of integral instead of differential type in the constraint. These operators are nonlocal, and therefore lead to large, dense discrete systems of equations. We present a novel solution method, based on separation of spatial dimensions and provably low-rank approximation of the nonlocal operator. Our approach allows the solution of multidimensional problems with a complexity which is only slightly larger than linear in the univariate grid size; this improves the state of the art for a particular test problem problem by at least two orders of magnitude.
Sample surveys are a widely used and cost effective tool to gain information about a population under consideration. Nowadays, there is an increasing demand not only for information on the population level but also on the level of subpopulations. For some of these subpopulations of interest, however, very small subsample sizes might occur such that the application of traditional estimation methods is not expedient. In order to provide reliable information also for those so called small areas, small area estimation (SAE) methods combine auxiliary information and the sample data via a statistical model.
The present thesis deals, among other aspects, with the development of highly flexible and close to reality small area models. For this purpose, the penalized spline method is adequately modified which allows to determine the model parameters via the solution of an unconstrained optimization problem. Due to this optimization framework, the incorporation of shape constraints into the modeling process is achieved in terms of additional linear inequality constraints on the optimization problem. This results in small area estimators that allow for both the utilization of the penalized spline method as a highly flexible modeling technique and the incorporation of arbitrary shape constraints on the underlying P-spline function.
In order to incorporate multiple covariates, a tensor product approach is employed to extend the penalized spline method to multiple input variables. This leads to high-dimensional optimization problems for which naive solution algorithms yield an unjustifiable complexity in terms of runtime and in terms of memory requirements. By exploiting the underlying tensor nature, the present thesis provides adequate computationally efficient solution algorithms for the considered optimization problems and the related memory efficient, i.e. matrix-free, implementations. The crucial point thereby is the (repetitive) application of a matrix-free conjugated gradient method, whose runtime is drastically reduced by a matrx-free multigrid preconditioner.
The World's second oldest system of judicial review of national legislation emerged through court practice from the very first years after the adoption of the Constitution of Norway in 1814. The review is exercised by the ordinary courts at all levels with the single Supreme Court as the last instance. No specialized constitutional court has been established. The independence of the judiciary is generally recognized as high. But what degree of legitimacy should judges appointed in order to ensure ordinary judicial business enjoy when exercising a basically political function like reviewing and possibly setting aside acts of Parliament?
This socio-pragmatic study investigates organisational conflict talk between superiors and subordinates in three medical dramas from China, Germany and the United States. It explores what types of sociolinguistic realities the medical dramas construct by ascribing linguistic behaviour to different status groups. The study adopts an enhanced analytical framework based on John Gumperz’ discourse strategies and Spencer-Oatey’s rapport management theory. This framework detaches directness from politeness, defines directness based on preference and polarity and explains the use of direct and indirect opposition strategies in context.
The findings reveal that the three hospital series draw on 21 opposition strategies which can be categorised into mitigating, intermediate and intensifying strategies. While the status identity of superiors is commonly characterised by a higher frequency of direct strategies than that of subordinates, both status groups manage conflict in a primarily direct manner across all three hospital shows. The high percentage of direct conflict management is related to the medical context, which is characterised by a focus on transactional goals, complex role obligations and potentially severe consequences of medical mistakes and delays. While the results reveal unexpected similarities between the three series with regard to the linguistic directness level, cross-cultural differences between the Chinese and the two Western series are obvious from particular sociopragmatic conventions. These conventions particularly include the use of humour, imperatives, vulgar language and incorporated verbal and para-verbal/multimodal opposition. Noteworthy differences also appear in the underlying patterns of strategy use. They show that the Chinese series promotes a greater tolerance of hierarchical structures and a partially closer social distance in asymmetrical professional relationships. These disparities are related to different perceptions of power distance, role relationships, face and harmony.
The findings challenge existing stereotypes of Chinese, US American and German conflict management styles and emphasise the context-specific nature of verbal conflict management in every culture. Although cinematic aspects affect the conflict management in the fictional data, the results largely comply with recent research on conflict talk in real-life workplaces. As such, the study contributes to intercultural trainings in medical contexts and provides an enhanced analytical framework for further cross-cultural studies on linguistic strategies.
Digitalization primarily takes place in and through organizations. Despite this prominent role, however, the importance of organizational structure-building processes in the digital transformation is still underexposed in discourse. The fact that ongoing digitalization is linked to an established phenomenon and its own logic, is regularly not addressed due to the attraction potential of the semantics of the digital revolution. Digital revolution and the reordering of societal relationships, though, manifest themselves primarily in processes of reorganization. Structural automation processes in the ongoing digital transformation are limiting the scope for action, necessitating forms of structural structurelessness in organizations that cultivate opportunities for chance. Since organizations realize their operations as a dual of structure and individual, and the principle of organization is therefore based on the complementarity of structural formality and unpredictable informality. The paper discusses the topicality of the classical form of modern organization in the digital age and reflects on approaches to a contemporary design of spaces of opportunity. The reflexive handling of future openness is the central task of management and leadership in order to enable variation and innovation in organizations.
Der Anstieg der Weltbevölkerung, der Mobilität und des Warenhandels fördert die zunehmende Einschleppung von Biota. Ein Teil dieser gebietsfremden Arten kann sich etablieren, ausbreiten und die heimische Biodiversität gefährden ("invasive Arten"). In Mitteleuropa haben sich mehr als 150 gebietsfremde Populationen der ursprünglich submediterran verbreiteten Mauereidechse (Podarcis muralis) etabliert. Diese verkörpern ein ideales Modellsystem zur Untersuchung der Rolle des geografischen Ursprungs für den Etablierungserfolg, zur Überprüfung genetischer Konsequenzen von biologischen Invasionen sowie zur Untersuchung der Auswirkungen intraspezifischer Hybridisierung auf heimische Linien. Über eine mtDNA-Sequenzierung wurden in dieser Dissertation 77 eingeschleppte Populationen in Mitteleuropa acht geografisch abgrenzbaren evolutionären Linien zugeordnet (Kapitel I). Dieser Datensatz wurde in Kombination mit Artverbreitungsmodellen zur Überprüfung intraspezifischer Nischendivergenz genutzt. Trotz deutlicher Nischendifferenzierung zwischen den Linien, wurde nur eine schwache Korrelation zwischen geographischem Ursprung und invasivem Vorkommen gefunden. Linien mit enger realisierter Nische sind vermutlich aufgrund ihrer breiten fundamentalen Nische dennoch fähig erfolgreich Gebiete weit außerhalb ihres Areals zu kolonisieren. Für die populationsgenetischen Analysen dieser Arbeit bewährten sich, alternativ zu Gewebeproben, nicht-invasiv gewonnene Mundschleimhautproben zur DNA-Analyse (Kapitel II). Über eine DNA-Sequenzierung konnte der Ursprung (Poebene und nördliche Adriaregion) der nördlichsten eingeschleppten Ruineneidechsen-Population (Podarcis siculus) bestimmt werden (Kapitel III). Zudem wurde eine syntop in eine P. muralis Population eingeschleppte Podarcis liolepis Population erstmals in Deutschland nachgewiesen (Kapitel IV). Beide stammen vermutlich aus den Ost-Pyrenäen. Die Mikrosatelliten-Analyse zeigte keinen Genfluss zwischen beiden Arten. Verglichen mit natürlichen Populationen aus Süd-Frankreich konnten die eingeschleppten Populationen beider Arten aufgrund von hohem Aussetzungsdruck eine hohe genetische Diversität erhalten. Entlang des Oberrheingrabens treffen heimische Mauereidechsen auf eingeschleppte italienische Linien. In diesen Populationen wurde eine schnelle genetische Assimilation durch Hybridisierung mit gebietsfremden Mauereidechsen nachgewiesen (Kapitel V). Die genetische Diversität dieser Hybridpopulationen war wesentlich höher als die reiner eingeschleppter oder reiner natürlicher Populationen. Der Zusammenhang zwischen genetischer Diversität und Durchmischungsgrad war nicht-linear und erreichte frühzeitig ein Plateau hoher genetischer Diversität bei einer Vermischung von zwei Linien. Das Ausmaß an Introgression und die schnelle Bildung von Hybridschwärmen zeigt, dass Einschleppungen die genetische Integrität natürlicher Populationen stark gefährden. Die kleinräumige, genetische Analyse einer expandierenden Population in Passau (Kapitel VI) zeigt, dass eine signifikante Strukturierung schnell und kleinräumig entstehen kann. Die genetische Differenzierung wurde unter Abnahme der genetischen Diversität vom Einschleppungszentrum zum Expansionsrand stärker. Das abschließende Kapitel VII fasst die wichtigsten Resultate für die Naturschutzpraxis zusammen. Die Schwierigkeiten der phänotypischen Zuordnung von Populationen zu evolutionären Linien sowie der naturschutzrechtliche Umgangs mit Einschleppungen werden diskutiert.
Lorsqu’il s’agit d’inviter des personnalités issues du monde politique et social à l’école, les enseignant·e·s se posent généralement beaucoup de questions. En ce qui concerne les responsables politiques en particulier, cela en chagrine même plus d’un·e. Comment s’assurer que l’échange est profitable pour toutes les parties ?
L’école prépare les jeunes à la vie en société. Les coopérations entre les écoles et les partenaires extrascolaires peuvent jouer un rôle important à cet égard : grâce à elles, les processus sociétaux et politiques, les acteur·rice·s, les controverses et les lieux d’engagement deviennent plus visibles et plus tangibles dans leurs multiples facettes.
In this thesis, we study the convergence behavior of an efficient optimization method used for the identification of parameters for underdetermined systems. The research is motivated by optimization problems arising from the estimation of parameters in neural networks as well as in option pricing models. In the first application, we are concerned with neural networks used to forecasting stock market indices. Since neural networks are able to describe extremely complex nonlinear structures they are used to improve the modelling of the nonlinear dependencies occurring in the financial markets. Applying neural networks to the forecasting of economic indicators, we are confronted with a nonlinear least squares problem of large dimension. Furthermore, in this application the number of parameters of the neural network to be determined is usually much larger than the number of patterns which are available for the determination of the unknowns. Hence, the residual function of our least squares problem is underdetermined. In option pricing, an important but usually not known parameter is the volatility of the underlying asset of the option. Assuming that the underlying asset follows a one-factor continuous diffusion model with nonconstant drift and volatility term, the value of an European call option satisfies a parabolic initial value problem with the volatility function appearing in one of the coefficients of the parabolic differential equation. Using this system equation, the estimation of the volatility function is described by a nonlinear least squares problem. Since the adaption of the volatility function is based only on a small number of observed market data these problems are naturally ill-posed. For the solution of these large-scale underdetermined nonlinear least squares problems we use a fully iterative inexact Gauss-Newton algorithm. We show how the structure of a neural network as well as that of the European call price model can be exploited using iterative methods. Moreover, we present theoretical statements for the convergence of the inexact Gauss-Newton algorithm applied to the less examined case of underdetermined nonlinear least squares problems. Finally, we present numerical results for the application of neural networks to the forecasting of stock market indices as well as for the construction of the volatility function in European option pricing models. In case of the latter application, we discretize the parabolic differential equation using a finite difference scheme and we elucidate convergence problems of the discrete scheme when the initial condition is not everywhere differentiable.
XML (Extensible Markup Language) ist ein sequentielles Format zur Speicherung und Übermittlung strukturierter Daten. Obwohl es ursprünglich für die Dokumentenverarbeitung entwickelt wurde, findet XML heute Verwendung in nahezu allen Bereichen der Datenverarbeitung, insbesondere aber im Internet. Jede XML-Dokumentenverarbeitungs-Software basiert auf einem XML-Parser. Der Parser liest ein Dokument in XML-Syntax ein und stellt es als Dokumentbaum der eigentlichen Anwendung zur Verfügung. Dokumentenverarbeitung ist dann im wesentlichen die Manipulation von Bäumen. Moderne funktionale Programmiersprachen wie SML und Haskell unterstützen Bäume als Basis-Datentypen und sind daher besonders gut für die Implementierung von Dokumentenverarbeitungs-Systemen geeignet. Um so erstaunlicher ist es, dass dieser Bereich zum größten Teil von Java-Software dominiert wird. Dies ist nicht zuletzt darauf zurückzuführen, dass noch keine vollständige Implementierung der XML-Syntax als Parser in einer funktionalen Programmiersprache vorliegt. Eine der wichtigsten Aufgaben in der Dokumentenverarbeitung ist Querying, d.h. die Lokalisierung von Teildokumenten, die eine angegebene Strukturbedingung erfüllen und in einem bestimmten Kontext stehen. Die baumartige Auffassung von Dokumenten in XML erlaubt die Realisierung des Querying mithilfe von Techniken aus der Theorie der Baumsprachen und Baumautomaten. Allerdings müssen diese Techniken an die speziellen Anforderungen von XML angepasst werden. Eine dieser Anforderungen ist, dass auch extrem große Dokumente verarbeitet werden müssen. Deshalb sollte der Querying-Algorithmus in einem einzigen Durchlauf durch das Dokument ausführbar sein, ohne den Dokumentbaum explizit im Speicher aufbauen zu müssen. Diese Arbeit besteht aus zwei Teilen. Der erste Teil beschreibt den XML- Parser fxp, der vollständig in SML programmiert wurde. Insbesondere werden die Erfahrungen mit SML diskutiert, die während der Implementierung von fxp gewonnen wurden. Es folgt eine Analyse des Laufzeit-Verhaltens von fxp und ein Vergleich mit anderen XML-Parsern, die in imperativen oder objekt- orientierten Programmiersprachen entwickelt wurden. Im zweiten Teil beschreiben wir einen Algorithmus zum Querying von XML- Dokumenten, der auf der Theorie der Waldautomaten fundiert ist. Er findet alle Treffer einer Anfrage in höchstens zwei Durchläufen durch das Dokument. Für eine wichtige Teilklasse von Anfragen kann das Querying sogar in einem einzelnen Durchlauf realisiert werden. Außerdem wird die Implementierung des Algorithmus in SML mit Hilfe von fxp dargestellt.
Part-time entrepreneurship has become increasingly popular and is a rather new field of research. Two important research topics are addressed in this dissertation: (a) the impact of culture on part-time and full-time entrepreneurship and (b) the motivational aspects of the transition from part-time to full-time entrepreneurship. Specifically, this dissertation advances prior research by highlighting the direct and indirect differential impact of macro-level societal culture on part-time and full-time entrepreneurship. Gender egalitarianism, uncertainty avoidance and future orientation have a significantly stronger impact on full-time than on part-time entrepreneurship. Furthermore the moderating impact of societal culture on micro-level relationships for both forms of entrepreneurship is explored. The age-old and well-established relationship between education and entrepreneurial activity is moderated by different forms of collectivism for part-time and full-time entrepreneurship. Regarding the motivation of part-time entrepreneurs to transition to full-time entrepreneurship, the entrepreneurial motives of self-realization and independence are significantly positively associated with the transition, whereas the entrepreneurial motives of income supplementation and recognition are significantly negatively associated with the transition. This dissertation advances academic research by indicating conceptual differences between part-time and full-time entrepreneurship in a multi country setting and by showing that both forms of entrepreneurship are impacted through different cultural mechanisms. Based on the findings, policy makers can identify the direct and indirect impact of societal culture on part-time and full-time entrepreneurship. As a result, policy makers can better target support and transition programs to foster entrepreneurial activity.
L’enseignement participatif, qui ne se résume pas à une participation vécue ponctuellement, comme l’écrit Charlotte Keuler dans l’article principal de ce carnet, est devenu indispensable à plusieurs égards en raison des défis auxquels nous confronte notre monde globalisé. La capacité à communiquer, les compétences interculturelles, la gestion des connaissances et d’autres « soft skills » sont les compétences clés du 21e siècle.
Comment peut-on tirer parti de façon constructive de la volonté et de l’opinion des enfants fréquentant l’école fondamentale ? Comment les enseignant·e·s, les éducateur·trice·s et les enfants d’âges différents peuvent-ils·elles discuter, planifier et mettre en oeuvre des projets avec succès et sur un pied d’égalité ? Le parlement de l’école de Fentange montre la voie.
Diese Arbeit betrachtet die formalen, semantischen und pragmatischen Eigenschaften produktiv gebildeter Partikelverben mit präpositionenähnlichen Verbzusätzen. Der empirische Teil basiert auf zahlreichen Belegen für mehr als 2500 Partikelverb-Neubildungen mit "ab-", "an-", "auf-", "aus-" und "ein-", die im Zuge einer exhaustiven Korpusstudie mitsamt ihren Kontexten in einem pressesprachlichen Korpus erhoben wurden. Im Zentrum steht die Untersuchung von mehr als 500 neologistischen Partikelverben mit "an-". Zunächst anhand von formalen Kriterien (vorrangig der Argumentstruktur) in fünf Gruppen sortiert, werden die semantischen und pragmatischen Eigenschaften dieser Gruppen mittels einer Betrachtung der einzelnen Verbvorkommen in ihren authentischen Gebrauchskontexten untersucht. Dabei wird insbesondere eine pragmatische Funktionalisierung der ursprünglichen Richtungssemantik nachvollzogen. Zwei offene Fragen der Partikelverb-Forschung werden in ergänzenden Fallstudien detailliert untersucht. Die erste widmet sich sogenannten "Kontaminationsbildungen" und zeigt, dass diese im Bereich der Partikelverben präzise angebbaren Regularitäten folgen. Die zweite beleuchtet anhand von 99 neologistischen Analogiebildungen zum lexikalisierten Verb "aufwerten" formale und semantisch-pragmatische Aspekte der Bildung von Partikelverben und revidiert damit das problematische Verhältnis von Analogie und Produktivität in der Wortbildungstheorie. Die an den Neubildungen gewonnenen Erkenntnisse werden schließlich auf den Wortschatzausschnitt der etablierten, lexikalisierten Partikelverben abgebildet. Dabei wird gezeigt, wie die Untersuchung produktiver Schemata anhand von Neubildungen zur Entwicklung von Objektivierungsheuristiken führen kann, die auch bei den lexikalisierten Formen die systematisch-regelhaften von den irregulär-idiosynkratischen zu trennen vermögen. Von unmittelbarem praktischem Nutzen ist das beispielsweise für die Sprachdidaktik, wie abschließend erläutert wird.
Die Partizipationskompetenz von Schülerinnen und Schülern sollte nicht nur durch eine Beteiligung an der formalen Gestaltung und Bewertung des Unterrichts gefördert werden. Vielmehr bietet eine entsprechende Aufgabenkultur vielfältige Möglichkeiten, demokratische Partizipation durch simulatives oder reales Handeln im fachlichen Lernen zu üben und zu reflektieren.
Entrepreneurship is a process of discovering and exploiting opportunities, during which two crucial milestones emerge: in the very beginning when entrepreneurs start their businesses, and in the end when they determine the future of the business. This dissertation examines the establishment and exit of newly created as well as of acquired firms, in particular the behavior and performance of entrepreneurs at these two important stages of entrepreneurship. The first part of the dissertation investigates the impact of characteristics at the individual and at the firm level on an entrepreneur- selection of entry modes across new venture start-up and business takeover. The second part of the dissertation compares firm performance across different entrepreneurship entry modes and then examines management succession issues that family firm owners have to confront. This study has four main findings. First, previous work experience in small firms, same sector experience, and management experience affect an entrepreneur- choice of entry modes. Second, the choice of entry mode for hybrid entrepreneurs is associated with their characteristics, such as occupational experience, level of education, and gender, as well as with the characteristics of their firms, such as location. Third, business takeovers survive longer than new venture start-ups, and both entry modes have different survival determinants. Fourth, the family firm- decision of recruiting a family or a nonfamily manager is not only determined by a manager- abilities, but also by the relationship between the firm- economic and non-economic goals and the measurability of these goals. The findings of this study extend our knowledge on entrepreneurship entry modes by showing that new venture start-ups and business takeovers are two distinct entrepreneurship entry modes in terms of their founders" profiles, their survival rates and survival determinants. Moreover, this study contributes to the literature on top management hiring in family firms: it establishes family firm- non-economic goals as another factor that impacts the family firm- hiring decision between a family and a nonfamily manager.
We use a novel sea-ice lead climatology for the winters of 2002/03 to 2020/21 based on satellite observations with 1 km2 spatial resolution to identify predominant patterns in Arctic wintertime sea-ice leads. The causes for the observed spatial and temporal variabilities are investigated using ocean surface current velocities and eddy kinetic energies from an ocean model (Finite Element Sea Ice–Ice-Shelf–Ocean Model, FESOM) and winds from a regional climate model (CCLM) and ERA5 reanalysis, respectively. The presented investigation provides evidence for an influence of ocean bathymetry and associated currents on the mechanic weakening of sea ice and the accompanying occurrence of sea-ice leads with their characteristic spatial patterns. While the driving mechanisms for this observation are not yet understood in detail, the presented results can contribute to opening new hypotheses on ocean–sea-ice interactions. The individual contribution of ocean and atmosphere to regional lead dynamics is complex, and a deeper insight requires detailed mechanistic investigations in combination with considerations of coastal geometries. While the ocean influence on lead dynamics seems to act on a rather long-term scale (seasonal to interannual), the influence of wind appears to trigger sea-ice lead dynamics on shorter timescales of weeks to months and is largely controlled by individual events causing increased divergence. No significant pan-Arctic trends in wintertime leads can be observed.
Ziel des Gutachtens ist es, ein realisierbares Gesundheitssystem für Deutschland zu entwerfen, das einerseits Gerechtigkeitsanforderungen entspricht und andererseits durch Wettbwerb Effizienzpotentiale erschließt. Dazu werden Gerechtigkeitsdefizite in der Finanzierung des deutschen Gesundheitssystems (GKV und PKV) aufgezeigt und ein Steuer-Transfersystem vorgeschlagen, das die aufgezeigten Gerechtigkeitsdefizite behebt. Zur Erreichung des Effizienzziels wird die Einführung von mehr Wettbwerb durch Pauschalprämien vorgeschlagen, wobei die Besonderheiten des Gutes "Krankenversicherung" bei den vorgeschlagenen Regelungen berücksichtigt werden. Zur Höhe des benötigten Transfervolumens und zur Umverteilungswirkung auf unterschiedliche Haushalte werden Modellrechnungen durchgeführt.
Outre les stages professionnels bien connus, de plus en plus d’écoles offrent à leurs élèves la possibilité de se faire une idée des domaines d’activité que sont les soins, le social ou la médecine, dans le cadre de ce que l’on appelle les stages sociaux. Les jeunes y font des expériences qui offrent de nombreuses possibilités d’apprentissage de la démocratie.
Perseus kristallîner schilt
(1976)
Mit der Übernahme eines Ziels oder einer Aufgabe wird die Aufmerksamkeit auf ziel- bzw. aufgabenbezogene Informationen fokussiert. Bei dieser Fokussierung können zwei Komponenten unterschieden werden: (1) eine erhöhte kognitive Resonanz für relevante Informationen und (2) eine Blockierung der Verarbeitung irrelevanter Informationen. Die zielbezogene kognitive Fokussierung wird typischerweise wieder aufgehoben, wenn das Ziel erreicht bzw. die Aufgabe erfolgreich bearbeitet ist. Aber was geschieht mit der zielbezogenen Aufmerksamkeitseinstellung nach einem definitiven Scheitern der Zielverfolgung? In einer ersten Experimentalserie wurde die kognitive Resonanz für zielbezogene Information nach induziertem Mißerfolg untersucht. In der ersten Phase der Experimente erhielten die Untersuchungsteilnehmer positive oder negative Leistungsrückmeldung bei der Bearbeitung einer komplexen Labyrinthaufgabe (Experiment 1) bzw. mehrerer Synonymaufgaben (Experiment 2). In der zweiten Phase der Experimente wurden automatische Aufmerksamkeitsbindungen für Stimuli gemessen, die einen inhaltlichen Bezug zu den vorher bearbeiteten Labyrinth- bzw. Synonymaufgaben besitzen. Hierzu wurden die Stimuli als Distraktoren in einer Wort-Lese-Aufgabe dargeboten. In beiden Experimenten waren die Interferenzeffekte für die Distraktoren in der Mißerfolgsbedingung erhöht. In einer zweiten Experimentalserie wurde die Inhibition aufgabenirrelevanter Information nach Mißerfolg analysiert. In einer ersten Studie mußten die Teilnehmer ein lösbares oder unlösbares Labyrinth bearbeiten. Währenddessen wurden akustisch Distraktorwörter dargeboten (Experiment 3). Während der Bearbeitung der Labyrinthaufgabe wurde die Inhibition der irrelevanten Stimuli kontinuierlich erfaßt, indem die Distraktorwörter als Stimuli in einer simultan zu bearbeitenden Farbbenennaufgabe präsentiert wurden. Bei der unlösbaren Labyrinthaufgabe nahmen die Interferenzeffekte der Distraktoren während der Bearbeitung zu, nicht aber bei der Bearbeitung der lösbaren Aufgabe. In zwei weiteren Experimenten wurde untersucht, ob vormals ausgeblendete irrelevante Information nach einem Scheitern der Zielverfolgung disinhibiert wird (Experimente 4 und 5). Hierbei mußten die Teilnehmer eine Reihe von Konzeptidentifikationsaufgaben bearbeiten. Während der Aufgabenbearbeitung wurde die kognitive Zugänglichkeit der verschiedenen Objektmerkmale über Interferenzeffekte in einer zusätzlich zu bearbeitenden Farbbenennaufgabe gemessen. Die Zurückweisung eines Merkmals in der Konzeptidentifikationsaufgabe führte zu einer Inhibition des korrespondierenden Merkmalsbegriffs. Durch Einstreuen invalider Rückmeldungen konnte eine Situation hergestellt werden, in der alle möglichen Merkmale der Konzeptidentifikationsaufgabe widerlegt wurden. In dieser Situation war die globale Suchstrategie als Ganze gescheitert und die vorher inhibierten Merkmale wurden wieder zugänglich. Zusammengenommen stützen die Experimente die Hypothese, daß Mechanismen einer bevorzugten Verarbeitung relevanter Information und einer Ausblendung irrelevanter Information durch Mißerfolg unterschiedlich beeinflußt werden. Eine erhöhte kognitive Resonanz für zielbezogene Information persistiert auch nach einem definitiven Scheitern der Zielverfolgung. Diese Perseveranz der Sensitivität für zielbezogene Information garantiert, daß mögliche zukünftige Gelegenheiten für eine erfolgreiche Zielverfolgung nicht übersehen werden. Eine Inhibition irrelevanter Informationen wird angesichts eines Scheiterns der Zielverfolgung allerdings nicht aufrechterhalten. Die Erfahrung wiederholter erfolgloser Bemühungen der Zielerreichung induziert einen offenen, defokalisierten Modus der Informationsverarbeitung, der für eine Neuorientierung nach Mißerfolg funktional ist.
Currently, new business models created in the sharing economy differ considerably and they differ in the formation of trust as well. If and how trust can be created is shown by a comparison of two examples which diverge in their founding philosophy. The chosen example of community-based economy, Community Supported Agriculture (CSA), no longer trusts the capitalist system and therefore distances itself and creates its own environment including a new business model. It is implemented within rather small groups where trust is created by personal relations and face-to-face communication. On the contrary, the example of a platform economy, the accommodation-provider company Airbnb, shows trust in the system and pushes technological innovations through the use of platform applications. It promotes trust and confidence in the progress of technology. For the conceptual analysis, the distinction between personal trust and system trust defined by Niklas Luhmann is adopted. The analysis describes two different modes of trust formation and how they push distrust or improve trust. Grounded on these analyses, assumptions on the process of trust formation within varying models of the sharing economy are formulated as well as a hypothesis about possible developments is introduced for further research.
There is ample evidence that the personality trait of extraversion is associated with frequent experiences of positive affect whereas introversion is associated with less frequent experiences of positive affect. According to a theory of Watson et al. (1997), these findings demonstrate that positive affect forms the conceptual core of extraversion. In contrast, several other researchers consider sociability - and not positive affect - as the core of extraversion. The aim of the present work is to examine the relation between extraversion and dispositional positive affect on the neurobiological level. In 38 participants resting cerebral blood flow was measured with continuous arterial spin labeling (CASL). Each participant was scanned on two measurement occasions separated by seven weeks. In addition, questionnaire measures of extraversion and dispositional positive affect were collected. To employ CASL for investigating the biological basis of personality traits, the psychometric properties of CASL blood flow measurements were examined in two studies. The first study was conducted to validate the CASL technique. Using a visual stimulation paradigm, the expected pattern of activity was found, i.e. there were specific differences in blood flow in the primary and secondary visual areas. Moreover, the results in the first measurement occasion could be reproduced in the second. Thus, these results suggest that CASL blood flow measurements have a high degree of validity. The aim of the second psychometric study was to examine whether resting blood flow measurements are characterized by a sufficient trait stability to be used as a marker for personality traits. Employing the latent state-trait theory developed by Steyer and colleagues, it was shown that about 70 % of the variance of regional blood flow could be explained by individual differences in a latent trait. This suggests that blood flow measurements have sufficient trait stability for investigating the biological basis of personality traits. In the third study, the relation between extraversion and dispositional positive affect was investigated on the neurobiological level. Voxel-based analyses showed that dispositional positive affect was correlated with resting blood flow in the ventral striatum, i.e. a brain structure that is associated with approach behavior and reward processing. This biological basis was also found for extraversion. In addition, when extraversion was statistically controlled, the association between dispositional positive affect and blood flow in the ventral striatum was still present. However, when dispositional positive affect was statistically controlled, the relation between extraversion and the ventral striatum disappeared. Taken together, these results suggest that positive affect forms a core of extraversion on the neurobiological level. The present findings thus add psychophysiological evidence to the theory of Watson et al. (1997), which suggests that positive affect forms the conceptual core of extraversion.
In der Arbeit wird untersucht, wie die EU mit Diversität umgeht, wie sich entsprechende Maßnahmen in der Personalpolitik der verschiedenen europäischen Behörden niederschlägt und welche Auswirkungen dies hat. Es wird herausgearbeitet, dass die EU als Institution einige Spezifika aufweist, die diese Frage beeinflussen und die bei einer Beurteilung Berücksichtigung finden müssen. So ist die EU verpflichtet, die Vielfalt der Mitgliedstaaten in den eigenen Institutionen abzubilden. Eine Besonderheit ist auch, dass die Effizienz der Organisation " und damit auch der mögliche Wert von Diversity Management (DiM) " mangels marktinduzierter Kriterien schwer zu bestimmen ist. Die Arbeit gliedert sich in vier Teile. Nach einer überblickartigen Einführung (Teil A) werden in Teil B der Anspruch von DiM und dessen Vor- und Nachteile dargestellt. Als Bezugspunkt für erfolgreiches DiM werden einige Beispiele aus deutschen Großunternehmen angeführt, wo DiM eine relativ bedeutende Rolle spielt. Die Einschätzung, was diese Erfahrungen für die EU bedeuten könnten, schließt den Teil B ab. Dabei werden die Besonderheiten einer Behörde, die durch starke rechtliche Regelungen gebunden ist und für die es kaum eindeutige Effizienzkriterien gibt, besonders hervorgehoben. Der Teil C enthält die empirischen Recherchen, die angestellt wurden. Dazu werden zunächst das Weißbuch des Kinnock Reports und das Statut für die Beamten der Europäischen Gemeinschaften von 2004 ausführlich dargestellt und anschließend gewürdigt. Es stellt sich heraus, dass bei einzelnen Personalmaßnahmen bereits weitgehende Öffnungen und Flexibilitäten vorgesehen sind, die sich unmittelbar zur Implementierung von DiM anbieten. Im Weiteren wurde ein leitender Mitarbeiter des Europäischen Parlaments zu dem Statut ausführlich interviewt. Die Ergebnisse verleihen den vorher geschilderten Regelungen des Statuts Farbe und vermitteln dem Außenstehenden ein lebendiges Bild vom Innenleben einer solchen Behörde. Die Einschätzung der neuen Regelungen durch den Interviewten ist zwar differenziert, aber insgesamt ergibt sich doch ein positives Bild der personalpolitischen Maßnahmen im Hinblick auf die mögliche Implementierung von DiM. Die zweite wesentliche empirische Quelle der Arbeit sind Publikationen der EU selbst zu Problemen der Diversität, Diskriminierung und verwandten Themen. Die dazu erschienenen Broschüren geben Auskunft darüber, welche Ansichten die Mitarbeiter zu Bestrebungen um Diversität und Chancengleichheit äußern, welche Aktionen die EU plant und welche Erfolge man sich erhofft. Die Prüfung dieser Unterlagen ergibt, dass in einer solchen Organisation die Integration von Minderheiten weit fortgeschritten ist und Vorurteile und offene Diskriminierungen weitgehend fehlen. Jedoch werden Umsetzungsprobleme der Maßnahmen zur Chancengleichheit der Geschlechter, zur work-life balance, zur Respektierung von Behinderungen oder sexuellen Orientierungen konstatiert. Um die geschilderten Maßnahmen zu beurteilen, werden sie mit entsprechenden Entwicklungen der im zweiten Teil der Arbeit beschriebenen privatwirtschaftlichen Organisationen, die als Vorreiter des DiM in Europa angesehen werden können, verglichen. In einem weiteren Schritt sollten die Einschätzung der Mitarbeiter zu Diversität und zu den vorher beschriebenen Maßnahmen ergründet werden. Die ins Auge gefasste repräsentative Befragung konnte trotz anfänglicher Ermutigung in einer Behörde der EU, dem Europäischen Parlament (EP), nicht durchgeführt werden, da die EU-Behörden eine offizielle Unterstützung der Untersuchung und damit den Zugang zu anderen Interviewpartnern nicht zustimmten. Daher beschränkte sich die Befragung auf Mitarbeiter, die sich nach Ansprache durch einige leitende Beamte zur Beantwortung gleichsam als Privatpersonen zur Ausfüllung des Fragebogens bereit erklärten. Die Befragung hat also keinerlei repräsentativen, sondern rein explorativen Charakter. Im Teil D der Arbeit wird eine Gesamtbewertung der Recherchen abgegeben. Es wird konstatiert, dass zwar eine Menge an Einzelinitiativen und -maßnahmen in den Behörden der EU zu finden ist, dass aber mit einem übergreifenden Konzept des DiM diese Aktionen koordiniert und in ihrem Nutzen verstärkt werden könnten.
During the twelve years of the National Socialist regime in Germany, the relationship between the writers who left the country as emigrants and those who decided to stay was characterized by latent tensions. The former claimed that they were the only active literary opposition to stand up against Nazi Germany while the latter insisted that they impartially witnessed, in an attitude of passive hostility, what happened in the country. This tense relationship grew into an open dispute after World War II. It has been extensively outlined that this controversy has significantly influenced the development of German Literary theory in the post-war-period. Today, we should approach the writings of German exiles and "inner emigration" from a more rational perspective, ceasing to see this era only in the light of a subsequent literary controversy. The PhD thesis presented here aims at developing a set of such rational evaluation parameters which may serve to better understand selected writings of authors from exile and "inner emigration" in the historical context of National Socialism. An in-depth review of three novels (Werner Bergengruen, Der Großtyrann und das Gericht; Ernst Glaeser, der letzte Zivilist; Ernst Weiß, Der Augenzeuge) will analyze to which extend an omnipresent Nazi propaganda and a strong NS symbolism influenced the work of these three authors - regardless of where they wrote, in their mother country or from exile`s perspective.
Ziel der vorliegenden Forschungsarbeit war es, den Einfluss des dispositionellen Bedürfnisses nach kognitiver Geschlossenheit (NCC) auf Entscheidungen unter Unsicherheit zu untersuchen. Es wurde vorhergesagt, dass NCC Entscheidungsphänomene moderiert, die sich durch unterschiedliche Ausmaße an Unsicherheit kennzeichnen. Um diese Annahme zu testen, wurden im Rahmen dreier Studien klassische Entscheidungsprobleme vorgegeben, die eine Wahl zwischen Entscheidungsalternativen mit unterschiedlichen Ausmaßen an Unsicherheit, aber gleichem Erwartungswert erforderten. Studien 1 bis 3 untersuchten den Einfluss des NCC auf den fundamentalen Ambiguitätsaversionseffekt im Ellsberg-Paradigma (Ellsberg, 1961). Hierzu wurde eine Adaption des klassischen Zwei-Farben-Urnenproblems vorgegeben, in dem eine Wahl zwischen einer Urne mit bekanntem Risiko und einer ambiguen Urne getroffen werden musste. Hypothesenkonform erwies sich NCC als signifikanter Prädiktor der Urnenwahl. Einzelanalysen zeigten, dass der Ambiguitätsaversionseffekt, der als Präferenz der bekannten (versus der ambiguen) Urne definiert ist, nur in der Gruppe mit hohem NCC auftrat. In der Gruppe mit niedrigem NCC zeigte sich keine systematische Präferenz. Dieser Effekt konnte in allen drei Studien nachgewiesen werden und erwies sich somit als besonders robust und reliabel. Zudem wurde in der dritten Studie der Einfluss des NCC auf Risikoframingeffekte im Asian-Disease-Paradigma untersucht. Hierbei mussten sich die Teilnehmer und Teilnehmerinnen zwischen einer sicheren und einer riskanten Option entscheiden, die in zwei kontextuellen Bedingungen dargeboten wurden: einem Gewinnframe und einem Verlustframe. Die Ergebnisse dieser Studie zeigten, dass sich Individuen mit einem hohen und einem niedrigen NCC in ihren Präferenzen in Abhängigkeit vom jeweiligen Problemframe unterschieden. In der Gruppe mit einem hohen NCC zeigte sich unter Gewinnframing eine starke Präferenz der sicheren Alternative (Risikovermeidung), wohingegen unter Verlustframing keine Option bevorzugt wurde. Individuen mit einem niedrigen NCC wiesen hingegen unter Gewinnframing keine systematische Präferenz auf, wohingegen sie unter Verlustframing stark die riskante Option bevorzugten. Zudem zeigte eine Betrachtung des Verhaltens über die untersuchten Entscheidungsprobleme hinweg, dass Individuen mit einer starken Ausprägung auf dieser Variablen dazu neigten, sich über die untersuchten Entscheidungssituationen hinweg konsistent zu verhalten. Insgesamt unterstützen die Ergebnisse die Annahme, dass NCC eine Persönlichkeitsvariable darstellt, die Entscheidungsverhalten unter Unsicherheit bedeutsam beeinflusst. Implikationen und Konsequenzen dieser Ergebnisse werden diskutiert.
During and after application, pesticides enter the atmosphere by volatilisation and by wind erosion of particles on which the pesticide is sorbed. Measurements at application sites revealed that sometimes more than half of the amount applied is lost into the atmosphere within a few days. The atmosphere is an important part of the hydrologic cycle that can transport pesticides from their point of application and deposit them into aquatic and terrestrial ecosystems far from their point of use. In the region of Trier pesticides are widely used. In order to protect crops from pests and increase crop yields in the viniculture, six to eight pesticide applications take place between May and August. The impact that these applications have on the environmental pollution of the region is not yet well understood. The present study was developed to characterize the atmospheric presence, temporal patterns, transport and deposition of a variety of pesticides in the atmosphere of the area of Trier. To this purpose, rain samples were weekly collected at eight sites during the growing seasons 2000, 2001 and 2002, and air samples (gas and particle phases) were collected during the growing season 2002. Multiresidue analysis methods were developed to determine multiple classes of pesticides in rain water, particle- and gas-phase samples. Altogether 24 active ingredients and 3 metabolites were chosen as representative substances, focussing mainly on fungicides. Twenty-four of the 27 measured pesticides were detected in the rain samples; seventeen pesticides were detected in the air samples. The most frequently detected pesticides and at the highest concentrations, both in rain and air, were compounds belonging to the class of fungicides. The insecticide methyl parathion was also detected in several rain samples as well as two substances that are banned in Germany, such as the herbicides atrazine and simazine. Concentration levels varied during the growing season with the highest concentrations being measured in the late spring and summer months, coinciding with application times and warmer months. Concentration levels measured in the rain samples were, generally, in the order of rnng l-1. Though average concentrations for single substances were less than 100 ng l-1, total concentrations were considerable and in some instances well above the EU drinking water quality standard of 500 ng l-1 for total pesticides. Compared to the amounts applied for pest control, the amounts deposited by rain resulted between 0,004% and 0,10% of the maximum application rates. These low pesticide inputs from precipitation to surface-water bodies is not of concern in vinicultural areas where the impact of other sources, such as superficial runoff inputs from the treated areas and cleaning of field crop sprayers, is more important. However, the potential impacts of these aerial pesticide inputs to non-target sites, such as organic crops, and sensitive ecosystems are as yet not known. Concentration levels in the air samples were in the order of ng m-3 at sites close to the fields were pesticides were applied, while lower values, in the order of pg m-3, were detected at the site located further away from fields where applications were performed. The measured air concentration levels found in this study do not represent a concern for human health in terms of acute risk. Inhalation toxicity studies have shown that an acute potential risk only arises at air concentrations in the range of g m-3. Finally, it must be kept in mind that only a small number of chemicals that were applied in the area were analysed for in this study. In order to gain a better evaluation of the local atmospheric load of pesticides, a wider spectrum of applied substances (including metabolites) needs to be investigated.
Early life adversity (ELA) is associated with a higher risk for diseases in adulthood. Changes in the immune system have been proposed to underlie this association. Although higher levels of inflammation and immunosenescence have been reported, data on cell-specific immune effects are largely absent. In addition, stress systems and health behaviors are altered in ELA, which may contribute to the generation of the "ELA immune phenotype". In this thesis, we have investigated the ELA immune phenotype on a cellular level and whether this is an indirect consequence of changes in behavior or stress reactivity. To address these questions the EpiPath cohort was established, consisting of 115 young adults with or without ELA. ELA participants had experienced separation from their parents in early childhood and were subsequently adopted, which is a standard model for ELA, whereas control participants grew up with their biological parents. At a first visit, blood samples were taken for analysis of epigenetic markers and immune parameters. A selection of the cohort underwent a standardized laboratory stress test (SLST). Endocrine, immune, and cardiovascular parameters were assessed at several time points before and after stress. At a second visit, participants underwent structural clinical interviews and filled out psychological questionnaires. We observed a higher number of activated T cells in ELA, measured by HLA-DR and CD25 expression. Neither cortisol levels nor health-risk behaviors explained the observed group differences. Besides a trend towards higher numbers of CCR4+CXCR3-CCR6+ CD4 T cells in ELA, relative numbers of immune cell subsets in circulation were similar between groups. No difference was observed in telomere length or in methylation levels of age-related CpGs in whole blood. However, we found a higher expression of senescence markers (CD57) on T cells in ELA. In addition, these cells had an increased cytolytic potential. A mediation analysis demonstrated that cytomegalovirus infection " an important driving force of immunosenescence " largely accounted for elevated CD57 expression. The psychological investigations revealed that after adoption, family conditions appeared to have been similar to the controls. However, PhD thesis MMC Elwenspoek 18 ELA participants scored higher on a depression index, chronic stress, and lower on self-esteem. Psychological, endocrine, and cardiovascular parameters significantly responded to the SLST, but were largely similar between the two groups. Only in a smaller subset of groups matched for gender, BMI, and age, the cortisol response seemed to be blunted in ELA participants. Although we found small differences in the methylation level of the GR promoter, GR sensitivity and mRNA expression levels GR as well as expression of the GR target genes FKBP5 and GILZ were similar between groups. Taken together, our data suggest an elevated state of immune activation in ELA, in which particularly T cells are affected. Furthermore, we found higher levels of T cells immunosenescence in ELA. Our data suggest that ELA may increase the risk of cytomegalovirus infection in early childhood, thereby mediating the effect of ELA on T cell specific immunosenescence. Importantly, we found no evidence of HPA dysregulation in participants exposed to ELA in the EpiPath cohort. Thus, the observed immune phenotype does not seem to be secondary to alterations in the stress system or health-risk behaviors, but rather a primary effect of early life programming on immune cells. Longitudinal studies will be necessary to further dissect cause from effect in the development of the ELA immune phenotype.
In his article, the author asks how legitimacy of law and the concept of rules of law can be described taking into account the interaction between aspects of philosophy and sociology as well as the will of the state in states' constitutions. As the rule of law, versus other kinds of rules in our society, should be regarded as a rule of "three-dimensionality" " an interaction between the will of the state, the social, historical, and economic factors, and the idea or concept of justice ", the author focuses his interest on the examination of these three factors always taking into account that law is the will of the state, but that not every decision of the state can be considered as law.
Die Dissertation zur "Pfälzischen Phraseologie" greift in den letzten Jahren für den deutschsprachigen Raum mehrfach thematisierte Forschungsdesiderate der (dialektalen) Phraseologie und Lexikographie auf: die genauere Analyse des phraseologischen Systems eines Dialekts sowie die Darstellung von Phraseologismen in Dialektwörterbüchern. In der vorliegenden Arbeit wird hierfür das Pfälzische ausgewählt, da es bisher in phraseologischer Hinsicht kaum untersucht wurde. Die Studie erweitert insofern die wenigen bereits vorhandenen Analysen dialektaler Phraseologie um eine zusätzliche Regionalsprache. Ziel der Arbeit ist es, die Besonderheiten der pfälzischen Phraseologie auf lexikographischer, kultureller und stilistisch-pragmatischer Ebene herauszuarbeiten. Die Phraseologie des Pfälzischen wird somit in dieser Studie unter verschiedenen Gesichtspunkten betrachtet und analysiert. In einem ersten Schritt wird das zugrunde gelegte Korpus, eines der großlandschaftlichen Dialektwörterbücher, das Pfälzische Wörterbuch, aus Sicht der enthaltenen Phraseologiekomponenten unter makro- und mikrostrukturellen Gesichtspunkten ausgewertet und beurteilt. Dadurch können detaillierte Aussagen zur Repräsentation der Phraseologie innerhalb eines Wörterbuchtypus gewonnen werden, wie sie bisher nur in Ansätzen und für andere Dialektwörterbücher vorhanden sind. Außerdem wird die Verwendbarkeit von Dialektwörterbüchern als Datengrundlage für die dialektale Phraseologie diskutiert. Die aus dem Wörterbuch erhobene Materialsammlung von Phrasemen bildet die Grundlage für den zweiten Hauptteil der Arbeit, die genauere Analyse der pfälzischen Phraseologie unter verschiedenen Aspekten (v. a. der sprachlich-kulturellen Wissensstrukturen, die die bildliche Motivation der Phraseologismen bestimmen, und die damit eng verbundenen stilistisch-pragmatischen Kennzeichen). Hierbei können innerhalb des pfälzischen phraseologischen Inventars unterschiedliche Merkmale herausgestellt werden: Unter anderem Übereinstimmungen mit der Phraseologie des Standarddeutschen und z. T. gesamteuropäische Bezüge, aber auch Eigenständiges in einzelnen Subkategorien.
Phylogeographic analyses point to long-term survival on the spot in micro-endemic Lycian salamanders
(2020)
Lycian salamanders (genus Lyciasalamandra) constitute an exceptional case of microendemism of an amphibian species on the Asian Minor mainland. These viviparous salamanders are confined to karstic limestone formations along the southern Anatolian coast and some islands. We here study the genetic differentiation within and among 118 populations of all seven Lyciasalamandra species across the entire genus’ distribution. Based on circa 900 base pairs of fragments of the mitochondrial 16SrDNA and ATPase genes, we analysed the spatial haplotype distribution as well as the genetic structure and demographic history of populations. We used 253 geo-referenced populations and CHELSA climate data to infer species distribution models which we projected on climatic conditions of the Last Glacial Maximum (LGM). Within all but one species, distinct phyloclades were identified, which only in parts matched current taxonomy. Most haplotypes (78%) were private to single populations. Sometimes population genetic parameters showed contradicting results, although in several cases they indicated recent population expansion of phyloclades. Climatic suitability of localities currently inhabited by salamanders was significantly lower during the LGM compared to recent climate. All data indicated a strong degree of isolation among Lyciasalamandra populations, even within phyloclades. Given the sometimes high degree of haplotype differentiation between adjacent populations, they must have survived periods of deteriorated climates during the Quaternary on the spot. However, the alternative explanation of male biased dispersal combined with a pronounced female philopatry can only be excluded if independent nuclear data confirm this result.
Die Dissertation untersucht die Vorstellungen über „kranke Pflanzen“ in der griechisch-römischen Antike. Ziel der Arbeit ist es, diese anhand der Schriftzeugnisse von Homer bis Boethius am Anfang des 6. Jahrhunderts darzustellen. Die Darstellung der Phytomedizin der Antike erfolgt dabei in vier Themenkomplexen: in einem lexikalischen Teil werden die konkreten Schäden und der Umgang mit ihnen aufgezeigt; in der Folge werden deren Stellenwert in wissenschaftlicher, gesellschaftlicher und poetologischer Hinsicht beleuchtet. Kern der Arbeit ist die systematische Darstellung der antiken phytomedizinischen Kenntnisse zu den einzelnen Pflanzenkrankheiten und sonstigen Schadfaktoren sowie eine Darstellung der in der antiken Literatur verankerten Gegenmaßnahmen.
The process of land degradation needs to be understood at various spatial and temporal scales in order to protect ecosystem services and communities directly dependent on it. This is especially true for regions in sub-Saharan Africa, where socio economic and political factors exacerbate ecological degradation. This study identifies spatially explicit land change dynamics in the Copperbelt province of Zambia in a local context using satellite vegetation index time series derived from the MODIS sensor. Three sets of parameters, namely, monthly series, annual peaking magnitude, and annual mean growing season were developed for the period 2000 to 2019. Trend was estimated by applying harmonic regression on monthly series and linear least square regression on annually aggregated series. Estimated spatial trends were further used as a basis to map endemic land change processes. Our observations were as follows: (a) 15% of the study area dominant in the east showed positive trends, (b) 3% of the study area dominant in the west showed negative trends, (c) natural regeneration in mosaic landscapes (post shifting cultivation) and land management in forest reserves were chiefly responsible for positive trends, and (d) degradation over intact miombo woodland and cultivation areas contributed to negative trends. Additionally, lower productivity over areas with semi-permanent agriculture and shift of new encroachment into woodlands from east to west of Copperbelt was observed. Pivot agriculture was not a main driver in land change. Although overall greening trends prevailed across the study site, the risk of intact woodlands being exposed to various disturbances remains high. The outcome of this study can provide insights about natural and assisted landscape restoration specifically addressing the miombo ecoregion.
As the oldest genre in New Zealand literature written in English, poetry always played a significant role in the country's literary debate and was generally considered to be an indicator of the country's cultural advancement. Throughout the 20th century, the question of home, of where it is and what it entails, became a crucial issue in discussing a distinct New Zealand sense of identity and in strengthening its independent cultural status. The establishment of a national sense of home was thus of primary concern, and poetry was regarded as the cultural marker of New Zealand's independence as a nation. In this politically motivated cultural debate, the writing of women was only considered on the margin, largely because their writing was considered too personal and too intimately tied together with daily life, especially domestic life, as to be able to contribute to a larger cultural statement. Such criticism built on gender role stereotypes, like for instance women's roles as mothers and housewives in the 1950s. The strong alignment of women with the home environment is not coincidental but a construct that was, and still is, predominantly shaped by white patriarchal ideology. However, it is in particular women's, both Pakeha and Maori, thorough investigation into the concept of home from within New Zealand's society that bears the potential for revealing a more profound relationship between actual social reality and the poetic imagination. The close reading of selected poems by Ursula Bethell, Mary Stanley, Lauris Edmond and J.C. Sturm in this thesis reveals the ways in which New Zealand women of different backgrounds subvert, transcend and deconstruct such paradigms through their poetic imagination. Bethell, Stanley, Edmond and Sturm position their concepts of home at the crossroads between the public and the private realm. Their poems explore the correspondence between personal and national concerns and assess daily life against the backdrop of New Zealand's social development. Such complex socio-cultural interdependence has not been paid sufficient attention to in literary criticism, largely because a suitable approach to capturing the complexity of this kind of interconnectedness was lacking. With Spaces of Overlap and Spaces of Mediation this thesis presents two critical models that seek to break the tight critical frames in the assessment of poetic concepts of home. Both notions are based on a contextualised approach to the poetic imagination in relation to social reality and seek to carve out the concept of home in its interconnected patterns. Eventually, this approach helps to comprehend the ways in which women's intimate negotiations of home translate into moments of cultural insight and transcend the boundaries of the individual poets' concerns. The focus on women's (re)negotiations of home counteracts the traditionally male perspective on New Zealand poetry and provides a more comprehensive picture of New Zealand's cultural fabric. In highlighting the works of Ursula Bethell, Mary Stanley, Lauris Edmond and J.C. Sturm, this thesis not only emphasises their individual achievements but makes clear that a traditional line of New Zealand women's poetry exists that has been neglected far too long in the estimation of New Zealand's literary history.
Eine Vielzahl hydrophiler Xenobiotika wird in kommunalen Kläranlagen nur unvollständig abgebaut und stellt ein potentielles Risiko für aquatische Ökosysteme dar. Die Eliminationsleistung von Kläranlagen hat sich deshalb während des letzten Jahrzehnts zu einem Schwerpunkt in der aquatischen Umweltchemie entwickelt. Die vorliegende Arbeit untersucht in diesem Zusammenhang die Variation biologischer Abbauleistungen kommunaler Kläranlagen für polare Xenobiotika. Es soll überprüft werden, ob die Abbauleistung von Xenobiotika mit derer klassischer Nährstoffe in Beziehung gesetzt werden kann. Als zusätzlicher Faktor zur Erklärung von unterschiedlichen Eliminationsleistungen wurden Probenahmestrategien hinsichtlich der Erstellung von Massenbilanzen analysiert. Fünf Pharmaka sowie drei Aminopolycarbonsäuren wurden als Testsubstanzen ausgewählt. Diese umfassen ein Spektrum an mikrobiologischer Abbaubarkeit bedingt durch die Reaktivität ihrer unterschiedlichen molekularen Strukturen. Ein kombinierter Versuchsaufbau aus Respirometrie und Abbautests ermöglichte, neben der Bestimmung von Abbaukinetiken, auch die Charakterisierung von Belebtschlamm. Der Einfluss von Mischungsprozessen auf die Abbauleistungen von Kläranlagen wurde mittels hydraulischer Aufenthaltszeitverteilungen modelliert. Darauf basierend wurde eine Methode zur Beurteilung und Erstellung von Eliminationsleistungen aus Zulauf-Ablauf Massenbilanzen entwickelt. Die Resultate zeigen deutliche Unterschiede in den Belebtschlammcharakteristika und dem Abbaupotential von Xenobiotika zwischen verschiedenen Kläranlagen. Die aktive heterotrophe Biomasse wurde als steuernder Faktor für die Biodegradation der untersuchten leicht und moderat abbaubaren Xenobiotika identifiziert. Dies kann als Hinweis auf kometabolische Abbauprozesse durch unspezifische Enzymaktivitäten gewertet werden. Die beobachtete Abnahme der Eliminationsleistung mit steigendem Schlammalter konnte anhand modifizierter Kinetiken pseudo-erster Ordnung beschrieben werden. Die Modellierung von Mischungsprozessen mittels hydraulischer Aufenthaltszeitverteilungen macht deutlich, mit welcher Unsicherheit Massenbilanzen in Kläranlagen behaftet sind. Die Ergebnisse demonstrieren, dass dies vor allem auf inadäquate Probenahmestrategien zurückzuführen ist. Insbesondere Massenbilanzen auf der Basis von kurzen Probenahmezeiträumen und 24-h Mischproben resultieren in fehlerhafte Eliminationsraten. Der vorgestellte Ansatz benutzt die Verteilungen von Aufenthaltszeiten als Leitprinzip, um Zulauf- und Ablauffrachten zueinander in Beziehung zu setzen. Die Methode kann als Grundlage zur akkuraten Schätzung von Eliminationsleistungen herangezogen werden und bietet eine Erklärung für das Vorkommen negativer Eliminationsleistungen.
Die Untersuchung beschäftigt sich mit den Prozessen und Mechanismen, die dem NATO-Beitritt Polens zugrunde liegen, insbesondere mit den Gründen für die Transformation der zivil-militärischen Beziehungen in Polen. Die Demokratisierung der zivil-militärischen Beziehungen war eines der Hauptkriterien für den Beitritt Polens in die NATO. rnVor diesem Hintergrund geht die Arbeit der Frage nach, ob nachzuweisen ist, dass der Einfluss der NATO primär für die Demokratisierung der zivil-militärischen Beziehungen Polens verantwortlich ist. Dabei stützt sich die Arbeit auf den aktuellen Forschungsstand der Theorien internationaler Sozialisation, deren Ziel es ist, die Prozesse und Mechanismen der Normübernahme von Staaten zu erklären. Der theoretische Rahmen wurde in ein Forschungsdesign eingebettet, das vielfältige Methoden für die detaillierte empirische Analyse einbezieht. Ergänzend wurden alternative und ergänzende Erklärungen überprüft, die nicht durch die Theorie abgedeckt werden. Entgegen der vorherrschenden Meinung in der Fachliteratur kommt die Untersuchung zu dem Ergebnis, dass die NATO nicht primär für die Sozialisation und damit Demokratisierung der zivil-militärischen Beziehungen in Polen verantwortlich ist. Polen ist erfolgreich in der Demokratisierung seiner zivil-militärischen Beziehungen, jedoch ist die NATO nicht erfolgreich in der Sozialisation Polens in diesem Bereich, sondern eher darin, den Demokratisierungsprozess in Polen mit Erfahrung und Expertise zu flankieren. Dieser Prozess wurde maßgeblich innenpolitisch und durch Akteure in Polen angestoßen, angetrieben, getragen und schlussendlich entschieden. Obgleich die NATO das Beitrittskriterium vorgab und die polnischen Akteure durchaus begleitete, kann darüber hinaus der Einfluss der NATO als nicht maßgeblich bewertet werden. Im Gegenteil, die Ergebnisse zeigen, dass es nicht das Ziel der NATO war, die Prozesse direkt zu beeinflussen oder zu steuern, sondern vielmehr, den Transformationsprozess der zivil-militärischen Beziehungen in Polen, insbesondere die praktische Umsetzung, durch Expertise und Erfahrungen zu begleiten und eigene Lernprozesse anzustoßen.
Das Judenschutzprivileg Karls d. Gr. setzte voraus, daß den Juden eine die Königsherrschaft bzw. den Staat stützende Funktion zugedacht war. Damit vollzog der Kaiser eine Wende um 1800 gegenüber den antiken Herrschern, die in den Juden eine Gefahr für ihren zentralisierten Einheitsstaat erblickt hatten. Unter dem Dach des von Kaiser Karl begründeten Judenschutzes lebte das traditionelle politische Motiv einer sich in zahlreichen Repressionen bis hin zu Verfolgungen und Vertreibungen äußernden Judenfeindschaft im nordalpinen Raum weiter, modifiziert infolge geänderter Voraussetzungen. Die Juden fanden sich hinfort in einem politischen Spannungsfeld zwischen Judenschutz und Anfeindung eingebunden und zwar innerhalb eines sich horizontal zunächst bipolar (Rivalität Kaiser/König - Papst), dann auch multipolar ausweitenden Herrschaftsbereiches mit zum Teil rivalitätsbedingten Übergriffen bis hin zu Verfolgungen.- Wegen der Beteiligung anderer Gewalten neben dem König an der Herrschaft über die Juden und damit an der Ausübung des Judenschutzes wurden die Juden oftmals Leidtragende separater materieller und politischer Konflikte, weil sie politisch als Stütze konkurrierender bzw. einander verfeindeter Herrschaftsträger wahrgenommen wurden, womit eine der Modifikationen des traditionellen Motivs faßbar wird - die Gefährdung eigener Herrschaftspositionen durch den politischen Widersacher. Folgt man dem Ritter und Ministerialen Johann von Rinberg als Leitfigur - 1298 wird er dann definitiv zur Hauptfigur -, erschließt sich ein neuer bisher in der Forschung vernachlässigter Täterkreis - die Rolle der Ministerialen bei Judenverfolgungen gerät in den Focus der Aufmerksamkeit und nicht der Mob, die blind wütende, die Juden mit oder ohne pseudoreligiösem Bezug kriminalisierende und lynchende Masse, sondern vielmehr die Frage nach den Drahtziehern bzw. Strippenziehern im Hintergrund, den Hintermännern der stereotyp wiederkehrenden Standardbeschuldigungen (Brunnen- vergiftung, Hostienfrevel, Ritualmord,...). Der im Rheingau gelegene Salhof Lorch entpuppte sich als das Zentrum ministerialischer Opposition unter Führung des Rheingrafen gegen den Ausbau der Landesherrschaft des Mainzer Erzbischofs. Hier in Lorch selbst veranlaßten die Ministerialen während eines "Krieges" gegen den Erzbischof Werner von Mainz ihre erste Judenverfolgung im Jahre 1274/5, worin auch die Familie der Rinbergs involviert war. In den Verhandlungen eines Schiedsgerichts wird die von den Ministerialen eingeschlagene Taktik erkennbar, ihre Verantwortung und Mitschuld zu verschleiern und die Schuld ausschließlich den eigentlichen Judenschlägern anzulasten, was freilich nicht ganz gelingt, da der Erzbischof auf vollem Schadenersatz bestand, den die ärmeren Judenschläger selbst nicht zu leisten vermochten. Mit dem Sieg des Erzbischofs 1279 in der Schlacht bei Gensingen gegen die Ministerialität unter Führung des Rheingrafen und seinem Sieg auch in der sich anschließenden "Sponheimer Fehde" des Jahres 1281 kam die Wende auch für die Truchsessenfamilie von Rinberg. Ihre und des Rheingrafen Burg Rheinberg im Wispertal wurde 1281 erobert und zerstört und das Truchsessenamt ihnen entzogen. Sigfrid von Rinberg und sein Sohn Johann gerieten nicht wie der Rheingraf und dessen Sohn in Gefangenschaft, sie konnten sich ihr durch die Flucht entziehen, unterwarfen sich nicht und wurden von nun an ausdrücklich als "Feinde" des Erzbischofs und der Mainzer Kirche bezeichnet. Der Rheingraf wurde aus dem Rheingau verdrängt und mußte sich verpflichten, keine konspirativen Kontakte zu diesen Feinden aufzunehmen bzw. zu pflegen, sie nicht zu beherbergen. Gleiches galt natürlich auch für die unterworfene Ministerialität. Indizien legen den Schluß nahe, daß sich Johann von Rinberg zwischen 1281 und 1292 in Reichweite des Salhofes Lorch aber dennoch an einem sicheren Ort aufhielt, in der Reichsstadt Oberwesel. Von hier aus ließen sich durch ihn als erklärtem Feind des Erzbischofs hervorragend konspirativ Verbindungen knüpfen und koordinieren. Die Ministerialenopposition lebte im Verborgenen wieder auf. Gesucht wurde nach Wegen, scheinlegal im Zusammenspiel mit dem verbündeten Mainzer Stadtrat gegen Positionen des Erzbischofs - hier gegen dessen Juden - vorzugehen. So kann es nicht verwundern, daß diesesmal der nächste Vorstoß gegen die Juden 1282/3 nicht von Lorch her sondern von Olm aus erfolgte durch den Ritter und Ministerialen Herbord Ring von Olm, der bezeichnenderweise enge Verbindungen zum Salhof Lorch unterhielt, der jetzt in Begleitung weiterer Ministerialen vor der Stadt Mainz erschien, um wegen der Ermordung angeblich seines Neffen und angeblich durch Juden der Stadt Mainz Einlaß zu begehren und eine ordentliche Gerichtsverhandlung zu verlangen. Das Komplott des Herbord im Zusammenspiel mit dem Mainzer Stadtrat, der danach trachtete, den Judenschutz und die Gerichtsbarkeit über die Juden zu gewinnen, wurde von Erzbischof Werner von Anfang an durchschaut. Eine "kleine", vom Stadtrat kontrollierte und beendete Judenverfolgung wurde wie schon 1281 zugelassen, um so das Unvermögen des Judenschutzes durch den Erzbischof offenkundig zu machen. 1287 transportierten Ministerialen den zu Oberwesel angeblich von dortigen Juden ermordeten "Guten Werner" per Schiff gen Mainz, um so das Schauspiel des Herbord von Olm aus dem Jahre 1282/3 zu wiederholen. Eine Koordination muß der Übernahme vorausgegangen sein, eingefädelt wurde der Fall sehr wahrscheinlich durch ihren externen Komplizen Johann von Rinberg, der sich hier in Oberwesel aufgehalten haben dürfte. Etwas Unvorhergesehenes durchkreuzte den Plan der Ministerialen und zwang sie zur vorzeitigen Anlandung in Bacharach. Von Standesgenossen des Salhofes Lorch gewarnt und an Land gewunken erfuhren sie, daß König Rudolf soeben in Mainz eingetroffen war, der hier die Mainzer Bürgerschaft wegen der vorausgegangenen Judenverfolgung des Jahres 1286 zu einer Geldstrafe verurteilte. Die inszenierte Verfolgungswelle des "Guten Werner" ließ sich indes hierdurch nicht aufhalten,die von den Ministerialen und speziell von Johann von Rinberg auf die Weinbau betreibende Bevölkerung der Rheingegend zugeschnittene Märtyrergeschichte des "Guten Werner" fand ihren Zuspruch. König Adolf nahm Johann von Rinberg als bewährten Feind des Mainzer Erzbischofs 1294 in seinen Dienst als Folge des Zerwürfnisses mit Erzbischof Gerhard. Johann wurde zum königlichen Vogt des Speyergaues ernannt. Zu Beginn des Thronstreites zwischen König Adolf von Nassau und Herzog Albrecht von Österreich und noch vor dem ersten Auftritt Johanns von Rinberg zu Röttingen als Judenverfolger namens Rindfleisch (20.04.) setzte in den Kreisen des königstreuen Adels Schwabens und auch Frankens eine gegen die Juden gerichtete Bewegung ein - von einem "heftigen Geschrei" gegen die dem Erzbischof von Mainz und damit einem der Hauptgegner König Adolfs unterstehenden Juden der Region ist die Rede. Konkretisiert wird das "Geschrei" in einem Fall,einer Standardbeschuldigung: Die Juden hätten den Sohn eines mächtigen Adligen erdrosselt. Die wahren Hintergründe erhellen sich am Verhalten eines dieser Adligen, des Kraft von Hohenlohe, Herrn von Weikersheim und auch Röttingens. Wegen des reichspolitischen Konflikts und der Gegnerschaft des Mainzer Erzbischofs als dem Herrn der Juden wittern sie die Möglichkeit, sich ihrer Schulden bei den Juden durch deren Vernichtung zu entledigen. Aber man ist sich des Risikos politischer Wechselfälle bewußt. - So erlangt der Erzbischof von Mainz nach dem Sieg über König Adolf vom neuen König Albrecht von Habsburg das Privileg, daß ihm die Schuldforderungen der getöteten Juden, welche keine Erben haben, zufallen sollen.- Risikobewußt und zögerlich verhält sich Kraft von Hohenlohe, der zunächst Rücksprache mit dem Bischof von Würzburg hält, um danach gegen die Juden seiner Herrschaft vorgehen zu können und sich so seiner Schulden zu entledigen, was in Weikersheim auch geschah, wohingegen er die Verfolgung in Röttingen Rindfleisch überließ. Der Adel hielt Ausschau nach einem erfolgversprechenden Exekutor, hinter dem man sich verstecken konnte. Man fand ihn in der Person des Speyerer Landvogtes Johann von Rinberg, eines allseits bekannten Feindes des Mainzer Erzbischofs und zugleich eines Judenfeindes, der mit Conrad Rindfleisch einen namentlich ausgewiesenen Judenverfolger zu seinem Stellvertreter ernannt hatte. "Iussu et consensu superiorum" verfolgte Johann von Rinberg die Juden, wie die "Historiae memorabiles" bezeugen, und zwar unter einer jetzt auch beim einfachen Volk, den "arme(n) lude(n)", zugkräftigen Parole: Die Juden hätten dem Heer König Adolfs vergiftetes Rindfleisch geliefert und seien die Verursacher der sich auf Landgebiete ausbreitenden Seuche.- Während der mit dem Schlachtentod König Adolfs in Göllheim endenden Kämpfe um die Krone brach im Heer des Königs eine Seuche aus, die sich auch auf Breisach und weitere Landgebiete ausweitete. Man schrieb dies dem Genuß verdorbenen Rindfleisches zu.Johann von Rinberg machte sich dies zunutze, setzte über den Rhein , begab sich in die königsnahe Landschaft Schwabens und Frankens, um hier gegen die Juden als angeblichen Verursachern der Seuche zu hetzen. Wegen seiner Parole gab man ihm den Namen "Rindfleisch". Begrüßt vom Adel der königsnahen Landschaften und mit Zulauf aus den ärmeren Bevölkerungskreisen zogen seine Scharen die Juden mordend über das Land. Vor Würzburg scheiterte er zunächst allerdings am Widerstand des dortigen Stadtrates. In den Speyergau zurückgekehrt, schloß er sich dem jetzt linksrheinisch operierenden Heer König Adolfs an, kämpfte in der Schlacht bei Göllheim, wurde gefangengenommen, dann aber von dem neuen König Albrecht I. von Habsburg vorzeitig unter Bedingungen entlassen, mit einer Sondermission betraut, die sich inzwischen verselbständigten Judenverfolgungen in Franken kraft seines Einflusses als "capitaneus" und "rex Rintfleisch" auf diese Scharen der Judenverfolger zu beenden. In Würzburg mit seiner Mannschaft angekommen, brach Johann von Rinberg seinen dem König geleisteten Eid, wurde rückfällig, ließ die Juden der Stadt unter Beihilfe einer Bürgeropposition ermorden und startete von hier aus eine neue Verfolgungswelle. Anschließend befreite er mit einem tollkühnen Handstreich den Sohn des getöteten Königs Adolf von Nassau aus der Gefangenschaft Erzbischof Gerhards von Mainz und begab sich daraufhin in Dienst und Schutz des Nassauer Grafenhauses und Erzbischof Dieters von Trier, der ihn zu seinen "Freunden" zählte. Die Identifizierung des berüchtigten Judenverfolgers Rindfleisch des Jahres 1298 setzte bei den Quellen an, die ihn als Edelmann mit Namen de Rinberch nennen. Es konnte geklärt werden, wieso man den Edelmann de Rinberch/Rinberg auch "Rindfleisch" nannte und zwar über Ermittlungen zum Reichslandvogt im Speyergau, Johann von Rinberg und dessen Stellvertreter mit Namen Conrad Rindfleisch angesichts einer sich in der Nachbarschaft und im Operationsgebiet des königlichen Heeres ausbreitenden Seuche, die man auf den Genuß des Rindfleisches zurückführte. Die im Quellenhorizont der Wende des 13. zum 14. Jahrhundert ermittelten Träger dieses Namens wurden überprüft mit dem Ergebnis, daß nur Johann von Rinberg dieser Judenverfolger gewesen sein konnte. Die Hypothese, es könne schließlich noch weitere Rinbergs gegeben haben, die als Täter in Frage kämen, disqualifiziert sich vor diesem Hintergrund als "argumentum ex silentio"! Zu seinem "Täterprofil" paßt sein Motivationshintergrund, sein engeres familiäres und weiteres soziales und politisches Umfeld mit der Anbindung von Judenverfolgungen an die Kämpfe der Ministerialen mit ihrem Landesherrn sowie weitere Ermittlungen - keine Hypothesen sondern Indizien: Vereinbarkeit der Itinerarien Rindfleischs und Johanns von Rinberg / der Name des Stellvertreters Johanns von Rinberg im Speyergau, Conrad Rindfleisch : keine Zufälligkeit sondern Vorbildfunktion / der Vorname des nach Koblenz verzogenen Rindfleisch : Johannes / Rinbergs Mission im Auftrag König Albrechts von Habsburg gegen die Scharen der Judenverfolger und sein Rückfall, seine Konversion : nur Johann von Rinberg kam in Königsnähe hierfür in Frage, zumal sein Name in der Kombination Rint-berg Zeugnis ablegt von der Kenntnis seiner Identität als Rintfleisch (Rintfleisch / Rinberg).
Die Fragestellung der Dissertation lautet: Welche Rolle spielten die politische Repräsentation, ihr Wandel und die Auseinandersetzung um die Teilhabe an ihr für das Entstehen einer gemeinsamen Vorstellung der Nation? Diese Frage kombiniert ein historisches und ein politikwissenschaftliches Interesse. Auf Seiten der Geschichtswissenschaft ist die Dissertation Teil des Forschungsprojekts "Nationenbildung und Demokratie" an der Universität Luxemburg. Auf Seiten der Politikwissenschaft ist sie im Bereich der Politischen Theorie angesiedelt. Im Anschluss an das abgeschlossene Forschungsprojekt "Formen und Funktionsweisen politischer Repräsentation von Fremden und Armen" im Sonderforschungsbereich 600 an der Universität Trier sind dabei primär repräsentationstheoretische Fragen von Interesse. Das Fallbeispiel Luxemburg erlaubt in diesem Zusammenhang einen neuen Blick auf Probleme, die in der Literatur bislang eher im französischen oder angelsächsischen Kontext diskutiert werden. In Auseinandersetzung mit gängigen Theorien der Nation wird in der Arbeit zunächst argumentiert, dass die Nation weder als ethnische Identität noch als Willenseinheit angemessen verstanden werden kann. Diese Überlegungen münden in die These, dass die erfolgreiche Verhandlung von Konflikten auf einer gemeinsamen politischen Bühne die Vorstellung eines gemeinsamen Schicksals mit erzeugen kann. Diese Vermutung wird in einem zweiten Schritt demokratieheoretisch begründet. Das Volk der modernen Demokratie ist kein einheitliches Subjekt, das einfach an die Stelle des alten Souveräns treten könnte. Zum einen verunmöglicht die Tatsache, dass die Demokratie durch multiple Zeitlichkeiten konstituiert ist, ihre Reduktion auf einen ursprünglichen Moment der Präsenz. Zum anderen ist der Demos selbst von Differenzen durchzogen. Doch indem gesellschaftliche Konflikte auf der Bühne der Macht symbolisch dargestellt werden, verlagert Repräsentation den Konflikt in ein politisches Kontinuum, auf das alle Bürger in gleicher Weise bezogen sind. Die Bürger erfahren, beurteilen und unterstellen sich wechselseitig als Teilnehmer an demselben Gemeinwesen, auch wenn sie unterschiedlicher Meinung sind. Diese These wird in einem dritten Schritt anhand einer Genealogie der verschiedenen Versuche " von Hobbes und Rousseau über Sieyès, Hegel und Proudhon bis zu Carl Schmitt und Hans Kelsen ", den Demos und den korrekten Modus seiner Vergegenwärtigung zu identifizieren, historisch fundiert. Das empirische Fallbeispiel steht im Zentrum des zweiten Teils der Arbeit. Zunächst wird das Entstehen einer landesweiten politischen Öffentlichkeit herausgearbeitet. In der Folge der Protest- und Petitionsbewegung von 1848 wurde das Parlament zur politischen Bühne, auf der vor aller Augen öffentliche Angelegenheiten diskutiert wurden. Die anschließende Entwicklung hin zum allgemeinen Wahlrecht führte zu einem qualitativen Wandel des Politischen. Das Wahlrecht nahm den Charakter eines Rechts an, das jedem Staatsbürger als solchem zustand, die einzig legitime Grenze des neuen Raums der Gleichheit wurde durch die Nation gestiftet. Die vorgestellte Gemeinschaft der Staatsbürger verselbstständigte sich dabei auch gegenüber dem Fürsten und trat zuletzt an dessen Stelle. Statt als über der Gesellschaft und den Bürgern thronende Hüterin der staatlichen Einheit wurde die Monarchie seit 1918 im Namen des Volkswillens begründet. Doch in demselben Augenblick, in dem das Volk als Gemeinschaft der Gleichen zum neuen Souverän erklärt wurde, wurden auch gesellschaftliche Konfliktlinien politisiert und durch ein landesweites Parteiensystem dauerhaft abgebildet. Durch die repräsentative Politisierung des Konflikts wurde die Frage, was denn das Gemeinsame sei, das sich durch die verschiedenen Teilungen hindurch zeige, dramatisiert. Anhand von zwei Fallbeispielen wird in der Arbeit gezeigt, wie auch diejenigen, die sich als Repräsentanten der Arbeiterklasse verstanden, im Kampf um Hegemonie auf eine nationale Rhetorik zurückgriffen und ein Narrativ der Nation als Solidaritätsgemeinschaft entwarfen. Zusammenfassend kommt die Dissertation zum Ergebnis, dass die Erfahrung der Politisierung und der öffentlichen Auseinandersetzung um politische Teilhabe innerhalb bestehender, ursprünglich aber keineswegs national oder demokratisch legitimierter Institutionen maßgeblich dazu beitrug, dass ein großer Teil der Bevölkerung Luxemburgs sich nach und nach als Teil einer vorgestellten Gemeinschaft verstand.
Die Europäische Union hat seit Ende des Ost-West-Konflikts 1989/90 einen dynamischen Ausbau ihrer vertraglichen und institutionellen Fundamente erfahren. Mit diesem Prozess ging zugleich eine enge Verflechtung von europäischen und nationalen Entscheidungsprozessen und politischen Arenen einher. So entwickelte sich ein zunehmend dynamischer werdendes Interaktionsverhältnis zwischen Europäischer Union, nationaler Europapolitik und Innenpolitik. Ausgehend von der These, dass die deutsche Europapolitik seit der Zäsur 1989/90 zunehmend pragmatischer, kontroverser und somit normaler geworden ist, untersucht die Arbeit diese Veränderung der deutschen Europapolitik am Beispiel zweier qualitativer Fallstudien: 1.Die Verhandlungen zum dritten mehrjährigen Finanzrahmen für die Jahre 2000 bis 2006, die sogenannte Agenda 2000. Für Deutschland als größtem Beitragszahler in der EU waren die Finanzverhandlungen von immenser Bedeutung. Denn mit der finanziellen Ausstattung der beiden größten Ausgabenblöcken, der europäischen Kohäsionspolitik und der Gemeinsamen Agrarpolitik, waren zentrale Grundsatzfragen der deutschen Europapolitik und der Rolle Deutschlands in der EU verbunden, wie zum Beispiel das bilaterale Verhältnis zum französischen Partner. 2.Der Prozess der Osterweiterung der Europäischen Union seit dem Ende des Ost-West-Gegensatzes 1989/90 von der Assoziierung der Reformstaaten in Mittel- und Osteuropa bis zum Beitritt der acht neuen Mitglieder am 1. Mai 2004. Die Ost-Erweiterung der EU war eine der wichtigsten Grundsatzentscheidungen der deutschen Europapolitik. Dieser fast 15 Jahre dauernde Prozess von 1989 bis 2004 wird in einer minuziösen Längsschnitt-Analyse nachgezeichnet und die spezifischen Interessen der zentralen politischen und gesellschaftlichen Akteure der deutschen Politik detailliert analysiert.Beide Entscheidungsprozesse beeinflussten nahezu alle Politikfelder und hatten weitreichende Konsequenzen für die innen-, wirtschafts- und sozialpolitischen Strukturen der Bundesrepublik. Damit erforderten sie sowohl eine grundsätzliche und strategische Positionierungen der deutschen Europapolitik als auch kurzfristige, auf rationalen Kosten-Nutzen-Abwägungen basierende Festlegungen zu konkreten Einzelfragen im Verlauf der Entscheidungsprozesse. Die beiden umfangreichen Fallstudien bestätigen, dass die wechselseitige Interaktion zwischen innenpolitischen Auseinandersetzungen und europäischen Entscheidungsprozessen sich verdichtet hat. Europäische Entscheidungsprozesse werden für innenpolitische Auseinandersetzungen und Debatten genutzt und häufig auch parteipolitisch polarisiert. Die Europapolitik wird zu einem Feld pragmatischer Kosten-Nutzen-Abwägungen aus begrenzten innenpolitischen oder gar parteitaktischen Kalkülen. Die Europapolitik wird unter innenpolitischen Vorzeichen politisiert und polarisiert.
Since November 1997, we started to focus on the population ecology of two sympatric Sinonatrix snakes in the Chutzuhu swamp, northern Taiwan. At the same time we also examined some specimens from Senckenberg Natural History Museum, Frankfurt am Main and accumulated field data of some observation made on S. percarinata suriki from Fushan botanical garden, Sanping and Gaoshu, Taiwan. According to the specimens examined, we suspect that the close phylogeny of S. percarinata suriki may come from two ancestors, northeast Taiwan population closest to Fujien or Zehjiang and the southwest population closest to Guandong or Vietnam. This pattern was also represented in some molecular phylogeny studies of freshwater fish in Taiwan. There were 22,462 trap-nights, taken from the Chutzuhu swamp, during the period November 1999 to September 2001 and 361 snakes were collected, comprising five species and 617 snake-times. The population sizes were based on the Lincoln-Peterson index and were estimated to be 988-±326 in S. annularis and 129-±78 in S. percarinata suriki. Movement and home range data showed S. annularis is a restricted activity water snake and S. percarinata suriki possesses great mobility in spatial patterns, but movement ability seems to be influenced by the size of the aquatic environment. S. annularis is live-bearing, on average 8.19 neonates and this principally occurs in September; S. percarinata suriki lays 6-24 eggs, but due to insufficient observations no conclusions can be drawn. It must be noted that oviposition was also noted in September. The reproductive mode may reflect on thermal requirement differences of the two sympatric snakes. S. annularis tended to be a fish (98%) eater and S. percarinata suriki take 50% fish and 50% frogs in their diet. Middle to high ground cover marshland appears to be the favorite microhabitat of S. annularis, and S. percarinata suriki seems prefer open creeks and ditches. The population condition of S. annularis in the Chutzuhu swamp seems to be rapidly deteriorating and this trend is also reflected in the BCI declines, low proportion stomach contents and diseases of S. annularis. Water seems to be the major influencing factor and strongly correlates with the conservation strategy. Conservation proposals for S. annularis in the Chutzuhu swamp will be formulated. During this study period we also developed an efficient technique for snake morphological data accumulation and image database, with the aid of the following devices, PC notebook and scanner, which is adapted for practical field studies. We also want to propose a component system for the establishment of a fundamental snake population databases (FPDS) for long-term snake ecological studies and monitoring herein.
In 40 Referenzgebieten in Schleswig-Holstein sind im Zeitraum zwischen 1995 und 2002 Feldhasendichten (Lepus europaeus) mittels Scheinwerfertaxation ermittelt worden. Parallel dazu wurden in den durchschnittlich etwa 1000 ha großen Gebieten die Geheckdichten des Rotfuchses (Vulpes vulpes) sowie die Brutpaardichten des Mäuse-bussards (Buteo buteo) bestimmt. Die Feldhasendichten variierten im Frühjahr zwischen 1,2 und 85 Hasen/100 ha und im Herbst zwischen 5 und 127 Hasen/100 ha. Zur Analyse eines potentiellen Einflusses der landschaftlichen Gegebenheiten auf die Feldhasenpopulationen erfolgte eine digitale Erfassung der linearen Landschaftselemente. Außerdem wurden Flächennutzungskartierungen zur Feststellung der Ackernutzung durchgeführt. Zur Bestimmung des Klimaeinflusses wurden Temperatur- und Niederschlagswerte zu Dekadenmittelwerten zusammengefasst und mit der durchschnittlichen Höhe der Nettore-produktionsleistung und der Populationsdichte korreliert. Während die klimatischen Einflüsse nicht die Populationsdichte oder die mittlere Zuwachsleistung bestimmen, diktieren die Niederschlagssummen insbesondere der letzten beiden März- und der ersten beiden Aprildekaden die dichteunabhängige, annuelle Ausprägung des Nettozuwachses. Landschaftsparameter konnten nicht monokausal in Beziehung zur Konstitution der Hasenpopulation gesetzt werden, während sich enge Beziehungen mit negativem Vorzeichen zwischen dem Rotfuchsvorkommen und der Dichte des Feldhasen ergaben (p<0,01). In einer Multifaktorenanalyse wurde als dominierende Einflussgröße für das derzeitige Feldhasenvorkommen der Rotfuchs bestimmt. Die Anbauvielfalt in der Landwirtschaft scheint einen positiven Einfluss auf den langjährigen Reproduktionserfolg zu besitzen, wohingegen die Zahl der Mutterbaue des Rotfuchses eine höhere Reproduktionsleistung zu vereiteln scheint. Die Jagd auf den Feldhasen wurde als Form der nachhaltigen Nutzung herausgestellt. Die jaglich induzierte Sterblichkeit stellt eine teilweise kompensatorische Mortalität dar.
Possibilités et opportunités d’une organisation démocratique du système scolaire luxembourgeois
(2018)
« Aujourd’hui, le socialisme et la démocratie ne sont plus de simples questions réservées aux partis politiques, ce sont des questions vitales. L’école et les enseignants devront s’en saisir (...) et donner au peuple de demain, par un enseignement solide, mais surtout par une éducation formatrice, les moyens de remplir sa mission principale : régner ensemble. » – ein luxemburger Schulfreund, 1920
Obwohl bekannt ist, dass Fusionen alles andere als risikoarm sind, bleibt das häufig zentrale, kritische Thema "Umgang mit Widerständen bei der Integration neuer Mitarbeiter nach Fusionen" bislang in der psychologischen Forschung unbeachtet. Zudem fehlen Konzepte, die als Basis für eine erfolgreiche Interventionsplanung zur Integration neuer Mitarbeiter genutzt werden können. Ziel dieser Arbeit ist es deshalb, grundlegende Handlungsstrategien zum Umgang mit Widerständen bei der Integration neuer Mitarbeiter zu erheben, zu beschreiben und in einem letzten Schritt zusammenfassend mit den bereits vorliegenden Forschungsbefunden zu diskutieren. Hierzu wurde handlungstheoretisch fundiert ein qualitatives Struktur-Lege-Verfahren ausgewählt, mit dessen Hilfe relevantes Expertenwissen erhoben werden kann, nämlich eine für diese Untersuchung modifizierte Variante des Action Strategy Mappings (ASM) von Scheffler & Antoni (2001). So gelingt es, mentale Modelle von Handlungsstrategien unabhängig von einer konkreten Untersuchungssituation zu erheben und direkt zu visualisieren. In dieser Arbeit gelingt es, empirische Belege zu finden, dass Berater unterschiedliche Handlungsstrategien für verschiedene Phasen des Fusionsprozesses entwickeln. Dementsprechend erfolgt auch die Zusammenfassung der einzelnen Expertennetze zu Modalstrukturen jeweils getrennt für die drei vorab erarbeiteten Zeitpunkte, die allgemeinen Modellen zum Veränderungsmanagement entsprechen. Als Ergebnis dieser Analysen werden generalisierte, modale Handlungsstrukturen für den Zeitraum vor Bekannt werden des Unternehmenszusammenschlusses, für die ersten zwei Monate sowie für das erste Jahr berechnet, dargestellt und in Zusammenhang mit den bisherigen Forschungsergebnissen dieses Themengebietes diskutiert. Diese Arbeit liefert einen wichtigen Beitrag zur konzeptionellen Erhellung dieses Themengebiets "Umgang mit Widerständen bei der Integration neuer Mitarbeiter nach Unternehmenszusammenschlüssen" und zwar sowohl im Hinblick auf relevante Elemente als auch auf deren Vernetzung untereinander. Die erhobenen modalen Handlungsstrukturen können als Basis bei der Qualifizierung von Post-Deal-Managern dienen, um diesen neben konkreten Handlungsempfehlungen ein kognitives Interventionsmodell zum Umgang mit Widerständen bei der Integration neuer Mitarbeiter nach Fusionen anzubieten.
Diese im Frühjahr 2004 fertiggestellte Studie möchte das Wesen der postmodernen Kriegsführung aus einem historischen Ansatz heraus erklären. Denn um verstehen zu können, was den postmodernen Krieg charakterisiert, ist es im Rahmen einer komplexen Kriegstheorie nötig, das Phänomen Krieg und die Auswirkungen technologischer Innovationen aus einer historischen Perspektive mit einer Kombination aus Kriegs- (u.a. Toffler (Dreiwellenmodell), Sun Tzu, Clausewitz) und Medientheorien (u.a. McLuhan, Virilio, Boyd, Bucher) zu erfassen. Diese Analyse möchte darauf aufbauend folgende zentrale Fragen beantworten: Welche Potentiale bieten die Kommunikations- und Informationsverarbeitungstechnologien der postmodernen Informationsgesellschaft den Streitkräften zu Beginn des 21. Jahrhunderts? Wie verändert sich das Verständnis von Krieg unter dem Einfluss dieser Möglichkeiten? Wie verändert sich das Verhältnis von Technik und Strategie, bzw. Krieg und Politik unter dem Einfluss dieser technologischen Innovationen? Welche Rolle werden die bisher zentralen Akteure, die Nationalstaaten, unter den Vorzeichen des postmodernen Informationskrieges spielen? Und bieten diese neuen Technologien Lösungsansätze für die zu Beginn des 21. Jahrhunderts absehbaren Konflikte?
The contribution of three genes (C15orf53, OXTR and MLC1) to the etiology of chromosome 15-bound schizophrenia (SCZD10), bipolar disorder (BD) and autism spectrum disorder (ASD) were studied. At first, the uncharacterized gene C15orf53 was comprehensively analyzed. Previous genome-wide association studies (GWAS) in bipolar disorder samples have identified an association signal in close vicinity to C15orf53 on chromosome 15q14. This gene is located in exactly the genomic region, which is segregating in our SCZD10 families. An association study with bipolar disorder (BD) and SCZD10 individual samples did not reveal any association of single nucleotide polymorphisms (SNPs) in C15orf53. Mutational analysis of C15orf53 in SCZD10-affected individuals from seven multiplex families did not show any mutations in the 5'-untranslated region, the coding region and the intron-exon boundaries. Gene expression analysis revealed that C15orf53 was expressed in a subpopulation of leukocytes, but not in human post-mortem limbic brain tissue. Summarizing these studies, C15orf53 is unlikely to be a strong candidate gene for the etiology of BD or SCZD10. The second investigated gene was the human oxytocin receptor gene (OXTR). Five well described SNPs located in the OXTR gene were taken for a transmission-disequilibrium test (TDT) in parents-child trios with ASD-affected children. Neither in the complete sample nor in a subgroup with children that had an intelligence quotient (IQ) above 70, association was found, independent from the application of Haploview or UNPHASED for analysis. The third gene, MLC1, was investigated with regards to its implication in the etiology of SCZD10. Mutations in the MLC1 gene lead to megalencephalic leukoencephalopathy with subcortical cysts (MLC) and one variant coding for the amino acid methionine (Met) instead of leucine (Leu) at position 309 was identified to segregate in a family affected with SCZD10. For further investigation of MLC1 and its possible implication in the etiology of SCZD10, a constitutive Mlc1 knockout mouse model should be created. Mouse embryonic stem cells (mES) were electroporated with a knockout vector construct and analyzed with respect to homologous recombination of the knockout construct with the genomic DNA (gDNA) of the mES. Polymerase chain reaction (PCR) on the available stem cell clones did not reveal any homologous recombined ES. Additionally, we conducted experiments to knockdown MLC1 and using microRNAs. The 3'-untranslated region of the MLC1 gene was analyzed with the bioinformatics tool TargetScan to screen for potential microRNA target sites. In the 3'-untranslated region of the MLC1 gene, a potential binding site for miR-137 was identified. The gene expression level of genes that had been linked to psychiatric disorders and carried a predicated miR-137 binding site has been proven to be immediately responsive to miR-137. Thus, there is new evidence that MLC1 is a candidate gene for the etiology of SCZD10.
Wie erleben Schüler*innen die vorhandenen demokratischen Mitgestaltungsmöglichkeiten im Unterricht? Welche Bereitschaft, den Entwicklungsprozess mitzutragen, gibt es in der Schulgemeinschaft? Welche Widerstände gilt es zu beachten und wo liegen bisher ungenutzte Potentiale und Ideen für die Innovation von Schule und Unterricht?
Behavioural traces from interactions with digital technologies are diverse and abundant. Yet, their capacity for theory-driven research is still to be constituted. In the present cumulative dissertation project, I deliberate the caveats and potentials of digital behavioural trace data in behavioural and social science research. One use case is online radicalisation research. The three studies included, set out to discern the state-of-the-art of methods and constructs employed in radicalization research, at the intersection of traditional methods and digital behavioural trace data. Firstly, I display, based on a systematic literature review of empirical work, the prevalence of digital behavioural trace data across different research strands and discern determinants and outcomes of radicalisation constructs. Secondly, I extract, based on this literature review, hypotheses and constructs and integrate them to a framework from network theory. This graph of hypotheses, in turn, makes the relative importance of theoretical considerations explicit. One implication of visualising the assumptions in the field is to systematise bottlenecks for the analysis of digital behavioural trace data and to provide the grounds for the genesis of new hypotheses. Thirdly, I provide a proof-of-concept for incorporating a theoretical framework from conspiracy theory research (as a specific form of radicalisation) and digital behavioural traces. I argue for marrying theoretical assumptions derived from temporal signals of posting behaviour and semantic meaning from textual content that rests on a framework from evolutionary psychology. In the light of these findings, I conclude by discussing important potential biases at different stages in the research cycle and practical implications.
Improving market opportunities for local public transportation requires marketing strategies which put the customer in the centre of business considerations. The customer is the "source of wealth", for he or she provides for turnover, income and market dynamics. This context is the crucial market-strategy approach in the public transport sector. Therefore the most important element in the strategic marketing approach of customer orientation in public transportation is not only to design a self-contained system of marketing measures for convincing potential customers of the advantages of the product, but also to create "product quality" in order to gain "customer confidence". The key point of the concept of a customer-oriented "public transport/ation supply structure" is to develop a simplified method of estimating the market potential in order to confirm or verify sufficient demand effects that are predominantly based on traffic corridors burdened with heavy car traffic. Correspondingly, a public transport/ation supply structure is developed which will offer the customer extensive and therefore attractive access to public transport. Applying this attractive public transport/ation system enables the use of "economic potentials" for financing public transport outside urban agglomerations, which is only made possible by a consistent strategic marketing concept of customer orientation.
Das Ziel der vorliegenden Arbeit besteht in der Formulierung eines integrativen Rahmenmodells, das sowohl motivierende, als auch demotivierende Merkmale der Arbeitstätigkeit beinhaltet. Dieses Modell wird auf der Grundlage des Job Characteristics Models von Hackman und Oldham (1976, 1980) entwickelt und bei personenbezogenen Tätigkeiten angewandt. Ausgehend von handlungsregulationstheoretischen Überlegungen wird das Modell um weitere Tätigkeitsmerkmale erweitert. Dabei wird im ersten Schritt davon ausgegangen, dass neben den bereits erforschten negativen Konsequenzen auch motivierende Aspekte der Emotionsarbeit existieren und das Modell um dieses Tätigkeitsmerkmal erweitert. Im nächsten Schritt wird das Modell um demotivierende Aufgabenmerkmale erweitert, nämlich um die Stressoren Emotionale Dissonanz und Multitasking. Die dritte und letzte Erweiterung bezieht sich auf die Integration von Stressreaktionen in das Modell. Es wird davon ausgegangen, dass es sich um sogenannte Kontextvariablen handelt, die die Beziehung zwischen den Tätigkeitsmerkmalen und Ergebnisvariablen (Arbeitszufriedenheit, intrinsische Motivation und affektives Commitment) moderieren. Die Hypothesen, die sich aus dem postulierten Modell ergeben, werden in drei querschnittlichen Fragebogenstudien anhand von unterschiedlichen Stichproben aus dem Dienstleistungsbereich überprüft (Call Center-Angestellte N=114, Lehrer N=146, Verkäufer N=304). Die Annahmen des Modells lassen sich größtenteils bestätigen. Das gilt vor allem für die Erweiterungen auf der Seite der Tätigkeitsmerkmale: motivierende Aspekte der Emotionsarbeit und eine demotivierende Wirkung der Emotionalen Dissonanz konnten nachgewiesen werden. Nicht ganz so eindeutig fällt die Befundlage zu den angenommenen Moderatoreffekten aus. Zwar konnten zahlreiche Moderatoreffekte in allen Studien aufgedeckt werden, jedoch fiel die Richtung der Moderatoreffekte in der Lehrerstudie auf die Beziehung zwischen den motivierenden Tätigkeitsmerkmalen und den arbeitsbezogenen Einstellungen hypothesenkonträr aus. In der abschließenden Diskussion wird u.a. nach Begründungen für diese Befundlage gesucht. Zusätzlich werden Implikationen für die zukünftige Forschung und für den weiteren Einsatz des postulierten Rahmenmodells gegeben. Die Arbeit schließt mit Implikationen für die Praxis im Dienstleistungsbereich ab.
Damit Schüler*innen Medienkompetenz entwickeln, bedarf es neben der Reflexion auch eigener Medienpraxis, in der sie zu Produzent*innen und Gestalter*innen von Medienangeboten werden. Der Praxisbericht stellt die Entwicklung einer einstündigen Fernsehsendung mit Schüler*innen am Lycée de Garçons in Esch vor.
Hochschulen und außeruniversitäre Forschungseinrichtungen werden heute zunehmend in die Pflicht genommen, für ihre Forschenden Strukturen und Services für ein nachhaltiges Forschungsdatenmanagement (FDM) bereit-zustellen. Da es vor allem für disziplin- oder datenspezifische Bedarfe nicht für jede Forschungseinrichtung möglich ist, die dafür notwendigen Dienste selbst vorzuhalten, müssen sie externe Dienstleistungen in ihre FDM-Servicestrukturen integrieren. Das erfolgreiche Management der Schnittstelle zwischen den kooperierenden Insti-tutionen bedeutet einen erheblichen Organisationsaufwand, für den der vorliegende Praxisleitfaden eine Hilfe-stellung bietet. Er soll die Einrichtungen in die Lage versetzen, fremdbezogene FDM-Dienstleistungen erfolgreich in ihr eigenes FDM-Serviceangebot bzw. ihre übergeordnete FDM-Strategie zu integrieren. Der Leitfaden dient insbesondere als Anleitung für die erfolgreiche Steuerung der Zusammenarbeit und Kommunikation der invol-vierten internen und externen Mitarbeiter*innen. Über eine Reihe von Steuerungsmechanismen, die in diesem Leitfaden ausführlich erläutert werden, lässt sich der Prozess des Schnittstellenmanagements bestmöglich hand-haben. Der Praxisleitfaden versteht sich als Arbeitsgrundlage für alle Akteur*innen einer Forschungseinrichtung, die an der Erstellung eines institutionellen FDM-Konzeptes beteiligt sind.
An Grundschulen bietet der Klassenrat eine Möglichkeit für Schüler*innen, erste Schritte demokratischen Umgangs zu erlernen oder auch zu vertiefen. Hier lernen sie in einem geschützten Raum sich zu verschiedensten Themen zu äußern, Konflikte lösungsorientiert zu verarbeiten und Verantwortung zu übernehmen. Die hier vorgestellten Materialien sollen bei der Einführung und Durchführung des Klassenrats helfen.
Auch in Sekundarschulen bietet der Klassenrat den Schüler*innen Raum, um ihre Anliegen zu artikulieren und in einem demokratischen Prozess Verbesserungspotenziale für die Klasse und Schule auszuloten. Die vorliegenden Materialien helfen dabei, die Sitzungen eigenverantwortlich vorzubereiten und durchzuführen.
In addition to the well-recognised effects of both, genes and adult environment, it is now broadly accepted that adverse conditions during pregnancy contribute to the development of mental and somatic disorders in the offspring, such as cardiovascular disorders, endocrinological disorders, metabolic disorders, schizophrenia, anxious and depressive behaviour and attention deficit hyperactivity disorder (ADHD). Early life events may have long lasting impact on tissue structure and function and these effects appear to underlie the developmental origins of vulnerability to chronic diseases. The assumption that prenatal adversity, such as maternal emotional states during pregnancy, may have adverse effects on the developing infant is not new. Accordant references can be found in an ancient Indian text (ca. 1050 before Christ), in biblical texts and in documents originating during the Middle Ages. Even Hippocrates stated possible effects of maternal emotional states on the developing fetus. Since the mid-1950s, research examining the effects of maternal psychosocial stress during pregnancy appeared in the literature. Extensive research in this field has been conducted since the early 1990s. Thus, the relationship between early life events and long-term health outcomes was already postulated over 20 years ago. David Barker and colleagues demonstrated that children of lower birth weight - which represents a crude marker of an adverse intrauterine environment - were at increased risk of high blood pressure, cardiovascular disorders, and type-2 diabetes later in life. These provocative findings led to a large amount of subsequent research, initially focussing on the role of undernutrition in determining fetal outcomes. The phenomenon of prenatal influences that determine in part the risk of suffering from chronic disease later in life has been named the "fetal origins of health and disease" paradigm. The concept of "prenatal programming" has now been extended to many other domains, such as the effects of prenatal maternal stress, prenatal tobacco exposure, alcohol intake, medication, toxins, as well as maternal infection and diseases. During the process of prenatal programming, environmental agents are transmitted across the placenta and act on specific fetal tissues during sensitive periods of development. Thus, developmental trajectories are changed and the organisation and function of tissue structure and organ system is altered. The biological purpose of those "early life programming" may consist in evolutionary advantages. The offspring adapts its development to the expected extrauterine environment which is forecast by the clues available during fetal life. If the fetus receives signals of a challenging environment, e.g. due to maternal stress hormones or maternal undernutrition, its survival may be promoted due to developmental adaptation processes. However, if the expected environment does not match with the real environment, maladapation and later disease risk may result. For example, a possible indicator of a "response ready" trait, such as hyperactivity/inattention may have been advantageous in an adverse ancient environment. However, it is of disadvantage when the postnatal environment demands oppositional skills, such as attention and concentration " e.g. in the classroom, at school, to achieve academic success. Borderline personality disorder (BPD) is a prevalent psychiatric disorder, characterized by impulsivity, affective instability, dysfunctional interpersonal relationships and identity disturbance. Although many studies report different risk factors, the exact etiologic mechanisms are not yet understood. In addition to the well-recognised effects of genetic components and adverse childhood experiences, BPD may potentially be co-determined by further environmental influences, acting very early in life: during pre- and perinatal period. There are several hints that may suggest possible prenatal programming processes in BPD. For example, patients with BPD are characterized by elevated stress sensitivity and reactivity and dysfunctions of the neuroendocrine stress system, such as the hypothalamic pituitary adrenal (HPA) axis. Furthermore, patients with BPD show a broad range of somatic comorbidities " especially those disorders for which prenatal programming processes have been described. During infancy and childhood, BPD patients already show behavioural and emotional abnormalities as well as pronounced temperamental traits, such as impulsivity, emotional dysregulation and inattention that may potentially be co-determined by prenatal programming processes. Such temperamental traits - similar to those, seen in patients with ADHD - have been described to be associated with low birthweight which indicates a suboptimal intrauterine environment. Moreover, the functional and structural alterations in the central nervous system (CNS) in patients with BPD might also be mediated in part by prenatal agents, such as prenatal tobacco exposure. Prenatal adversity may thus constitute a further, additional component in the multifactorial genesis of BPD. The association between BPD and prenatal risk factors has not yet been studied in such detail. We are not aware of any further study that assessed pre- and perinatal risk factors, such as maternal psychoscocial stress, smoking, alcohol intake, obstetric complications and lack of breastfeeding in patients with BPD.
In common shape optimization routines, deformations of the computational mesh
usually suffer from decrease of mesh quality or even destruction of the mesh.
To mitigate this, we propose a theoretical framework using so-called pre-shape
spaces. This gives an opportunity for a unified theory of shape optimization, and of
problems related to parameterization and mesh quality. With this, we stay in the
free-form approach of shape optimization, in contrast to parameterized approaches
that limit possible shapes. The concept of pre-shape derivatives is defined, and
according structure and calculus theorems are derived, which generalize classical
shape optimization and its calculus. Tangential and normal directions are featured
in pre-shape derivatives, in contrast to classical shape derivatives featuring only
normal directions on shapes. Techniques from classical shape optimization and
calculus are shown to carry over to this framework, and are collected in generality
for future reference.
A pre-shape parameterization tracking problem class for mesh quality is in-
troduced, which is solvable by use of pre-shape derivatives. This class allows for
non-uniform user prescribed adaptations of the shape and hold-all domain meshes.
It acts as a regularizer for classical shape objectives. Existence of regularized solu-
tions is guaranteed, and corresponding optimal pre-shapes are shown to correspond
to optimal shapes of the original problem, which additionally achieve the user pre-
scribed parameterization.
We present shape gradient system modifications, which allow simultaneous nu-
merical shape optimization with mesh quality improvement. Further, consistency
of modified pre-shape gradient systems is established. The computational burden
of our approach is limited, since additional solution of possibly larger (non-)linear
systems for regularized shape gradients is not necessary. We implement and com-
pare these pre-shape gradient regularization approaches for a 2D problem, which
is prone to mesh degeneration. As our approach does not depend on the choice of
forms to represent shape gradients, we employ and compare weak linear elasticity
and weak quasilinear p-Laplacian pre-shape gradient representations.
We also introduce a Quasi-Newton-ADM inspired algorithm for mesh quality,
which guarantees sufficient adaption of meshes to user specification during the rou-
tines. It is applicable in addition to simultaneous mesh regularization techniques.
Unrelated to mesh regularization techniques, we consider shape optimization
problems constrained by elliptic variational inequalities of the first kind, so-called
obstacle-type problems. In general, standard necessary optimality conditions cannot
be formulated in a straightforward manner for such semi-smooth shape optimization
problems. Under appropriate assumptions, we prove existence and convergence of
adjoints for smooth regularizations of the VI-constraint. Moreover, we derive shape
derivatives for the regularized problem and prove convergence to a limit object.
Based on this analysis, an efficient optimization algorithm is devised and tested
numerically.
All previous pre-shape regularization techniques are applied to a variational
inequality constrained shape optimization problem, where we also create customized
targets for increased mesh adaptation of changing embedded shapes and active set
boundaries of the constraining variational inequality.
This dissertation focuses on the link between labour market institutions and precautionary savings. It is evaluated whether private households react to changes in social insurance provision such as the income replacement in case of unemployment by increased savings for precautionary reasons. The dissertation consists of three self-contained chapters, each focusing on slightly different aspects of the topic. The first chapter titled "Precautionary saving and the (in)stability of subjective earnings uncertainty" empirically looks at the influence of future income uncertainty on household saving behavior. Numerous cross-section studies on precautionary saving use subjective expectations regarding the income variance one year ahead as a proxy for income uncertainty. Using such proxies observed only at one point in time, however, may give rise to biased estimates for precautionary wealth if expectations are not stable over time. Survey data from the Dutch DNB Household Survey suggest that subjective future income distributions are not stable over the mid-term. Moreover, in this study I contrast estimates of precautionary wealth using the variation coefficient observed at one point in time with those using a simple mid-term average. Estimates of precautionary wealth based on the average are about 40% to 80% higher than the estimates using the variation coefficient observed only once. In addition to that, wealth accumulation for precautionary reasons is estimated for different parts of the income distribution. The share of precautionary wealth is highest for households at the center of the income distribution. By linking saving behaviour with unemployment insurance, the following chapters then shed some light on an issue that has largely been neglected in the literature on labour market institutions so far. Whereas the third chapter models the relevance of unemployment insurance for income uncertainty and intertemporal decision making during institutional reform processes, chapter 4 seeks to establish empirically a relationship between saving behavior and unemployment insurance. Social insurance, especially unemployment insurance, provides agents with income insurance against not marketable income risks. Since the early 1990s, reform measures like more activating policies as suggested by the OECD Jobs Study in 1994 have been observed in Europe. In the third chapter it is argued that such changes in unemployment insurance reduce public insurance and increase income uncertainty. Moreover, a simple three period model is discussed which shows a link between a welfare state reform and agents' saving decisions as one possible reaction of agents to self-insure against income risk. Two sources of uncertainty seem to be important in this context: (1) uncertain results of the reform process concerning the replacement rate, and (2) uncertainty regarding the timing of information about the content of the reform. It can be shown that the precautionary motive for saving explains an increased accumulation of capital in times of reform activities. In addition to that, early information about the expected replacement rate increases agents' utility and reduces under and oversaving. Following the argument of the previous chapters, that an important feature of labour market institutions in modern welfare states is to provide cash transfers as income replacement in case of unemployment, it is hypothesised that unemployment benefits reduce the motive to save for precautionary reasons. Based on consumer sentiment data from the European Commission's Consumer Survey, chapter four finally provides some evidence that aggregate saving intentions are significantly influenced by unemployment benefits. It can be shown that higher benefits lower the intention to save.
Soil degradation due to erosion is a significant worldwide problem at different spatial (from pedon to watershed) and temporal scales. All stages and factors in the erosion process must be detected and evaluated to reduce this environmental issue and protect existing fertile soils and natural ecosystems. Laboratory studies using rainfall simulators allow single factors and interactive effects to be investigated under controlled conditions during extreme rainfall events. In this study, three main factors (rainfall intensity, inclination, and rainfall duration) were assessed to obtain empirical data for modeling water erosion during single rainfall events. Each factor was divided into three levels (− 1, 0, + 1), which were applied in different combinations using a rainfall simulator on beds (6 × 1 m) filled with soil from a study plot located in the arid Sistan region, Iran. The rainfall duration levels tested were 3, 5, and 7 min, the rainfall intensity levels were 30, 60, and 90 mm/h, and the inclination levels were 5, 15, and 25%. The results showed that the highest rainfall intensity tested (90 mm/h) for the longest duration (7 min) caused the highest runoff (62 mm3/s) and soil loss (1580 g/m2/h). Based on the empirical results, a quadratic function was the best mathematical model (R2 = 0.90) for predicting runoff (Q) and soil loss. Single-factor analysis revealed that rainfall intensity was more influential for runoff production than changes in time and inclination, while rainfall duration was the most influential single factor for soil loss. Modeling and three-dimensional depictions of the data revealed that sediment production was high and runoff production lower at the beginning of the experiment, but this trend was reversed over time as the soil became saturated. These results indicate that avoiding the initial stage of erosion is critical, so all soil protection measures should be taken to reduce the impact at this stage. The final stages of erosion appeared too complicated to be modeled, because different factors showed differing effects on erosion.
International private equity development is highly volatile with increasing global diversification. This thesis examines the transaction patterns of cross-border private equity investment with a particular focus on the affinity of country pairs. Analysis is based on a comprehensive dataset of 99 countries over 25 years. A three-dimensional gravity model analysis covering source and host country over time exposes the effects of the country determinants: economic mass, economic distance, banking system, corporate endowment, as well as legal, political, and institutional system on the transactions. A new method is developed to examine countries in their dual roles as investor and target. This approach verifies their global importance as source and host, and also makes possible an analysis of overall private equity investment. For private equity-specific multi-investor deals, a scheme is designed to measure cross-border activity with more precision by participation, proportional deal participation, and deal flow. The analysis identifies intense level of affinity between country pairs and reveals that no single country is ideal for private equity activity. Instead, the findings show that the specific push and pull factors within each country constellation define the optimal country as trading partner. The results verify a correlation between cross-border deals and economic masses and reduced economic distance of countries. Geographic distance and cultural similarities, such as language and legal system, intensify the likelihood of initiating transactions. International trade-oriented countries with a high level of development lower the entrance barriers and increase the chances of deal success. A well-funded financial system for the investor and an efficient and competitive banking system of target countries enhance the probability of investment between countries. Also relevant for the likelihood of starting cross-border deals are low corporate tax burdens and advanced scientific competitiveness, and a well-developed stock market in the investor country. Fundamental to frequency and likelihood of success are well-established, high standards of a country- social, political, and legal systems with widespread confidence in the rules of society. In particular, the reliability of contract enforcement, with proven quality of regulations that promote private sector development, proves to be crucial for deal success.
In past years, desertification and land degradation have been acknowledged as a major threat to human welfare world-wide, and their environmental and societal implications have sparked the formulation of the UN Convention to Combat Desertification (UNCCD). Any measure taken against desertification, or the design of dedicated early warning systems, must take into account both the spatial and temporal dimensions of process driving factors. Equally important, past and present reactions of ecosystems to physical and socio-economical disturbances or management interventions need to be understood. In this context, remote sensing and geoinformation processing support the required assessment, monitoring and modelling approaches, and hence provide an essential contribution to the scientific component of the struggle against desertification. Supported by DG Research of the European Commission, the Remote Sensing Department of the University of Trier convened RGLDD to promote scientific exchange between specialists working on the interface of remote sensing, geoinformation processing, desertification/land degradation research and its socio-economic implications. Although targeted at the scientific community, contributions with application perspectives were of crucial importance and both an overview of the current state of the art as well as operational opportunities were presented. Hosted at the Robert-Schuman Haus in Trier, the conference gained widespread attention and attracted an international audience from all parts of the world, which underlines the global dimension of land degradation and desertification processes. Based on a rigorous review of submitted abstracts, more than 100 contributions were accepted for oral and poster presentation, which are found in these proceedings edition in full paper form. Please note: This document is optimised for screen resolution, to receive a high-resolution version please contact the editors.
Intensiv diskutierte Aspekte der Politikwissenschaft heben zunehmend die Bedeutung von Strategiefähigkeit zur erfolgreichen Durchführung von Wahlkämpfen für Parteien hervor. Der Widerspruch der mit den Implikationen der modernen Mediengesellschaft eingehergehenden unterstellten Akteursfähigkeit der Parteien und ihrer kollektiven heterogenen Interessens- und Organisationsvielfalt bleibt dabei bestehen. Die Fokussierung der Parteien auf das Ziel der Stimmenmaximierung bringt unter den sich wandelnden Rahmenbedingungen Veränderungen der Binnenstrukturen mit sich. So diskutieren Parteienforscher seit Längerem die Notwendigkeit eines vierten Parteitypus als Nachfolger von Kirchheimers Volkspartei (1965). Verschiedene dieser Ansätze berücksichtigen primär die Wahlkampffokussierung der Parteien, während andere vor allem auf den gesteigerten Strategiebedarf abzielen. Auch die Wechselwirkungen mit den Erfordernissen der Mediengesellschaft sowie Auswirkungen des gesellschaftlichen Wandels stehen im Vordergrund zahlreicher Untersuchungen. Die Arbeit von Uwe Jun (2004), der mit dem Modell der professionalisierten Medienkommunikationspartei auch die organisatorischen und programmatischen Transformationsaspekte des Parteiwandels beleuchtet, liefert einen bemerkenswerten Beitrag zur Party-Change-Debatte und bietet durch die angeschlossene vergleichende exemplarische Fallstudie eine praxisnahe Einordnung. Die geringe empirische Relevanz, die Jun seinem Parteityp anhand der Untersuchung von SPD und New Labor zwischen 1995 und 2005 bestätigt, soll in dieser Arbeit versucht werden zu relativieren, in dem der Parteiwandel der deutschen Großparteien seit der Wiedervereinigung durch die Untersuchung ihrer Wahlkampffähigkeit aufgezeigt wird. Anhand eines längsschnittlichen Vergleiches der Bundestagswahlkämpfe von SPD und CDU zwischen 1990 und 2013 soll die Plausibilität dieses vierten Parteitypus überprüft werden. Hierdurch soll die Entwicklung der Strategie- und Wahlkampffähigkeit beider Großparteien in den Bundestagswahlkämpfen seit 1990 untersucht und die Ergebnisse miteinander verglichen und in Bezug auf den Parteiwandel eingeordnet werden.
Dass sich Parteien genau wie ihre gesellschaftliche und politische Umwelt im Wandel befinden, ist nicht zu bestreiten und seit Langem viel diskutierter Gegenstand der Parteienforschung. „Niedergangsdiskussion“, Mitgliederschwund, Nicht- und Wechselwähler, Politik- und Parteienverdrossenheit, Kartellisierung und Institutionalisierung von Parteien sind nur einige der in diesem Kontext geläufigen Schlagwörter. Prozesse der Individualisierung, Globalisierung und Mediatisierung führen zu veränderten Rahmenbedingungen, unter denen Parteien sich behaupten müssen. Diese Veränderungen in der äußeren Umwelt wirken sich nachhaltig auf das parteipolitische Binnenleben, auf Organisationsstrukturen und Programmatik aus. Die Parteienforschung hat daher schon vor zwanzig Jahren begonnen, ein typologisches Nachfolgemodell der Volkspartei zu diskutieren, das diesen Wandel berücksichtigt. Verschiedene typologische Konstruktionen von z. B. Panebianco (1988), Katz und Mair (1995) oder von Beyme erfassen (2000) wichtige Facetten des Strukturwandels politischer Parteien und stellen mehrheitlich plausible typologische Konzepte vor, die die Parteien in ihrem Streben nach Wählerstimmen und Regierungsmacht zutreffend charakterisieren. Die Parteienforschung stimmt bezüglich des Endes der Volksparteiära mehrheitlich überein. Bezüglich der Nachfolge konnte sich unter den neueren vorgeschlagenen Typen jedoch kein vierter Typ als verbindliches Leitmodell etablieren. Bei genauerer Betrachtung weichen die in den verschiedenen Ansätzen für einen vierten Parteitypen hervorgehobenen Merkmale (namentlich Professionalisierung des Parteiapparates, die Berufspolitikerdominanz, Verstaatlichung und Kartellbildung sowie die Fixierung auf die Medien) wenig von jüngeren Modellvorschlägen ab und bedürfen daher mehr einer Ergänzung. Die in der Regel mehrdimensionalen entwicklungstypologischen Verlaufstypen setzten seit den 1980er Jahren unterschiedliche Schwerpunkte und warten mit vielen Vorschlägen der Einordnung auf. Einer der jüngsten Ansätze von Uwe Jun aus dem Jahr 2004, der das typologische Konzept der professionalisierten Medienkommunikationspartei einführt, macht deutlich, dass die Diskussion um Gestalt und Ausprägungen des vierten Parteityps noch in vollem Gang und für weitere Vorschläge offen ist – der „richtige“ Typ also noch nicht gefunden wurde. Jun bleibt in seiner Untersuchung den zentralen Transformationsleitfragen nach der Ausgestaltung der Parteiorganisation, der ideologisch-programmatischen Orientierung und der strategisch-elektoralen Wählerorientierung verhaftet und setzt diese Elemente in den Fokus sich wandelnder Kommunikationsstrategien. Die bisher in parteitypologischen Arbeiten mitunter vernachlässigte Komponente der strukturellen Strategiefähigkeit als Grundlage zur Entwicklung ebensolcher Reaktionsstrategien wird bei Jun angestoßen und soll in dieser Arbeit aufgegriffen und vertieft werden.
Der aktuellen Partychange-Diskussion zum Trotz scheint die Annahme, dass Parteien, die sich verstärkt der Handlungslogik der Massenmedien unterwerfen, deren strategischen Anforderungen durch interne Adaptionsverfahren auch dauerhaft gerecht zu werden vermögen, nicht immer zutreffend. Die Veränderungen der Kommunikationsstrategien als Reaktion auf gesamtgesellschaftliche Wandlungsprozesse stehen zwar im Zentrum der Professionalisierungsbemühungen der politischen Akteure, bleiben aber in ihrer Wirkung eingeschränkt. Wenngleich das Wissen in den Parteien um die Notwendigkeiten (medialer) Strategiefähigkeit besteht und die Parteien hierauf mit Professionalisierung, organisatorischen und programmatischen Anpassungsleistungen und der Herausbildung strategischer Zentren reagieren, so ist mediengerechtes strategisches Agieren noch lange keine natürliche Kernkompetenz der Parteien. Vor allem in Wahlkampfzeiten, die aufgrund abnehmender Parteibindungen und zunehmender Wählervolatilität für die Parteien zum eigentlich zentralen Moment der Parteiendemokratie werden, wird mediengerechtes Handeln zum wesentlichen Erfolgsfaktor. Strategiefähigkeit wird hierbei zur entscheidenden Voraussetzung und scheint zudem in diesen Phasen von den Parteien erfolgreicher umgesetzt zu werden als im normalen politischen Alltag. Die wahlstrategische Komponente findet in Juns typologischer Konstruktion wenig Beachtung und soll in dieser Arbeit daher als ergänzendes Element hinzugefügt werden. Arbeitshypothese Die beiden deutschen Großparteien berufen sich auf unterschiedliche Entstehungsgeschichten, die sich bis in die Gegenwart auf die Mitglieder-, Issue- und Organisationsstrukturen von SPD und CDU auswirken und die Parteien in ihren Anpassungsleistungen an die sich wandelnde Gesellschaft beeinflussen. Beide Parteien versuchen, auf die veränderten sozialen und politischen Rahmenbedingungen und den daraus resultierenden Bedeutungszuwachs von politischer Kommunikationsplanung mit einem erhöhten Maß an Strategiefähigkeit und kommunikativer Kompetenz zu reagieren. Diese Entwicklung tritt seit der deutschen Wiedervereinigung umso stärker in Augenschein, als dass nach 1990 die Bindekraft der Volksparteien nochmals nachließ, sodass die Parteien sich zunehmend gezwungen sehen, die „lose verkoppelten Anarchien“ in wahlstrategische Medienkommunikationsparteien zu transformieren. Diesen vierten Parteityp kennzeichnet vor allem die zunehmende Bemühung um Strategiefähigkeit, die mittels Organisationsstrukturen und programmatischer Anpassungsleistungen die Effizienz der elektoralen Ausrichtung verbessern soll. Insgesamt geht die Party-Change-Forschung davon aus, dass die Parteien sich zunehmend angleichen. Dies gilt es in dieser Studie zu überprüfen. Unter Berücksichtigung unterschiedlicher Entwicklungspfade kann vermutet werden, dass auch die Transformationsprozesse bei SPD und CDU in unterschiedlicher Weise verlaufen. Wenngleich die SPD über einen höheren Strategiebedarf und die größere Innovationsbereitschaft zu verfügen scheint, werden auf Seiten der Union potentiell strategiefähigere Strukturen vermutet, die die erfolgreiche Umsetzung von Wahlkampfstrategien erleichtern. Die historische Entwicklung und der Aspekt der Historizität spielen in diesem Kontext eine Rolle.
Zusätzlich spielen individuelle Führungspersönlichkeiten eine zentrale Rolle in innerparteilichen Transformationsprozessen, welche für die Ausprägung strategiefähiger Strukturen oftmals von größerer Bedeutung sind als institutionalisierte Strukturen. Im Vordergrund steht die Untersuchung des Parteiwandels anhand der Veränderung der Kommunikationsstrategien der Parteien im Allgemeinen sowie der Strategiefähigkeit in Wahlkämpfen im Besonderen, da diese als zentrale Merkmale für den vierten Parteityp in Anlehnung an die Professionelle Medienkommunikationspartei (Jun 2004) gewertet werden sollen. Strategiefähigkeit soll dabei anhand der Kriterien des Umgangs der Parteien mit Programmatik, Organisation und externen Einflussfaktoren in Wahlkämpfen operationalisiert werden. Die Analyse untersucht sowohl das Handeln einzelner Personen wie auch die Rolle der Partei als Gesamtorganisation. Die Arbeit besteht aus zehn Kapiteln und gliedert sich in zwei Blöcke: einen theoretisch konzeptionellen Teil, der die in der Perspektive dieser Arbeit zentralen Grundlagen und Rahmenbedingungen zusammenführt sowie die sich daran anschließende Untersuchung der Konzeption und Implementation von Kommunikationskampagnen im Wahlkampf seit 1990. Das aktuell in die politikwissenschaftliche Diskussion eingebrachte Feld der politischen Strategiefähigkeit (Raschke/Tils 2007) wird in ausführlicher theoretischer Grundlegung bisher zwar mit den Implikationen der Medienkommunikation und damit einhergehend auch den organisatorischen und programmatischen Strukturmerkmalen der Parteien verknüpft, diese erfolgte allerdings oft ohne vertiefte Berücksichtigung des Parteiwandels. Dies soll in diesem Beitrag daher versucht werden. Der Diskursanalyse des Strategiebegriffes in Wahlkampfsituationen folgt die detaillierte Darstellung der drei Operationalisierungsparameter, die in die Festlegung des Parteityps münden. Die Diskussion idealtypischer Wahlkampfmodelle als theoretischer Bezugsrahmen für die Bewertung der Wahlkampagnen ergänzt den theoretisch-konzeptionellen Bezugsrahmen. Die insgesamt in der Literatur in ihren Ausführungen oftmals normativ gestalteten Darstellungen idealtypischer politischer Strategie sollen im letzten Teil der Arbeit auf ihre Umsetzbarkeit im parteipolitischen Alltag überprüft werden und dies nicht nur anhand einzelner, mit einander nicht in Zusammenhang stehender Ereignisse, sondern anhand der sich periodisch unter vergleichbaren Bedingungen wiederholenden Wahlkämpfe. Dafür werden die jeweiligen Ausgangs- und Rahmenbedingungen der einzelnen Wahlkämpfe sowie die zuvor dargelegten Elemente professionalisierter Wahlkampagnen für die Wahlkampagnen von SPD und CDU seit 1990 dargestellt. Aus diesen Gegenüberstellungen soll im Anschluss der längsschnittliche Vergleich der Strategiefähigkeit und Kommunikationskompetenz von SPD und CDU abgeleitet werden
Academic self-concept (ASC) is comprised of individual perceptions of one- own academic ability. In a cross-sectional quasi-representative sample of 3,779 German elementary school children in grades 1 to 4, we investigated (a) the structure of ASC, (b) ASC profile formation, an aspect of differentiation that is reflected in lower correlations between domain-specific ASCs with increasing grade level, (c) the impact of (internal) dimensional comparisons of one- own ability in different school subjects for profile formation of ASC, and (d) the role played by differences in school grades between subjects for these dimensional comparisons. The nested Marsh/Shavelson model, with general ASC at the apex and math, writing, and reading ASC as specific factors nested under general ASC fitted the data at all grade levels. A first-order factor model with math, writing, reading, and general ASCs as correlated factors provided a good fit, too. ASC profile formation became apparent during the first two to three years of school. Dimensional comparisons across subjects contributed to ASC profile formation. School grades enhanced these comparisons, especially when achievement profiles were uneven. In part, findings depended on the assumed structural model of ASCs. Implications for further research are discussed with special regard to factors influencing and moderating dimensional comparisons.
Participer à l’enseignement dès le plus jeune âge – est-ce possible ? Les discussions et les processus de négociation et de décision ne nécessitent-ils pas une certaine maturité dont les enfants de trois ans ne disposent pas encore ? L’équipe mateneen s’est fait une idée du travail avec des enfants préscolaires et a constaté : que c’était tout à fait possible !
In recent years, Islamic banking has been one of the fastest growing markets in the financial world. Even to German banks, Islamic finance is not as 'foreign' as one might think. Indeed, several banks are already operating so-called "Islamic windows" in various Arab countries. However, German banks are still reluctant to offer 'Islamic' products in Germany, despite the fact that approximately 3.5 million Muslims currently live there. Potential reasons for this reluctance include widespread misunderstanding of Islamic banking in Germany and prevailing cultural prejudice towards Islam generally. The author seeks to address these concerns and to take an objective approach towards understanding the potential for Islamic banking in Germany. Legally, Islamic law cannot be the governing law of any contract in Germany. Therefore, the aim must be to draft contracts that are both enforceable under German law and consistent with the principles of Shari'a " the Islamic law. In this paper, the author gives a detailed legal analysis of the most common Islamic banking products and how they could be given effect under German law, while attempting to address widespread concerns about arbitration or parallel Shari'a courts. This publication is one of the first legal analysis of Islamic banking products in Germany. As such, its goal is not to be the final word, but rather to begin the conversation about potential problems and conflicts of Islamic banking in Germany that require further investigation.
Properties Evaluation of Composite Materials Based on Gypsum Plaster and Posidonia Oceanica Fibers
(2023)
Estimating the amount of material without significant losses at the end of hybrid casting is a problem addressed in this study. To minimize manufacturing costs and improve the accuracy of results, a correction factor (CF) was used in the formula to estimate the volume percent of the material in order to reduce material losses during the sample manufacturing stage, allowing for greater confidence between the approved blending plan and the results obtained. In this context, three material mixing schemes of different sizes and shapes (gypsum plaster, sand (0/2), gravel (2/4), and Posidonia oceanica fibers (PO)) were created to verify the efficiency of CF and more precisely study the physico-mechanical effects on the samples. The results show that the use of a CF can reduce mixing loss to almost 0%. The optimal compressive strength of the sample (S1B) with the lowest mixing loss was 7.50 MPa. Under optimal conditions, the addition of PO improves mix volume percent correction (negligible), flexural strength (5.45%), density (18%), and porosity (3.70%) compared with S1B. On the other hand, the addition of PO thermo-chemical treatment by NaOH increases the compressive strength (3.97%) compared with PO due to the removal of impurities on the fiber surface, as shown by scanning electron microscopy. We then determined the optimal mixture ratio (PO divided by a mixture of plaster, sand, and gravel), which equals 0.0321 because Tunisian gypsum contains small amounts of bassanite and calcite, as shown by the X-ray diffraction results.
Die vorliegende Arbeit teilt sich in die zwei titelgebenden Themengebiete. Inhalt des ersten Teils dieser Arbeit ist die Untersuchung der Proximität, also einer gewissen Messung der Nähe, von Binomial- und Poisson-Verteilungen. Speziell wird die uniforme Struktur des Totalvariationsabstandes auf der abgeschlossenen Menge aller Binomial- und Poisson-Verteilungen charakterisiert, und zwar mit Hilfe der die Verteilungen eindeutig bestimmenden zugehörigen Erwartungswerte und Varianzen. Insbesondere wird eine obere Abschätzung des Totalvariationsabstandes auf der Menge der Binomial- und Poisson-Verteilungen durch eine entsprechende Funktion der zugehörigen Erwartungswerte und Varianzen angegeben. Der zweite Teil der Arbeit widmet sich Konfidenzintervallen für Durchschnitte von Erfolgswahrscheinlichkeiten. Eine der ersten und bekanntesten Arbeiten zu Konfidenzintervallen von Erfolgswahrscheinlichkeiten ist die von Clopper und Pearson (1934). Im Binomialmodell werden hier bei bekanntem Stichprobenumfang und Konfidenzniveau Konfidenzintervalle für die unbekannte Erfolgswahrscheinlichkeit entwickelt. Betrachtet man bei festem Stichprobenumfang statt einer Binomialverteilung, also dem Bildmaß einer homogenen Bernoulli-Kette unter der Summationsabbildung, das entsprechende Bildmaß einer inhomogenen Bernoulli-Kette, so erhält man eine Bernoulli-Faltung mit den entsprechenden Erfolgswahrscheinlichkeiten. Für das Schätzen der durchschnittlichen Erfolgswahrscheinlichkeit im größeren Bernoulli-Faltungs-Modell sind z. B. die einseitigen Clopper-Pearson-Intervalle im Allgemeinen nicht gültig. Es werden hier optimale einseitige und gültige zweiseitige Konfidenzintervalle für die durchschnittliche Erfolgswahrscheinlichkeit im Bernoulli-Faltungs-Modell entwickelt. Die einseitigen Clopper-Pearson-Intervalle sind im Allgemeinen auch nicht gültig für das Schätzen der Erfolgswahrscheinlichkeit im hypergeometrischen Modell, das ein Teilmodell des Bernoulli-Faltungs-Modells ist. Für das hypergeometrische Modell mit festem Stichprobenumfang und bekannter Urnengröße sind die optimalen einseitigen Konfidenzintervalle bekannt. Bei festem Stichprobenumfang und unbekannter Urnengröße werden aus den im Bernoulli-Faltungs-Modell optimalen Konfidenzintervallen optimale Konfidenzintervalle für das hypergeometrische Modell entwickelt. Außerdem wird der Fall betrachtet, dass eine obere Schranke für die unbekannte Urnengröße gegeben ist.
La formation des délégué·e·s de classe est incontournable si l’on veut construire une participation des élèves qui soit cohérente, sensée et légitime. Deux axes sont ici à prendre en considération : l’axe technique, centré sur des outils d’action et de réflexion, et l’axe relationnel, orienté vers la relation que le jeune entretient avec les autres. Les formations de l’association Jeune et Citoyen en Belgique répondent donc à un triple objectif : institutionnel, éducatif et pédagogique.
Zurzeit werden gesundheitliche Auswirkungen von Mobilfunkstrahlung auf den Menschen kontroversiell diskutiert. Die vorliegende Arbeit untersuchte mögliche Auswirkungen auf Befindlichkeit und psychische Variablen in zwei Studien. Es zeigte sich ein Trend bei einer Variable, es gab jedoch keine signifikanten Effekte. Bei den nicht-experimentellen Befunden wiesen Anrainer von Mobilfunksendeanlagen (self-rater) höhere psychische Belastung auf.
Die Vertrauens-Trias erlaubt salutogentische Aussagen über personale Ressourcen. Die kulturvergleichende Anwendung der Vertrauens-Trias wurde bei Jugendlichen in drei Ländern (Deutschland, Luxemburg, Spanien) überprüft. Dabei wurde die Konstruktvalidität der Vertrauens-Trias als auch Zusammenhänge zu symptomatischen Belastungen insgesamt bestätigt. Vergleiche zwischen den Kulturen zeigen keine Unterschiede zwischen deutschen und luxemburgischen Schülern, jedoch zwischen deutschen und spanischen Schülern.
Changes in the cardiovascular system are an often described state in eating disorders. Women with anorexia and bulimia nervosa and control persons were studied before and after a treatment in a psychosomatic clinic. Using different methods cardiovascular reactivity was evaluated in rest and during mental stress and exercise. Improvements after treatment were defined by weight gain, an increase of the trijodthyroninlevel and no more purging in the last three weeks. The anorectics showed higher epinephrinlevels than the other women. The cardiovascular parameters demonstrated an increase of parasympathic activity and a decrease of sympathetic activity in eating disorders. However, the reactivities on stressors showed no differences in comparison to the control group. No changes were observed during the treatment apart from the heartrate, which showed a tendency to increase in the last week of therapy. Because the improvements during the therapy were generally small, within the present study it could not be clarified wether the observed alterations are reversible. An increase of the parasympathic activity in autonome regulation of the heart in eating disorders has been demonstrated and the reactivity on stressors appears to be normal.