Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (833)
- Wissenschaftlicher Artikel (219)
- Buch (Monographie) (113)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (108)
- Arbeitspapier (62)
- Ausgabe (Heft) zu einer Zeitschrift (24)
- Teil eines Buches (Kapitel) (22)
- Konferenzveröffentlichung (17)
- Sonstiges (15)
- Rezension (10)
Sprache
- Deutsch (841)
- Englisch (518)
- Französisch (75)
- Mehrsprachig (15)
- Russisch (1)
Volltext vorhanden
- ja (1450) (entfernen)
Schlagworte
- Deutschland (84)
- Luxemburg (52)
- Stress (40)
- Schule (37)
- Schüler (33)
- Politischer Unterricht (29)
- Modellierung (28)
- Fernerkundung (25)
- Geschichte (24)
- Demokratie (23)
Institut
- Psychologie (212)
- Raum- und Umweltwissenschaften (212)
- Politikwissenschaft (132)
- Universitätsbibliothek (83)
- Rechtswissenschaft (77)
- Wirtschaftswissenschaften (66)
- Mathematik (65)
- Fachbereich 4 (58)
- Medienwissenschaft (57)
- Fachbereich 6 (50)
Magnet Resonance Imaging (MRI) and Electroencephalography (EEG) are tools used to investigate the functioning of the working brain in both humans and animal studies. Both methods are increasingly combined in separate or simultaneous measurements under the assumption to benefit from their individual strength while compensating their particular weaknesses. However, little attention has been paid to how statistical analyses strategies can influence the information that can be retrieved from a combined EEG fMRI study. Two independent studies in healthy student volunteers were conducted in the context of emotion research to demonstrate two approaches of combining MRI and EEG data of the same participants. The first study (N = 20) applied a visual search paradigm and found that in both measurements the assumed effects were absent by not statistically combining their results. The second study (N = 12) applied a novelty P300 paradigm and found that only the statistical combination of MRI and EEG measurements was able to disentangle the functional effects of brain areas involved in emotion processing. In conclusion, the observed results demonstrate that there are added benefits of statistically combining EEG-fMRI data acquisitions by assessing both the inferential statistical structure and the intra-individual correlations of the EEG and fMRI signal.
Comparing the results of the phylogeographies of the four species included in this thesis, some accordances have been found, even though certain patterns are only represented in one or two species. In all cases, the findings of the studied species strongly support the existence of forests or forest-like ecosystems beyond the classic forest refugia in the Mediterranean areas (Iberian, Apennine and Balkan peninsulas) during glacial times. However, evidence of glacial refugial areas in Southeastern Europe, especially the Balkans, have been found in this study as well. The analysed populations of Aposeris foetida, Melampyrum sylvaticum and Erebia euryale showed high genetic diversity values and mostly higher private fragments in this area, which is a strong indicator for centres of glacial survival during Würm and, regarding the results of M. sylvaticum, even during the Riss ice age. Three of the analysed species (A. foetida, M. sylvaticum and Colias palaeno) supported a second main glacial refuge area located along the Northern Alps. Again, high genetic diversity values and the uniqueness of the populations living in this region today prove the importance of this area as a glacial centre of survival. Those results confirm several recently published studies on forest species and strongly indicate the persistence of forest-like structures or even forests during the ice ages along the foothills of the Northern Alps. Additionally, the persistence of C. palaeno in this area furthermore supports the existence of peatlands north of the Alps, at least during the last glacial. The results of M. sylvaticum and E. euryale further indicate the vicinity of the Tatra Mountains as core areas for glacial survival. However, the genetic patterns found for E. euryale are ambiguous. Due to an intermediate position of two genetic lineages (originating in the Eastern Alps and Southeastern Europe), the Tatras could also reflect a postglacial mixture zone of those lineages. Moreover, the glacial and postglacial importance of this area for woodland species was accentuated, supporting other phylogeographic studies published. Besides the congruities among the results of the study species, some unique patterns and therefore further potential glacial refugia have also been illuminated in this thesis. For instance, the calcicole species, A. foetida, most probably had further survival area at both sides of the Dinaric Alps, supported by high genetic diversity values and a high number of private fragments found in Croatian populations. Furthermore, the surroundings of the German Uplands and the margin of the Southern Alps provided suitable conditions for glacial survival for M. sylvaticum, while the Eastern and Southeastern Alpine region most probably sheltered the Large Ringlet E. euryale during ice ages. Additionally, this butterfly species survived at least the glaciation along the foothills of the Massif Central, whose present populations showed a unique genetic lineage and their genetic diversity values have been measurably higher than in other populations for this species. Finally, a large and continuous Würm distribution is highly likely south of the Fennoscandian glaciers in Central Europe for C. palaeno, which might indicate extended peatland areas during Würm glacial. With all the patterns found in this study, the understanding of glacial persistence of forest, respectively forest-like structures and peatlands during Würm or even Riss glacial in Europe could be advanced. The congruencies among the analysed woodland and bog species illustrate the importance and location of extra-Mediterranean refugia for European mountain forests and the glacial presence of Central European peatlands. Thus, already postulated theories could be supported and further pieces of the overall puzzle could be added. The varieties of the different survival centres once more clarified that further phylogeographic studies on mountain forest of different habitat requirements and especially peatland species have to be implemented to get a clearer picture of the glacial history of these habitats.
Mechanical and Biological Treatment (MBT) generally aims to reduce the amount of solid waste and emissions in landfills and enhance the recoveries. MBT technology has been studied in various countries in Europe and Asia. Techniques of solid waste treatment are distinctly different in the study areas. A better understanding of MBT waste characteristics can lead to an optimization of the MBT technology. For a sustainable waste management, it is essential to determine the characteristics of the final MBT waste, the effectiveness of the treatment system as well as the potential application of the final material regarding future utilization. This study aims to define and compare the characteristics of the final MBT materials in the following countries: Luxembourg (using a high degree technology), Fridhaff in Diekirch/Erpeldange, Germany (using a well regulated technology), Singhofen in Rhein-Lahn district, Thailand (using a low cost technology): Phitsanulok in Phitsanulok province. The three countries were chosen for this comparative study due to their unique performance in the MBT implementation. The samples were taken from the composting heaps of the final treatment process prior to sending them to landfills, using a random sampling standard strategy from August 2008 onwards. The size of the sample was reduced to manageable sizes before characterization. The size reduction was achieved by the quartering method. The samples were first analyzed for the size fraction on the day of collection. They were screened into three fractions by the method of dry sieving: small size with a diameter of <10 mm, medium size with a diameter of 10-40 mm and large size with a diameter of >40 mm. These fractions were further analyzed for their physical and chemical parameters such as particle size distribution (total into 12 size fractions), particle shape, porosity, composition, water content, water retention capacity and respiratory activity. The extracted eluate was analyzed for pH-value, heavy metals (lead, cadmium and arsenic), chemical oxygen demand, ammonium, sulfate and chloride. In order to describe and evaluate the potential application of the small size material as a final cover of landfills, the fraction of small size samples were tested for the geotechnical properties as well. The geotechnical parameters were the compaction test, permeability test and shear strength test. The detailed description of the treatment facilities and methods of the study areas were included in the results. The samples from the three countries are visibly smaller than waste without pretreatment. Maximum particle size is found to be less than 100 mm. The samples are found to consist of dust to coarse fractions. The small size with a diameter of <10 mm was highest in the sample from Germany (average 60% by weight), secondly in the sample from Luxembourg (average 43% by weight) and lowest in the sample from Thailand (average 15% by weight). The content of biodegradable material generally increased with decreasing particle sizes. Primary components are organic, plastics, fibrous materials and inert materials (glass and ceramics). The percentage of each components greatly depends on the MBT process of each country. Other important characteristics are significantly reduced water content, reduced total organic carbon and reduced potential heavy metals. The geotechnical results show that the small fraction is highly compact, has a low permeability and lot of water adsorbed material. The utilization of MBT material in this study shows a good trend as it proved to be a safe material which contained very low amounts of loadings and concentrations of chemical oxygen demand, ammonium, and heavy metals. The organic part can be developed to be a soil conditioner. It is also suitably utilized as a bio-filter layer in the final cover of landfill or as a temporary cover during the MBT process. This study showed how to identify the most appropriate technology for municipal solid waste disposal through the study of waste characterization.
Educational researchers have intensively investigated students" academic self-concept (ASC) and self-efficacy (SE). Both constructs are part of the competence-related self-perceptions of students and are considered to support students" academic success and their career development in a positive manner (e.g., Abele-Brehm & Stief, 2004; Richardson, Abraham, & Bond, 2012; Schneider & Preckel, 2017). However, there is a lack of basic research on ASC and SE in higher education in general, and in undergraduate psychology courses in particular. Therefore, according to the within-network and between-network approaches of construct validation (Byrne, 1984), the present dissertation comprises three empirical studies examining the structure (research question 1), measurement (research question 2), correlates (research question 3), and differentiation (research question 4) of ASC and SE in a total sample of N = 1243 psychology students. Concerning research question 1, results of confirmatory factor analysis (CFAs) implied that students" ASC and SE are domain-specific in the sense of multidimensionality, but they are also hierarchically structured, with a general factor at the apex according to the nested Marsh/Shavelson model (NMS model, Brunner et al., 2010). Additionally, psychology students" SE to master specific psychological tasks in different areas of psychological application could be described by a 2-dimensional model with six factors according to the Multitrait-Multimethod (MTMM)-approach (Campbell & Fiske, 1959). With regard to research question 2, results revealed that the internal structure of ASC and SE could be validly assessed. However, the assessment of psychology students" SE should follow a task-specific measurement strategy. Results of research question 3 further showed that both constructs of psychology students" competence-related self-perceptions were positively correlated to achievement in undergraduate psychology courses if predictor (ASC, SE) corresponded to measurement specificity of the criterion (achievement). Overall, ASC provided substantially stronger relations to achievement compared to SE. Moreover, there was evidence for negative paths (contrast effects) from achievement in one psychological domain on ASC of another psychological domain as postulated by the internal/external frame of reference (I/E) model (Marsh, 1986). Finally, building on research questions 1 to 3 (structure, measurement, and correlates of ASC and SE), psychology students" ASC and SE were be differentiated on an empirical level (research question 4). Implications for future research practices are discussed. Furthermore, practical implications for enhancing ASC and SE in higher education are proposed to support academic achievement and the career development of psychology students.
Competitive analysis is a well known method for analyzing online algorithms.
Two online optimization problems, the scheduling problems and the list accessing problems, are considered in the thesis of Yida Zhu in the respect of this method.
For both problems, several existing online and offline algorithms are studied. Their performances are compared with the performances of corresponding offline optimal algorithms.
In particular, the list accessing algorithm BIT is carefully reviewed.
The classical proof of its worst case performance get simplified by adapting the knowledge about the optimal offline algorithm.
With regard to average case analysis, a new closed formula is developed to determine the performance of BIT on specific class of instances.
All algorithm considered in this thesis are also implemented in Julia.
Their empirical performances are studied and compared with each other directly.
One of the main tasks in mathematics is to answer the question whether an equation possesses a solution or not. In the 1940- Thom and Glaeser studied a new type of equations that are given by the composition of functions. They raised the following question: For which functions Ψ does the equation F(Ψ)=f always have a solution. Of course this question only makes sense if the right hand side f satisfies some a priori conditions like being contained in the closure of the space of all compositions with Ψ and is easy to answer if F and f are continuous functions. Considering further restrictions to these functions, especially to F, extremely complicates the search for an adequate solution. For smooth functions one can already find deep results by Bierstone and Milman which answer the question in the case of a real-analytic function Ψ. This work contains further results for a different class of functions, namely those Ψ that are smooth and injective. In the case of a function Ψ of a single real variable, the question can be fully answered and we give three conditions that are both sufficient and necessary in order for the composition equation to always have a solution. Furthermore one can unify these three conditions to show that they are equivalent to the fact that Ψ has a locally Hölder-continuous inverse. For injective functions Ψ of several real variables we give necessary conditions for the composition equation to be solvable. For instance Ψ should satisfy some form of local distance estimate for the partial derivatives. Under the additional assumption of the Whitney-regularity of the image of Ψ, we can give sufficient conditions for flat functions f on the critical set of Ψ to possess a solution F(Ψ)=f.
Pour pouvoir développer une compétence médiatique, les élèves ont besoin d’une réflexion, mais également d’une pratique personnelle des médias afin de devenir des producteur(trice)s et des concepteur(trice)s d’offres médiatiques. Ce compte rendu pratique relate la réalisation d’un programme télévisé d’une heure avec des élèves du Lycée de Garçons Esch.
In this thesis we focus on the development and investigation of methods for the computation of confluent hypergeometric functions. We point out the relations between these functions and parabolic boundary value problems and demonstrate applications to models of heat transfer and fluid dynamics. For the computation of confluent hypergeometric functions on compact (real or complex) intervals we consider a series expansion based on the Hadamard product of power series. It turnes out that the partial sums of this expansion are easily computable and provide a better rate of convergence in comparison to the partial sums of the Taylor series. Regarding the computational accuracy the problem of cancellation errors is reduced considerably. Another important tool for the computation of confluent hypergeometric functions are recurrence formulae. Although easy to implement, such recurrence relations are numerically unstable e.g. due to rounding errors. In order to circumvent these problems a method for computing recurrence relations in backward direction is applied. Furthermore, asymptotic expansions for large arguments in modulus are considered. From the numerical point of view the determination of the number of terms used for the approximation is a crucial point. As an application we consider initial-boundary value problems with partial differential equations of parabolic type, where we use the method of eigenfunction expansion in order to determine an explicit form of the solution. In this case the arising eigenfunctions depend directly on the geometry of the considered domain. For certain domains with some special geometry the eigenfunctions are of confluent hypergeometric type. Both a conductive heat transfer model and an application in fluid dynamics is considered. Finally, the application of several heat transfer models to certain sterilization processes in food industry is discussed.
This thesis is concerned with two classes of optimization problems which stem
mainly from statistics: clustering problems and cardinality-constrained optimization problems. We are particularly interested in the development of computational techniques to exactly or heuristically solve instances of these two classes
of optimization problems.
The minimum sum-of-squares clustering (MSSC) problem is widely used
to find clusters within a set of data points. The problem is also known as
the $k$-means problem, since the most prominent heuristic to compute a feasible
point of this optimization problem is the $k$-means method. In many modern
applications, however, the clustering suffers from uncertain input data due to,
e.g., unstructured measurement errors. The reason for this is that the clustering
result then represents a clustering of the erroneous measurements instead of
retrieving the true underlying clustering structure. We address this issue by
applying robust optimization techniques: we derive the strictly and $\Gamma$-robust
counterparts of the MSSC problem, which are as challenging to solve as the
original model. Moreover, we develop alternating direction methods to quickly
compute feasible points of good quality. Our experiments reveal that the more
conservative strictly robust model consistently provides better clustering solutions
than the nominal and the less conservative $\Gamma$-robust models.
In the context of clustering problems, however, using only a heuristic solution
comes with severe disadvantages regarding the interpretation of the clustering.
This motivates us to study globally optimal algorithms for the MSSC problem.
We note that although some algorithms have already been proposed for this
problem, it is still far from being “practically solved”. Therefore, we propose
mixed-integer programming techniques, which are mainly based on geometric
ideas and which can be incorporated in a
branch-and-cut based algorithm tailored
to the MSSC problem. Our numerical experiments show that these techniques
significantly improve the solution process of a
state-of-the-art MINLP solver
when applied to the problem.
We then turn to the study of cardinality-constrained optimization problems.
We consider two famous problem instances of this class: sparse portfolio optimization and sparse regression problems. In many modern applications, it is common
to consider problems with thousands of variables. Therefore, globally optimal
algorithms are not always computationally viable and the study of sophisticated
heuristics is very desirable. Since these problems have a discrete-continuous
structure, decomposition methods are particularly well suited. We then apply a
penalty alternating direction method that explores this structure and provides
very good feasible points in a reasonable amount of time. Our computational
study shows that our methods are competitive to
state-of-the-art solvers and heuristics.
This dissertation deals with consistent estimates in household surveys. Household surveys are often drawn via cluster sampling, with households sampled at the first stage and persons selected at the second stage. The collected data provide information for estimation at both the person and the household level. However, consistent estimates are desirable in the sense that the estimated household-level totals should coincide with the estimated totals obtained at the person-level. Current practice in statistical offices is to use integrated weighting. In this approach consistent estimates are guaranteed by equal weights for all persons within a household and the household itself. However, due to the forced equality of weights, the individual patterns of persons are lost and the heterogeneity within households is not taken into account. In order to avoid the negative consequences of integrated weighting, we propose alternative weighting methods in the first part of this dissertation that ensure both consistent estimates and individual person weights within a household. The underlying idea is to limit the consistency conditions to variables that emerge in both the personal and household data sets. These common variables are included in the person- and household-level estimator as additional auxiliary variables. This achieves consistency more directly and only for the relevant variables, rather than indirectly by forcing equal weights on all persons within a household. Further decisive advantages of the proposed alternative weighting methods are that original individual rather than the constructed aggregated auxiliaries are utilized and that the variable selection process is more flexible because different auxiliary variables can be incorporated in the person-level estimator than in the household-level estimator.
In the second part of this dissertation, the variances of a person-level GREG estimator and an integrated estimator are compared in order to quantify the effects of the consistency requirements in the integrated weighting approach. One of the challenges is that the estimators to be compared are of different dimensions. The proposed solution is to decompose the variance of the integrated estimator into the variance of a reduced GREG estimator, whose underlying model is of the same dimensions as the person-level GREG estimator, and add a constructed term that captures the effects disregarded by the reduced model. Subsequently, further fields of application for the derived decomposition are proposed such as the variable selection process in the field of econometrics or survey statistics.
In this thesis, we investigate the quantization problem of Gaussian measures on Banach spaces by means of constructive methods. That is, for a random variable X and a natural number N, we are searching for those N elements in the underlying Banach space which give the best approximation to X in the average sense. We particularly focus on centered Gaussians on the space of continuous functions on [0,1] equipped with the supremum-norm, since in that case all known methods failed to achieve the optimal quantization rate for important Gauss-processes. In fact, by means of Spline-approximations and a scheme based on the Best-Approximations in the sense of the Kolmogorov n-width we were able to attain the optimal rate of convergence to zero for these quantization problems. Moreover, we established a new upper bound for the quantization error, which is based on a very simple criterion, the modulus of smoothness of the covariance function. Finally, we explicitly constructed those quantizers numerically.
Soil organic matter (SOM) is an indispensable component of terrestrial ecosystems. Soil organic carbon (SOC) dynamics are influenced by a number of well-known abiotic factors such as clay content, soil pH, or pedogenic oxides. These parameters interact with each other and vary in their influence on SOC depending on local conditions. To investigate the latter, the dependence of SOC accumulation on parameters and parameter combinations was statistically assessed that vary on a local scale depending on parent material, soil texture class, and land use. To this end, topsoils were sampled from arable and grassland sites in south-western Germany in four regions with different soil parent material. Principal component analysis (PCA) revealed a distinct clustering of data according to parent material and soil texture that varied largely between the local sampling regions, while land use explained PCA results only to a small extent. The PCA clusters were differentiated into total clusters that contain the entire dataset or major proportions of it and local clusters representing only a smaller part of the dataset. All clusters were analysed for the relationships between SOC concentrations (SOC %) and mineral-phase parameters in order to assess specific parameter combinations explaining SOC and its labile fractions hot water-extractable C (HWEC) and microbial biomass C (MBC). Analyses were focused on soil parameters that are known as possible predictors for the occurrence and stabilization of SOC (e.g. fine silt plus clay and pedogenic oxides). Regarding the total clusters, we found significant relationships, by bivariate models, between SOC, its labile fractions HWEC and MBC, and the applied predictors. However, partly low explained variances indicated the limited suitability of bivariate models. Hence, mixed-effect models were used to identify specific parameter combinations that significantly explain SOC and its labile fractions of the different clusters. Comparing measured and mixed-effect-model-predicted SOC values revealed acceptable to very good regression coefficients (R2=0.41–0.91) and low to acceptable root mean square error (RMSE = 0.20 %–0.42 %). Thereby, the predictors and predictor combinations clearly differed between models obtained for the whole dataset and the different cluster groups. At a local scale, site-specific combinations of parameters explained the variability of organic carbon notably better, while the application of total models to local clusters resulted in less explained variance and a higher RMSE. Independently of that, the explained variance by marginal fixed effects decreased in the order SOC > HWEC > MBC, showing that labile fractions depend less on soil properties but presumably more on processes such as organic carbon input and turnover in soil.
Many real-life phenomena, such as computer systems, communication networks, manufacturing systems, supermarket checkout lines as well as structural military systems can be represented by means of queueing models. Looking at queueing models, a controller may considerably improve the system's performance by reducing queue lengths, or increasing the throughput, or diminishing the overhead, whereas in the absence of a controller the system behavior may get quite erratic, exhibiting periods of high load and long queues followed by periods, during which the servers remain idle. The theoretical foundations of controlled queueing systems are led in the theory of Markov, semi-Markov and semi-regenerative decision processes. In this thesis, the essential work consists in designing controlled queueing models and investigation of their optimal control properties for the application in the area of the modern telecommunication systems, which should satisfy the growing demands for quality of service (QoS). For two types of optimization criterion (the model without penalties and with set-up costs), a class of controlled queueing systems is defined. The general case of the queue that forms this class is characterized by a Markov Additive Arrival Process and heterogeneous Phase-Type service time distributions. We show that for these queueing systems the structural properties of optimal control policies, e.g. monotonicity properties and threshold structure, are preserved. Moreover, we show that these systems possess specific properties, e.g. the dependence of optimal policies on the arrival and service statistics. In order to practically use controlled stochastic models, it is necessary to obtain a quick and an effective method to find optimal policies. We present the iteration algorithm which can be successfully used to find an optimal solution in case of a large state space.
Many combinatorial optimization problems on finite graphs can be formulated as conic convex programs, e.g. the stable set problem, the maximum clique problem or the maximum cut problem. Especially NP-hard problems can be written as copositive programs. In this case the complexity is moved entirely into the copositivity constraint.
Copositive programming is a quite new topic in optimization. It deals with optimization over the so-called copositive cone, a superset of the positive semidefinite cone, where the quadratic form x^T Ax has to be nonnegative for only the nonnegative vectors x. Its dual cone is the cone of completely positive matrices, which includes all matrices that can be decomposed as a sum of nonnegative symmetric vector-vector-products.
The related optimization problems are linear programs with matrix variables and cone constraints.
However, some optimization problems can be formulated as combinatorial problems on infinite graphs. For example, the kissing number problem can be formulated as a stable set problem on a circle.
In this thesis we will discuss how the theory of copositive optimization can be lifted up to infinite dimension. For some special cases we will give applications in combinatorial optimization.
In der Reaktion auf die Ausbreitung der Covid-19-Pandemie kam es weltweit für viele Menschen zum Bruch sozialer und räumlicher Routinen. In Deutschland haben die Landesregierungen die führende Rolle beim Versuch übernommen, durch Verfügungen und Verordnungen die weitere Ausbreitung der Pandemie einzudämmen. In diesem Kontext hat die Art und Weise wie Gesetze und Regeln Alltagsräume durchdringen für viele Menschen eine neue (unmittelbar erlebbare) Dimension angenommen. Ziel dieses Beitrags ist es, mit einem Fokus auf die getroffenen Maßnahmen der saarländischen Landesregierung diesbezüglich eine lokale Perspektive zu entwickeln. Durch die qualitative Methode der Autofotographie werden dabei individuelle Sichtweisen auf das zugrundeliegende Wechselspiel von Recht, Raum und Gesellschaft in den Vordergrund der Analyse gestellt. Durch den Blick auf sozialräumliche Zusammenhänge werden so die Auswirkungen der getroffenen Maßnahmen hinterfragt.
Der Vortrag stellt die Arbeit der vom Referenten geleiteten Regierungskommission "Corporate Governance" und ihre Empfehlungen dar, erörtert den Inhalt des inzwischen verabschiedeten "Corporate Governance-Kodex" für börsennotierte Unternehmen und geht auf einige damit verbundene Rechtsfragen ein. Den Abschluss bildet ein Ausblick auf geplante Reformvorhaben im Bereich des Aktienrechts.
There is considerable evidence for an association between chronic dysregulation of the hypothalamus-pituitary adrenal (HPA) axis, atrophy of the hippocampus (HC) and cognitive and mood changes in clinical populations and in aging. The present thesis investigated this relationship in young healthy male subjects. Special emphasis was put on measures of HC volume and function derived from structural and functional magnetic resonance imaging (MRI). Higher cortisol levels after awakening were observed in subjects with higher levels of depressive symptomatology. Larger HC volume was associated with higher cortisol levels after awakening and in response to acute stress, whereas cognitive performance was impaired in subjects with larger HC volumes. Hippocampal activation during picture encoding was reduced after stress induction, and positive associations between activation and cognitive performance before stress were not present anymore afterwards. The present findings underscore the importance of structural and functional brain imaging for psychoneuroendocrinological research. The investigation of the association between cortisol levels and hippocampal integrity in young healthy subjects elicited unexpected results and adds to the understanding of HPA dysfunction and HC atrophy in clinical and aged populations.
Introduction:In patients with common variable immunodeficiency (CVID),immunological response is compromised. Knowledge about COVID‐19 in CVIDpatients is sparse. We, here, synthesize current research addressing the level ofthreat COVID‐19posestoCVIDpatientsandthebest‐known treatments.
Method:Review of 14 publications.
Results:The number of CVID patients with moderate to severe (~29%) andcritical infection courses (~10%), and the number of fatal cases (~13%), areincreased compared to the general picture of COVID‐19 infection. However,this might be an overestimate. Systematic cohort‐wide studies are lacking, andasymptomatic or mild cases among CVID patients occur that can easily remainunnoticed. Regular immunoglobulin replacement therapy was administered inalmost all patients, potentially explaining why the numbers of critical and fatalcases were not higher. In addition, the application of convalescent plasma wasdemonstrated to have positive effects.
Conclusions:COVID‐19 poses an elevated threat to CVID patients. However,only systematic studies can provide robust information on the extent of thisthreat. Regular immunoglobulin replacement therapy is beneficial to combatCOVID‐19 in CVID patients, and best treatment after infection includes theuse of convalescent plasma in addition to common medication.
Die räumliche Entwicklung von Städten und Regionen wird durch Trends wie Klimawandel, demographische Veränderungen und Strukturwandel beeinflusst, welche nicht an Verwaltungsgrenzen aufhören, sondern die Entwicklung großflächiger Gebiete bestimmen. Außerdem weisen Grenzräume häufig funktionale und thematische Verflechtungen auf, die über die nationalen Grenzen hinweg bestehen. Damit verbunden sind ein regelmäßiger Austausch und Abhängigkeiten zwischen Grenzräumen und deren Bewohnern. Daher ist die Koordination der grenzüberschreitenden Raumentwicklung entscheidend für eine zukunftsorientierte und nachhaltige räumliche Entwicklung. Aufgrund seiner hohen Bedeutung wird dieses Thema von europäischen Wissenschaftlern in der ersten Ausgabe der Themenhefte Borders in Perspective aus verschiedenen Perspektiven beleuchtet.
Die Dissertation mit dem Thema "Cross-Border-Leasing als Instrument der Kommunalfinanzierung " Eine finanzwirtschaftliche Analyse unter besonderer Berücksichtigung der Risiken - befasst sich am Beispiel des primär steuerinduzierten, grenzüberschreitenden Cross-Border-Leasings (CBL) mit einem innovativen, strukturierten Finanzierungsinstrument, das sich im Spannungsfeld von Rechtsstaatlichkeit und privatwirtschaftlichem Management öffentlicher Akteure befindet. Dazu werden bereits finanzierte und sich im Betrieb befindliche Assets in Variationen von langfristigen Leasingverträge eingebracht. Durch die geschickte Ausnutzung steuerlicher Zurechnungskriterien werden unter Einbindung mehrerer Jurisdiktionen Gewinnverschiebungsmöglichkeiten und Steueroptimierungspotenziale geschaffen, wobei die generierten Zusatzerträge unter den Akteuren aufgeteilt werden. Die Untersuchung orientiert sich an einem umfassenden forschungsleitenden Fragenkatalog, der sehr vielschichtig und zudem interdisziplinär die komplexen Aspekte des CBLs theoretisch sowie praktisch an einem Fallbeispiel untersucht. Zunächst erfolgt die Einbettung des CBLs in den kommunalen Hintergrund. Daran schliesst sich eine Darstellung des Untersuchungsgegenstands im Hinblick auf seine elementare Grundstruktur, Zahlungsströme, Vertragsparteien und deren bilateralen Verpflechtungen an. Daneben erfolgt eine Analyse der öffentlich-rechtlichen Implikationen des CBLs sowie der regulatorischen kommunalaufsichtsrechtlichen Anforderungen. Im zentralen empirischen Teil der Dissertation wird eine idealtypische CBL-Transaktion einer bundesdeutschen Metropole als Fallstudie analysiert: im Rahmen einer erstmaligen wissenschaftlichen Analyse einer Orginaldokumentation werden zunächst die strukturellen Rahmenparameter untersucht, um dann den Finanzierungsvorteil der Transaktion zu ermitteln. Eine Klassifikation erfolgt dabei in diejenigen Risken, die sich unmittelbar im Einflussbereich der Kommune befinden und somit direkt, d.h. durch aktives eigenes Handeln, minimiert oder vermieden werden können und in solche, die aus ihrer Sicht extern sind. Abgerundet wird die Risikoanalyse durch eine Abschätzung der maximalen Risikoposition in Form der Schadensersatzzahlungen, die die Kommune in vertraglich vereinbarten Fällen leisten muss. Dabei ermittelt die Verfasserin den Break-Even der Transaktion und setzt Szenarien sowie mathematische Modelle ein, um die inhärenten Risiken aufgrund ihrer Kostenfolgen sorgfältig gegenüber dem vereinnahmten kurzfristigen Vorteil abzuwägen. Die Untersuchung bedient sich dem anerkannten mathematisch-statistischen Value-at-Risk-Verfahren (VaR), das unter Verwendung von Ansätzen der Wahrscheinlichkeitsverteilung das Marktpreisrisiko zu quantifizieren vermag. Um zu validen Ergebnissen zu gelangen, werden zur Ermittlung des VaRs die beiden bekanntesten (nicht-parametrischen) Tools des VaR-Ansatzes angewendet, um die potenziellen Performanceschwankungen des Depotwertes unter Zugrundelegung bestimmter Wahrscheinlichkeiten abschätzen zu können. Dies ist das Verfahren der Historischen Simulation sowie die als mathematisch sehr anspruchsvoll eingestufte Monte-Carlo-Simulation. Als Weiterentwicklung des VaR-Modells wird zudem der Conditional VaR berechnet, der Aussagen über das Ausmaß der erwarteten Verluste zulässt. Anhand dieser Ergebnisse wird die maximale finanzielle Risikoposition der Kommune, bezogen auf das Kapitaldepot, abgeleitet. Darüber hinaus wird das CBL im Rahmen eines mathematischen Modells insgesamt beurteilt, indem eine Gegenüberstellung von vereinnahmtem Finanzierungsvorteil und den mit Eintrittswahrscheinlichkeiten gewichteten Ausfallrisiken, unter Berücksichtigung des jeweiligen Eintrittszeitpunktes, durchgeführt wird. Diese Vorgehensweise führt zu einer Symbiose aus Finanzierungsvorteil und den Risikomaßzahlen VaR, Expected Shortfall und Expected Loss. Die ermittelten finanzwirtschaftlichen Risikomaßzahlen führen zu überraschenden Ergebnissen, die die propagierte Risikolosigkeit und das vermeintlich attraktive Renditepotenzial derartiger Transaktionen eindeutig verneinen. Aus den gewonnenen Erkenntnissen leitet die Verfasserin praktische Handlungsempfehlungen und Absicherungsmöglichkeiten für kommunale Entscheidungsträger ab. Die sich aufgrund der US-Steuerrechtsänderung vom Februar 2005 ergebenden Auswirkungen auf bestehende Transaktionen wie auch auf Neugeschäfte werden im Ausblick dargelegt.
The glucocorticoid (GC) cortisol, main mediator of the hypothalamic-pituitary-adrenal axis, has many implications in metabolism, stress response and the immune system. GC function is mediated mainly via the glucocorticoid receptor (GR) which binds as a transcription factor to glucocorticoid response elements (GREs). GCs are strong immunosuppressants and used to treat inflammatory and autoimmune diseases. Long-term usage can lead to several irreversible side effects which make improved understanding indispensable and warrant the adaptation of current drugs. Several large scale gene expression studies have been performed to gain insight into GC signalling. Nevertheless, studies at the proteomic level have not yet been made. The effects of cortisol on monocytes and macrophages were studied in the THP-1 cell line using 2D fluorescence difference gel electrophoresis (2D DIGE) combined with MALDI-TOF mass spectrometry. More than 50 cortisol-modulated proteins were identified which belonged to five functional groups: cytoskeleton, chaperones, immune response, metabolism, and transcription/translation. Multiple GREs were found in the promoters of their corresponding genes (+10 kb/-0.2 kb promoter regions including all alternative promoters available within the Database for Transcription Start Sites (DBTSS)). High quality GREs were observed mainly in cortisol modulated genes, corroborating the proteomics results. Differential regulation of selected immune response related proteins were confirmed by qPCR and immuno-blotting. All immune response related proteins (MX1, IFIT3, SYWC, STAT3, PMSE2, PRS7) which were induced by LPS were suppressed by cortisol and belong mainly to classical interferon target genes. Mx1 has been selected for detailed expression analysis since new isoforms have been identified by proteomics. FKBP51, known to be induced by cortisol, was identified as the strongest differentially expressed protein and contained the highest number of strict GREs. Genomic analysis of five alternative FKBP5 promoter regions suggested GC inducibility of all transcripts. 2D DIGE combined with 2D immunoblotting revealed the existence of several previously unknown FKBP51 isoforms, possibly resulting from these transcripts. Additionally multiple post-translational modifications were found, which could lead to different subcellular localization in monocytes and macrophages as seen by confocal microscopy. Similar results were obtained for the different cellular subsets of human peripheral blood mononuclear cells (PBMCs). FKBP51 was found to be constitutively phosphorylated with up to 8 phosphosites in CD19+ B lymphocytes. Differential Co-immunoprecipitation for cytoplasm and nucleus allowed us to identify new potential interaction partners. Nuclear FKBP51 was found to interact with myosin 9, whereas cytosolic FKBP51 with TRIM21 (synonym: Ro52, Sjögren`s syndrome antigen). The GR has been found to interact with THOC4 and YB1, two proteins implicated in mRNA processing and transcriptional regulation. We also applied proteomics to study rapid non-genomic effects of acute stress in a rat model. The nuclear proteome of the thymus was investigated after 15 min restraint stress and compared to the non-stressed control. Most of the identified proteins were transcriptional regulators found to be enriched in the nucleus probably to assist gene expression in an appropriate manner. The proteomic approach allowed us to further understand the cortisol mediated response in monocytes/macrophages. We identified several new target proteins, but we also found new protein variants and post-translational modifications which need further investigation. Detailed study of FKBP51 and GR indicated a complex regulation network which opened a new field of research. We identified new variants of the anti-viral response protein MX1, displaying differential expression and phosphorylation in the cellular compartments. Further, proteomics allowed us to follow the very early effects of acute stress, which happen prior to gene expression. The nuclear thymocyte proteome of restraint stressed rats revealed an active preparation for subsequent gene expression. Proteomics was successfully applied to study differential protein expression, to identify new protein variants and phosphorylation events as well as to follow translocation. New aspects for future research in the field of cortisol-mediated immune modulation have been added.
La participation des élèves ne devrait pas se limiter à l’implication dans l’organisation et l’évaluation des cours. Une culture de tâches participative offre de nombreuses possibilités pour pratiquer et analyser la participation démocratique à l’aide d’actions réelles ou simulées dans l’apprentissage technique.
Le feedback à l’école ? Il s’agit souvent d’un simple retour d’informations des enseignant(e)s sur le travail des élèves en classe. Cependant, une culture du feedback solide en classe offre de nombreuses possibilités pour pratiquer l’action démocratique et améliorer la qualité de l’enseignement, tout en faisant participer enseignant(e)s et apprenant(e)s.
Surveys play a major role in studying social and behavioral phenomena that are difficult to
observe. Survey data provide insights into the determinants and consequences of human
behavior and social interactions. Many domains rely on high quality survey data for decision
making and policy implementation including politics, health, business, and the social
sciences. Given a certain research question in a specific context, finding the most appropriate
survey design to ensure data quality and keep fieldwork costs low at the same time is a
difficult task. The aim of examining survey research methodology is to provide the best
evidence to estimate the costs and errors of different survey design options. The goal of this
thesis is to support and optimize the accumulation and sustainable use of evidence in survey
methodology in four steps:
(1) Identifying the gaps in meta-analytic evidence in survey methodology by a systematic
review of the existing evidence along the dimensions of a central framework in the
field
(2) Filling in these gaps with two meta-analyses in the field of survey methodology, one
on response rates in psychological online surveys, the other on panel conditioning
effects for sensitive items
(3) Assessing the robustness and sufficiency of the results of the two meta-analyses
(4) Proposing a publication format for the accumulation and dissemination of metaanalytic
evidence
Kompetenzeinbußen und Abhängigkeit im Alter können durch die soziale Umwelt mitbedingt werden. Altersstereotypbasierte Negativerwartungen bezüglich mangelnder Kompetenzen alter Menschen beeinflussen das Kommunikationsverhalten jüngerer gegenüber älteren Personen (z.B. Ryan, Giles, Bartolucci & Henwood, 1986) sowie das Interaktionsverhalten im Pflegekontext (Baltes, M. M., 1996). Margret Baltes (1996) zeigte in Beobachtungsstudien, dass die Interaktionen zwischen alten Menschen und ihren Pflegepersonen durch ein spezifisches Muster gekennzeichnet sind: Unselbständiges Verhalten der alten Menschen wird durch vermehrte Hilfe unterstützt, selbständiges Verhalten ignoriert. Die vorliegende Arbeit geht der Frage nach, ob es sich bei diesem Abhängigkeitsunterstützungsskript im Pflegesetting um einen Effekt mit universellem Geltungsbereich handelt, oder ob es situative und personale Moderatoren gibt, welche die Reaktionen der Pflegepersonen auf selbständiges bzw. unselbständiges Verhalten der von ihnen betreuten Menschen beeinflussen. Mithilfe einer experimentellen Methode - unter Verwendung von Text-Vignetten - wurde an einer Stichprobe von Studierenden (Studie 1; N=172) sowie professionellen Pflegekräften aus Altenheimen bzw. einem Krankenhaus (Studie 2; N=214) die Hypothese überprüft, dass Pflegekräfte vor allem in solchen Situationen skriptkonform handeln, in denen sie unter Zeitdruck stehen. Des Weiteren wurde untersucht, ob es sich um einen spezifischen Effekt im Umgang mit alten Menschen handelt, oder ob der Befund vielmehr auf bestimmte Rollenerwartungen im Pflegesetting (Altenheim bzw. Krankenhaus) unabhängig vom Alter der gepflegten Person zurückzuführen ist. Als Persönlichkeitsvariablen wurden Geduld, Direktivität und die individuelle Ausprägung des Altersstereotyps erhoben. Die Ergebnisse sprechen für ein relativ hohes Maß an aktivierenden, die Selbständigkeit fördernden Pflegeabsichten. Diese sind vermindert bei hohem Zeitdruck und mangelnder Geduld der Pflegeperson. Die Hypothese, das Abhängigkeitsunterstützungsskript zeige sich vor allem in der Interaktion mit alten Menschen bzw. werde durch ein individuell stark ausgeprägtes negatives Altersstereotyp verstärkt, fand keine eindeutige Bestätigung. Es zeigten sich aber Unterschiede zwischen den Pflegesettings: Im Altenheim wurden mehr selbständigkeitsunterstützende Pflegeabsichten geäußert als bei alten Patienten im Krankenhaus.
Das israelische Religionsrecht ist gegenwärtig trotz des jüdischen Charakters des Staates Israel grundsätzlich als System der Trennung von Staat und Religion bei gleichzeitiger Kooperation des Staates mit den Religionen beziehungsweise Religionsgemeinschaften zu charakterisieren. Mit Blick auf den aktuellen Verfassungsentwurf des israelischen Parlaments stellt sich die Frage, welche Konsequenzen seine Annahme für das Religionsrecht haben würde: Würde Israel Züge eines religiösen Staates annehmen, oder bildet das Regelungswerk lediglich den Ist-Zustand ab? Die Beantwortung dieser Frage hängt zum einen von dem Charakter der neuen Regelungen ab, die der Entwurf enthält, und zum anderen davon, ob die bestehende Rechtssubstanz durch die Transponierung in eine formelle Verfassung ihr Wesen verändern würde.
Gegenstand der Dissertation ist das von einem anonymen Autor stammende Bellum Africum, das als Teil des Corpus Caesarianum Caesars Feldzug in Afrika (Dezember 47 bis Juli 46 v.Chr.) umfasst. Hauptteil ist ein Zeilenkommentar der Kapitel 1 bis 47 (S.80-323), in dem der Text sowohl historisch als auch philologisch erfasst und bearbeitet wird. Daraus ergeben sich eine Reihe neuer Erkenntnisse verschiedenster Art in Detailfragen. Daneben treten eine Übersetzung der entsprechenden Kapitel ins Deutsche (S.55-78) sowie weitere Untersuchungen, in denen Einzelprobleme, die sich aus der Arbeit am Kommentar ergaben, bearbeitet werden. Thema dieser Untersuchungen sind in der Einleitung (S.33-54) Sprache und Stil (S.33-39), die Verfasserfrage (S.39-46) und die Chronologie der ersten Tage des Feldzuges (S.47-54). Zwei weitere Untersuchungen im Anschluss an den Kommentar befassen sich mit Caesars Legionen im Afrikanischen Krieg (S.324-342) und der Darstellung von Caesarianern und Pompeianern im Bellum Africum (S.343-382). Eine Prosopographie zum Bellum Africum (S.390-407), ein Index zu den benutzten antiken Quellen (S.408-421) und ein Literaturverzeichnis (S.10-32) vervollständigen die Arbeit.
Im März 196 v. Chr. erließ eine in Memphis versammelte Synode von Priestern aus den Tempeln Ägyptens ein Ehrendekret in drei verschiedenen Sprachen für den amtierenden Herrscher Ptolemaios V. Epiphanes: Der klassischen Sprache des pharaonischen Ägypten, geschrieben in altägyptischen Hieroglyphen, dem Demotischen, der damals gesprochenen Sprachstufe des Altägyptischen und dem hellenistischen Griechisch des 2 Jh.. Von dieser Textsorte sind bisher insgesamt nur vier relativ vollständig erhaltene Beispiele auf uns gekommen. Diese folgen sämtlich in ihrem Formular in hohem Maße der im griechischen Bereich ubiquitären Psephismata und setzen alle im jeweiligen Beschlussteil Ehrungen fest, die die Rolle des ptolemäisch-hellenistischen Herrschers im Kontext der altägyptischen Kulte betreffen. Die vorliegende Arbeit will zum einen in ihrem Kommentarteil eine Grundlage für die weitere Beschäftigung mit allen drei Sprachfassungen des Dekrets von Memphis durch die ptolemaistisch-althistorische Forschung leisten. Zum anderen möchte sie auf Grundlage des Textes die Rolle des Herrschers aus Sicht der beschließenden Priesterschaft beleuchten. Es kann gezeigt werden, dass das Dekret - anders als bisher angenommen - nicht zur eigentlichen Thronbesteigung, sondern anlässlich eines späteren Thronjubiläums erlassen wurde und gleichwohl die Fiktion eines innenpolitischen Neuanfangs (vermutlich im Sinne des Hofes) angesichts erster, bescheidener Erfolge gegen innere Aufstände der indigenen Bevölkerung in Unter- und Oberägypten inszeniert. Die kultische Herrscherverehrung hellenischer Provenienz erscheint in diesem Text ggü. den früheren Dekreten von Kanobos und Raphia relativ vollständig in den altägyptischen religiösen Kontext übersetzt, sodass hier durchaus von einem "ägyptischen Herrscherkult" gesprochen werden kann. Dabei wird der sehr junge fünfte Ptolemäerkönig sehr auffällig mit Kindformen des Gottes Horus (Harendotes, Harsiese) gleichgesetzt, was zum einen die legitime Machtübernahme durch den Sohn des verstorbenen Herrschers von einer im ägyptischen Kontext religiös definierten Sieghaftigkeit gegen die "Götterfeinde" abhängig erscheinen lässt, zum anderen den König in den Kontext der spätzeitlichen Verehrung von Kindgottheiten und Götterttriaden setzt. Alles in allem scheint die ägyptische Priesterschaft mittels einer für die eigenen Bedürfnisse flexibel adaptierten ursprünglich griechischen Textform den eigenen Anspruch auf Definition religiös legitimierter Königsmacht erhoben und im Diskurs um Privilegien und Unterstützung im ptolemäischen Ägypten kommuniziert zu haben.
Thema dieser Dissertation ist das deutsche Selbstbildnis im 17. Jahrhundert. Ziel der Arbeit war es, das deutsche Selbstbildnis als eigene Gattung zu etablieren. Hierzu wurden die Selbstbildnisse deutscher Maler des 17. Jahrhunderts ausgewählt, gilt doch diese Zeit noch immer als ‚totes Jahrhundert‘. Grundlage der Untersuchung war eine Sammlung von 148 Objekten, die einer grundlegenden Analyse unterzogen wurden. Das früheste Selbstbildnis in dieser Sammlung stammt von 1600, das späteste wurde um 1700 angefertigt. Künstler aus dem gesamten Alten Reich, ob aus Schlesien und Böhmen, Nord-oder Süddeutschland oder aus den österreichischen wie schweizerischen Landen sind hier vertreten. Die Selbstbildnisse stammen von Malern in der gesamten breite ihrer Karriere. So sind gleichermaßen Selbstbildnisse von Gesellen wie Meistern, von Hofmalern bis hin zu Freimeistern vertreten. Besonders wichtig war es, nicht nur Selbstbildnisse im Gemälde oder Kupferstich in die Untersuchung aufzunehmen, sondern auch Stammbucheinträge.
Die ausführliche Betrachtung und Gegenüberstellung der deutschen Selbstbildnisse mit denen ihrer europäischen Kollegen hat gezeigt, dass auch deutsche Maler den gängigen Darstellungstypen wie etwa dem virtuoso folgten. Aber die deutschen Maler imitierten nicht nur, sondern experimentierten und gingen mit ihren Vorbildern spielerisch um. Daneben folgten sie natürlich auch den Trends der Selbstinszenierung. Sie drückten in ihren Selbstbildnissen ihren Wunsch nach sozialer und gesellschaftlicher Emanzipation des gesamten Berufsstandes aus. So war das deutsche Selbstbildnis eigenständiger Ausdruck des Aufbruches deutscher Künstler in eine neue Zeit.
Das DIAMANT-Modell wurde im Rahmen des BMBF-geförderten Projekts „Prozessorientierte Entwicklung von Managementinstrumenten für Forschungsdaten im Lebenszyklus“ (PODMAN) entwickelt. Das grundsätzliche Ziel des Modells besteht darin, Hochschulen und außeruniversitäre Forschungseinrichtungen zu befähigen, eine integrierte Informationsarchitektur für die optimierte Bereitstellung und Weiterentwicklung von Forschungsdatenmanagement (FDM)-Technologien und -services aufzubauen und zu pflegen, sodass die Forschenden ihre Forschungsdatensätze zu „hochkarätigen Diamanten“ schleifen können. Das DIAMANTModell besteht zum einen aus dem FDM-Referenzprozess, der – angelehnt an die ARIS-Prozessmodellierung – den gesamten FDM-Prozess und die zugehörigen Akteur*innen darstellt und ihren Grad der Beteiligung / Verantwortung an einem FDM-Service benennt. Der FDM-Referenzprozess sieht die Etablierung einer zentralen FDM-Steuerungseinheit vor, die den Informationsfluss zwischen allen am FDM beteiligten Organisationseinheiten steuert. Ein weiterer Bestandteil des DIAMANT-Modells ist die FDM-Kompetenzmatrix, die sich aus dem FDM-Referenzprozess ableitet. Sie dient der IST- / SOLL-Analyse, um den Referenzprozess auf die eigene Institution übertragen zu können. Abgeleitet wurde auch ein Beschreibungsmodell für FDMServices, um einen FDM-Service- /-Anforderungskatalog zu entwickeln und institutsspezifisch fortzuschreiben. Letzter Teil des DIAMANT-Modells sind Empfehlungen, welche Aspekte hinsichtlich der Personalführung und des Organisationsmanagements bei der Implementierung der FDM-Servicelandschaft berücksichtigt werden sollten.
Die Evangelische Kirche in Deutschland (EKD) ist eine der größten Nonprofit-Organisationen in Deutschland. Sie ist ein sehr heterogenes Gebilde aus (zum Zeitpunkt der Untersuchung) 22 Landeskirchen unterschiedlichen Bekenntnisses mit jeweils eigenen Organisationsstatuten und rechtlichen Regelungen. Lokale Anlaufpunkte für ihre 23,9 Millionen Mitglieder (Stand Ende 2010) sind die Gemeinden. Sie verwalten sich weitgehend selbständig und werden von gewählten und berufenen Ehrenamtlichen sowie dem oder den Geistlichen der Gemeinde geleitet. Ein Mitglieder- und Einnahmerückgang bewirkt steigende Anforderungen an die Gemeindeleitung und die Notwendigkeit umfassender organisatorischer Veränderungen, die einen groß angelegten Reformprozess in der EKD angestoßen hat. Dies führt u.a. zu Zusammenlegungen von Landeskirchen und Kirchengemeinden, Pfarrstellenkürzungen und einer Reduzierung kirchlicher Gebäude. Auch hiervon sind die Gemeinden und ihre Leitungsgremien betroffen. Ziel der Arbeit ist, vor diesem Hintergrund die Gemeindeleitung (mit Fokus auf den ehrenamtlichen Gemeindeleitern) und die Entscheidungsprozesse in den Leitungsgremien explorativ zu beleuchten. Die Betrachtung erfolgt aus einer verfügungsrechtlichen Perspektive und rückt damit die Handlungsspielräume, die Einstellungen und das Entscheidungsverhalten der ehrenamtlichen Gemeindeleiter in den Fokus. Zunächst werden die aktuellen Herausforderungen für die Gemeinden sowie die Themen und unterschiedlichen Ansätze in der Reformdebatte betrachtet. Es folgt eine Darlegung der Einflussmöglichkeiten der Gemeindeleiter auf die Situation ihrer Gemeinde. Hierzu werden die für die Dienstleistungsproduktion von Gemeinden relevanten Entscheidungsfelder, wichtige Kenngrößen für die Gemeindearbeit und die von den Gemeindeleitern beeinflussbaren Entscheidungsvariablen ermittelt. Es folgt eine Analyse der verfügungsrechtlichen Arrangements der 22 Landeskirchen der EKD für die Gemeindeleitung. Für den angestrebten Organisationsvergleich sind Regelungsaspekte von Interesse, deren Ausgestaltung in einzelnen Landeskirchen stark voneinander abweicht. Für die empirische Untersuchung werden konkret die drei Aspekte 'Grad der Selbständigkeit des Gemeindeleitungsgremiums', 'Einflussverteilung zwischen Pfarrern und Ehrenamtlichen im Gremium' sowie 'Haftungsregelungen für die ehrenamtlichen Gemeindeleiter' ausgewählt. Zu den Auswirkungen der unterschiedlichen Ausgestaltung dieser drei Regelungsaspekte werden Hypothesen aufgestellt, die anhand von Fallstudien überprüft werden sollen. Hierfür wurden mit der Evangelischen Kirche in Hessen und Nassau, der Evangelischen Kirche von Kurhessen-Waldeck und der Evangelisch-reformierten Kirche drei Landeskirchen selektiert, die in den genannten Bereichen sehr unterschiedliche Regelungen aufweisen. Den Kern der Arbeit bildet eine explorative vergleichende Untersuchung der unterschiedlichen verfügungsrechtlichen Rahmenbedingungen in den ausgewählten Landeskirchen und ihrer Auswirkung auf das Entscheidungsverhalten der ehrenamtlichen Gemeindeleiter. Auf der Basis von Interviews mit rechtlich versierten Vertretern der drei Landeskirchen werden die historischen Hintergründe für die unterschiedliche rechtliche Ausgestaltung sowie die praktische Relevanz und Anwendbarkeit der einzelnen Regelungen analysiert. Zusätzlich werden für die gemeindlichen Fallstudien wichtige Veränderungs- / Entscheidungsprozesse mit aktuell großer Bedeutung für die Gemeinden ermittelt. Dies sind konkret der Gemeindezusammenschluss, die Pfarrstellenbesetzung und die Durchführung einer großen Baumaßnahme. Für die gemeindliche Untersuchung wurden für jede der drei Landeskirchen drei bis vier Gemeinden (insgesamt 11) ausgewählt, die mindestens einen der drei genannten Prozesse gerade durchliefen oder abgeschlossen hatten. Für jeden ausgewählten Prozess wird damit in jeder Landeskirche mindestens ein Fall betrachtet. An die ehrenamtlichen Gemeindeleiter der selektierten Gemeinden adressierte Fragebögen geben Aufschluss zu ihren Motivstrukturen. Mittels eine Clusteranalyse werden dabei sechs unterschiedliche Gemeindeleitertypen mit verschiedenen Motiven und Schwerpunkten ermittelt und vorgestellt. Anhand von mit den ehrenamtlichen Vorsitzenden der Gemeinden geführten Interviews werden schließlich die durchlaufenen Entscheidungsprozesse beleuchtet. Auf Basis der Erkenntnisse aus den Interviews und den Fragebögen wird analysiert, wie sich die unterschiedlichen verfügungsrechtlichen Rahmenbedingungen in den drei Landeskirchen auf das Entscheidungsverhalten verschiedener Gemeindeleitertypen und damit auf die Entscheidungsprozesse und -ergebnisse in den Gemeinden auswirken. Dabei werden die zuvor aufgestellten Hypothesen anhand der vornehmlich qualitativen Auswertungen überprüft. Abschließend werden die gewonnenen Erkenntnisse in die Reformdebatte eingeordnet und konkrete organisatorische Gestaltungsvorschläge abgeleitet.
This work deals with the current support landscape for Social Entrepreneurship (SE) in the DACH region. It provides answers to the questions of which actors support SE, how and why they do so, and which social ventures are supported. In addition, there is a focus on the motives for supporting SE as well as the decision-making process while selecting social ventures. In both cases, it is examined whether certain characteristics of the decision-maker and the organization influence the weighting of motives and decision-making criteria. More precise, the gender of the decision-maker as well as the kind of support by the organization is analyzed. The concrete examples of foundations and venture philanthropy organizations (VPOs) will give a deeper look at the SE support motives and decision-making behavior. In a quantitative empirical data collection, by means of an online survey, decision-makers from SE supporting organizations in the DACH region were asked to participate in a conjoint experiment and to fill in a questionnaire. The results illustrate a positive development of the SE support landscape in the German-speaking area as well as the heterogeneity of the organizational types, the financial and non-financial support instruments and the supported social ventures. Regarding the motives for SE-support, a general endeavor to change and to create an impact has proven to be particularly important at the organizational and the individual level. At the individual level female and male decision-makers have subtle differences in their motives to promote SE. Robustness checks by analyzing certain subsamples provide information about that. Individuals from foundations and VPOs, on the other hand, hardly differ from each other, even though here individuals with a rather social background face individuals with a business background. At the organizational level crucial differences can be identified for the motives, depending on the nature of the organization's support, and again comparing foundations with VPOs. Especially for the motives 'financial interests', 'reputation' and 'employee development' there are big differences between the considered groups. Eventually, by means of cluster analysis and still with respect to the support motives, two types of decision-makers could be determined on both the individual and the organizational level.
In terms of the decision-making behavior, and the weighting of certain decision-making criteria respectively, it has emerged that it is worthwhile having a closer look: The 'importance of the social problem' and the 'authenticity of the start-up team' are consistently the two most important criteria when it comes to selecting social ventures for supporting them. However, comparing male and female decision-makers, foundations and VPOs, as well as the two groups of financially and non-financially supporting organizations, there are certain specifics which are highly relevant for SE practice. Here as well a cluster analysis uncovered patterns of criteria weighting by identifying three different types of decision-makers.
Die auf einem Plenarvortrag zur Jahrestagung der Deutschen Gesellschaft zur Erforschung des 18. Jahrhunderts zum Thema "Das Erdbeben von Lissabon und der Katastropendiskurs im 18. Jahrhundert (Göttingen 2005) aufsetzende Untersuchung analysiert die Behandlung des Erdbebens von Lissabon im Jahr 1755 in illustrierten Ausgaben von Voltaires erstmals 1759 erschienenem Roman "Candide".
Im August und September 2019 wurde unter allen Lehrenden im Fach Gesellschaftslehre (GL) an rheinland-pfälzischen Integrierten Gesamtschulen (IGS) eine Fragebogenstudie durchgeführt. Sie ermöglicht differenzierte Einblicke in die Selbstwahrnehmung der Lehrenden und in ihre Betrachtung der Schul- und Unterrichtspraxis. Die Ergebnisse zeigen Stärken und Schwächen des Integrationsfachs auf und eröffnen didaktische wie bildungspolitische Entwicklungsperspektiven. Die Erhebung erfolgte im Rahmen des von der Nikolaus Koch Stiftung und dem Ministerium für Bildung des Landes Rheinland-Pfalz geförderten Projekts „pe:GL – Praxis- und Entwicklungsforschung: Gesellschaftslehre“ an der Universität Trier.
Seit Beginn der Wirtschaftsreformen hat sich in der Volksrepublik China ein tiefgreifender Wandel vollzogen, der alle Bereiche des gesellschaftlichen, wirtschaftlichen und politischen Lebens erfasst zu haben scheint. Infolgedessen ist der Staat - mittlerweile Mitglied der Welthandelsorganisation - zu einem global player geworden, dessen Entwicklung im Westen besonders aufgrund sprunghaft ansteigender Wachstumszahlen im wirtschaftlichen Bereich mit großem Interesse verfolgt wird. Daraus resultierend wird die Volksrepublik in den ausländischen Medien zunehmend - und nicht nur in ökonomischer Hinsicht - als ein Land der Superlative dargestellt. Mit großer Euphorie wird auch das Wachstum des chinesischen Internetsektors beobachtet. Dies gilt insbesondere für den rasanten Anstieg der Nutzerzahlen und die damit verbundenen steigenden Einnahmen nationaler Internetunternehmen. So liest man einerseits häufig von einem Telekommunikations- und Internet-Boom in der Volksrepublik. Andererseits wird die westliche Metadebatte seit Beginn der privaten Internetnutzung in China vom Thema der staatlichen Zensur und Kontrolle des Mediums dominiert. Aufgrund der Dominanz dieser beiden Themenblöcke wird in gewisser Weise der Eindruck vermittelt, die Besonderheiten des Internet in China seien auf enorme Wachstumszahlen und staatliche Restriktion reduzierbar. So widmet sich auch ein Großteil der bisher erschienenen wissenschaftlichen Arbeiten zum Thema "Internet und China" schwerpunktmäßig diesen beiden Aspekten. Unter Berücksichtigung der gesellschaftlichen und institutionellen Realitäten, in deren direktem Zusammenhang Internetnutzung und -angebot in der Volksrepublik stehen, scheint diese eingeschränkte Sichtweise jedoch äußerst fragwürdig. Ziel dieser Arbeit ist es daher, unter Berücksichtigung einer ganzheitlichen Perspektive der Frage nachzugehen, wie sich regionale Ausprägung oder "Chineseness" im chinesischen Internet abzeichnet. Hauptfragestellungen: (1) Was ist unter regionaler Ausprägung des Internet in der Volksrepublik China zu verstehen? (2) Wie und auf welchen Ebenen kann regionale Ausprägung untersucht und bewertet werden? Schlagwörter: China, Internet, Telekommunikation, Reformpolitik, Metadebatte, Chineseness, Jugendkultur, Portale, Zensur, Sprache, Online-Games, Sina, Sohu, Netease, Internetnutzer
Das Intranet als Forum der innerbetrieblichen Kommunikation in wissenschaftlichen Bibliotheken
(2005)
Das Intranet als Kommunikationsmittel in wissenschaftlichen Bibliotheken wird hier hinsichtlich der Einsatzmöglichkeiten, der Vor- und Nachteile beleuchtet und aus der Sicht der Leitung und Führung bewertet. Als ein Anwendungsbeispiel wird das Intranet der Universitätsbibliothek Trier auf dem Stand November 2005 vorgestellt.
Die Internationalisierung eines MNUs bezieht sich auf seine Nationalität. Prozesse, die die Aktivitäten von Firmen internationalisieren und koordinieren, sind mit den dominierenden nationalen Institutionen verbunden, die in ihren heimischen Ökonomien gegründet werden. Die dominierende Gesellschaft, die erfolgreiche Praktiken und Methoden entwickelt hat, versucht diese auf andere zu übertragen und diese zum Nachahmen zu bringen. Wenn es eine im Vergleich zu rein national operierenden Firmen größere Komplexität der Organisationsumwelt sowie eine bedeutende physische und kulturelle Distanz zwischen den Unternehmenseinheiten gibt, stellen Koordinationsstrategie und Kontrolle der Host-Country-Subsidiaries durch die MNU-Zentrale eine nicht zu unterschätzende Herausforderung dar. Bei der Betrachtung der Konzepte der Personalpolitik der MNUs ergibt sich ein Spannungsfeld zwischen konzernweiter Integration und Anpassung an die lokalen Institutionen. Wenn sich die üblichen Arbeitsbeziehungen und HRM-Praktiken der Host-Country-Subsidiary von denen des Country-of-Origin unterscheiden, so stellt sich die Frage, welche Personalpolitik die Host-Country-Subsidiaries verfolgen. Der Trade-off zwischen globaler Homogenisierung und lokaler Anpassung in den internationalen HRM-Praktiken ist in besonderem Maße von international divergierenden kulturellen und institutionellen Faktoren abhängig. Die jeweiligen nationalen Institutionen sind sicherlich eine der wichtigsten Hemmnisfaktoren. Institutionen, kulturelle Werthaltung und Rechtsvorschriften sind gerade im arbeitspolitischen Bereich stark an nationale Wirtschaftsräume gebunden und wirken daher einer international homogenen Personalpolitik entgegen. Es ist das Ziel, die Verknüpfung zwischen der HRM-Politik des Country-of-Origin der MNUs und dem Management ihrer Host-Country-Subsidiaries zu untersuchen. Im Mittelpunkt der Untersuchung stehen die Country-of-Origin-Effekte deutscher MNUs beim Ausbildungss- und Entgeltsystem und bei der Arbeitnehmermitbestimmung in deutschen Host-Country-Subsidiaries in Südkorea. Man stellt sich die Frage, welche HRM-Politik die in Korea tätigen Host-Country-Subsidiaries der deutschen MNUs betreiben. Passt sich die HRM-Politik der Host-Country-Subsidiary dem Standard des Host-Country (Korea) an oder werden die Country-of-Origin-Praktiken des deutschen MNUs grenzüberschreitend transferiert? Als empirische Untersuchungsmethode wurde hinsichtlich der Untersuchung des Country-of-Origin-Effektes die qualitative Methode gewählt. Qualitative Interviews haben sich als sehr fruchtbar erwiesen, um organisationale Prozesse in ihrem Verlauf zu untersuchen.
Textkritische Untersuchung der deutschen Überlieferung der mittelniederländischen Evangelienharmonie (die auf Tatians 'Diatessaron' beruht), des heute sog. '(ndl.-dt.) Leben Jesu'. Es handelt sich um die leicht überarbeitete Druckfassung der Einleitung zur Textausgabe der Dissertation Hamburg 1967. Die Textausgabe selbst ist gesondert erschienen: Das Leben Jhesu (Corpus Sacrae Scripturae Neerlandicae Medii Aevi, Ser. Min. I,4), Leiden 1970 (Nr. 2 des Schriftenverzeichnisses von Christoph Gerhardt).
Die Arbeit setzt sich mit den theoretischen und praktischen Aspekten der Analyse und Edition eines literarisch wichtigen Textes mit Methoden der Digital Humanities sowie der Korpus- und Computerlinguistik auseinander. Als Materialgrundlage dient das luxemburgischsprachige Werk des Michel Rodange. Hierzu gehören die Werke "Renert oder de Fuuss am Frack an a Maansgréisst" - ca. 35.000 Tokens, "Dem Léiweckerche säi Lidd" - ca. 5.000 Tokens, "Dem Grof Sigfrid seng Goldkuemer" - ca. 10.000 Tokens und zwei Gedichte - ca. 500 Tokens. Auf der empirischen Seite handelt es sich um die Erstellung eines elektronischen Korpus mit historisch-kritischen und linguistischen Annotationen und dessen Darstellung im Internet als Webportal. Dabei entsteht eine Wechselwirkung zwischen Theorie und Praxis, so werden die erstellten Annotationen verwendet, um das Werk aus sprach- und literaturwissenschaftlicher Perspektive zu untersuchen; diese Erkenntnisse können dann wiederum bei der Implementierung der Tools eingesetzt werden, um den Korrektheitsgrad der automatischen Annotation zu erhöhen. Die historisch-kritischen Annotationen beinhalten beispielsweise Lesarten, Korrekturen sowie Worterklärungen, wohingegen die linguistischen Annotationen die Orthographie, Morphologie (Wortklassen und Lemmata) und Phraseologie betreffen. Die Annotationen werden in der Markup-Sprache XML kodiert. Der erste Schritt der Erstellung eines elektronischen Korpus ist die Digitalisierung der Texte. Bei den Handschriften geschah dies mithilfe einer manuellen Transkription, bei den Drucken wurde auf eine OCR-Software zurückgegriffen. Es empfiehlt sich, bereits in dieser Phase den Text gut zu strukturieren und mit Annotationen zu versehen. Dabei wurden zunächst Metadaten festgehalten. Anschließend wurden Informationen wie Seitenzahl, Zeilenumbrüche etc. als Annotationen hinzugefügt. Von besonderer Bedeutung für die Erstellung eines Korpus aus einem historisch und literarisch wichtigen Text ist jedoch seine Anreicherung mit historisch-kritischen Kommentaren. Die Untersuchung und Berücksichtigung der literarischen bzw. wissenschaftlichen Gattung historisch-kritische Edition stellt die theoretische Grundlage für solche Annotationen dar. Alle für die Editionswissenschaft relevanten Texthinweise, -bruchstücke und vom Autor durchgestrichene und gelöschte Stellen wurden dokumentiert. Bei schlecht lesbaren Stellen wurden Lesemöglichkeiten vorgeschlagen und die anderer Editionen diskutiert. Die Text Incoding Initiative (TEI) bietet eine Fülle von XML-Elementen, um solche Annotationen zu speichern. Um diese Arbeit nicht manuell ausführen zu müssen, wurde auf Tools wie TUSTEP, oXygen oder Skriptsprachen wie beispielsweise Perl zurückgegriffen. Diese können u. a. die Such- und Ersetzen-Arbeiten mithilfe der Regulären Ausdrücke bedeutend erleichtern. Den nächsten Schritt der Korpus-Erstellung stellt die Tokenisierung dar. Hierbei gehen die historisch-kritischen Annotationen in linguistische Annotationen über. Die Grenzen eines Wortes werden festgelegt und jedes Wort mit seinem eigenen Element versehen. Aus der digitalen Verarbeitung nicht wegzudenken ist dabei die Berücksichtigung und Untersuchung der Sprache des Autors. In diesem Fall wurde auf Aspekte wie die Dichtungsstile des Luxemburgischen im 19. Jahrhundert, die literarischen Gattungen der Texte sowie die Schreibung des Autors geachtet. Der empirische Anteil der Analyse mit EDV-technischen Methoden und die Speicherung der Ergebnisse als Annotationen stellt die wissenschaftliche Basis für die spätere digitale Präsentation dar. In der Arbeit werden die Ergebnisse der quantitativen und qualitativen Analyse der Sprache des Werks mithilfe von selbstimplementierten Programmen diskutiert. Dabei werden die vorhandenen Theorien sowohl der klassischen Linguistik z. B. aus der Morphologie oder der Phraseologieforschung, als auch der Korpuslinguistik besprochen und evaluiert. Die Implementierung und Ergebnisse folgender Programme für das Michel Rodange Korpus werden thematisiert: Tokeniser, FreqList, POS-Trainer, POS-Tagger, Lemmatisierer und Programme zur morphologischen und phraseologischen Analyse des Korpus. Der POS-Tagger kann die Wortarten im Korpus bestimmen. Grundlage dafür sind die sogenannten Hidden Markov Modelle, die auf der Wahrscheinlichkeitstheorie basieren. Der Lemmatisierer und das Programm zur morphologischen Analyse arbeiten hauptsächlich regelbasiert, wohingegen das Programm für die phraseologische Analyse anhand statistischer Verfahren wie dem Z-Test, dem Chi-Quadrat-Test und dem Exakten Test von Fisher implementiert wurde. So widmet sich beispielsweise Kapitel 3.4 dem Output der morphologischen Analyse und diskutiert die Wortbildung. Kapitel 3.6 beschäftigt sich mit der Interpretation der Phraseologismen. Hierbei zeigte sich, dass viele der automatisch identifizierten Phraseologismen aus Michel Rodanges Werken in der Tat ein fester Bestandteil nicht nur der luxemburgischen Sprache und Kultur sind, sondern sich auch in der gesamten westlichen Kultur wiederfinden.
Die Dissertation weist nach, dass der Gerichtshof der Europäischen Union (im Folgenden: EuGH) das mitgliedstaatliche Ausgestaltungsermessen bei der Umsetzung von Richtlinien i. S. d. Art. 288 Abs. 3 AEUV, die weitreichendste Form richtlinieninhaltlich vorgesehener Umsetzungsspielräume der Mitgliedstaaten, in unterschiedlicher Art und Weise beschränkt und dabei teilweise gegen Vorgaben des primären Unionsrechts verstößt. Soweit Rechtsverstöße festgestellt werden, macht die Dissertation weiterführend Vorschläge für eine Korrektur der betroffenen unionsgerichtlichen Begrenzungsansätze im Hinblick auf das mitgliedstaatliche Ausgestaltungsermessen bei der Richtlinienumsetzung. Hierzu geht die Dissertation wie folgt vor: Ausgehend von vier in der Einleitung (Kapitel 1) aufgeworfenen Forschungsleitfragen stellt die Dissertation in Kapitel 2 die untersuchungsrelevanten unionsrechtlichen Grundlagen der Rechtsaktsform der Richtlinie dar. Dabei wird insbesondere auf die unionsvertragliche Verteilung der Kompetenzen zwischen der EU und ihren Mitgliedstaaten bei der kooperativ-zweistufigen Richtlinienrechtsetzung eingegangen und eine restriktive Auslegung des Terminus‘ „Ziel“ i. S. d. Art. 288 Abs. 3 AEUV entwickelt (sog. kompetenzinhaltsbestimmender modifiziert-enger Zielbegriff). In Kapitel 3 arbeitet die Dissertation die in der Richtlinienpraxis vorkommenden Grundformen richtlinieninhaltlich vorgesehener mitgliedstaatlicher Entscheidungsbefugnisse bei der Richtlinienumsetzung heraus und bestimmt das Ausgestaltungsermessen begrifflich als die weitreichendste Form mitgliedstaatlicher Umsetzungsspielräume. Kapitel 4 widmet sich zunächst der Ermittlung der Ansätze des EuGH zur Begrenzung des mitgliedstaatlichen Ausgestaltungsermessens. Dabei wird deutlich, dass das Unionsgericht durch seine Rechtsprechung nicht nur die Entstehung mitgliedstaatlichen Ausgestaltungsermessens begrenzt. Eine exemplarische Analyse der EuGH-Rechtsprechung zu Art. 4 Abs. 2 UAbs. 1 S. 1 und S. 2 lit. b der UVP-Richtlinie 2011/92/EU und seiner Vorgängernormen zeigt vielmehr, dass und wie der EuGH auch den Umfang des nach dem auslegungserheblichen Wortlaut einer Richtlinie bestehenden mitgliedstaatlichen Ausgestaltungsermessens begrenzt. Die hiernach ermittelten Begrenzungsansätze werden sodann einer rechtlichen Bewertung im Hinblick auf die Vorgaben des primären Unionsrechts einschließlich des in Kapitel 2 entwickelten restriktiven Zielbegriffs i. S. d. Art. 288 Abs. 3 AEUV unterzogen. Da einzelne Begrenzungsansätze des EuGH sich mit dem primären Unionsrecht als nicht vereinbar erweisen, werden insoweit schließlich Vorschläge für eine unionsrechtskonforme Korrektur dieser Rechtsprechung gemacht. Die Zusammenfassung der Forschungsergebnisse in Form einer thesenartigen Beantwortung der in der Einleitung aufgeworfenen vier Forschungsleitfragen findet sich in Kapitel 5.
Das Motiv "Wasser" in der Kunst " unter Berücksichtigung der Werke Bill Violas und Fabrizio Plessis
(2008)
Wasser ist ein beliebtes Motiv in allen Kunstepochen. Der Grund für die Beliebtheit des Wassers als Sujet bei Künstlerinnen und Künstlern liegt einerseits an seiner existenziellen und kulturellen Bedeutung für das menschliche Leben und andererseits an seinen physikalischen Eigenschaften mit den daraus resultierenden vielfältigen gestalterischen Möglichkeiten. Auch in der Videokunst wird es häufig als Gegenstand aufgegriffen. Insbesondere Bill Viola (1952, USA), der tief von der östlichen Philosophie beeinflusst ist, und Fabrizio Plessi (1940, Italien) stellen in ihren Werken ein je besonderes Verhältnis zwischen Video und Wasser dar. Die vorliegende Arbeit befasst sich zunächst mit einer vergleichenden Be-trachtung der Bedeutung des Wassers in der westlichen und östlichen Kultur und einem Überblick über das Motiv in der Kunst vom Mittelalter bis zum 20. Jahrhundert. Im Mittelpunkt dieser Arbeit steht die Untersuchung der Videoskulpturen, Videoinstallationen und Videobänder Bill Violas und Fabrizio Plessis. Erörtert werden folgende Fragen: In welcher Weise hat das Wasser ästhetische, formale, inhaltliche oder symbolische sowie persönliche Bedeutung für die einzelnen Künstler? Auf welche Art haben sie ihre Vorstellungen in die Arbeiten umgesetzt? Wie weit wird dieses tradierte Thema und in welcher Form wird das natürliche Element in der Videokunst durch das moderne, technische Medium wieder aufgegriffen, weiter entwickelt oder modifiziert? Aus diesen Beobachtungen heraus zeigt die Autorin die Charakteristika der mit technischen Medien produzierten Kunstwerke der besprochenen Künstler bei der Verwendung des Motivs Wasser auf.
Die Natur hat sich gewandelt. Dieser Wandel, der wichtige Fragen bezüglich Wahrnehmung, Darstellung, Neuschöpfung und Übermittlung der Natur mit einschließt, wird auch von künstlerischer Seite reflektiert. Tatsächlich ist in den vergangenen Jahren erneut ein wachsendes Interesse seitens der Künstler am Thema Natur abzulesen. Dieser vorläufige Höhepunkt des Trends ist vor allem auf das Ende der 1990er Jahre zu datieren. Zu dieser Zeit setzten sich auch verstärkt Ausstellungen und Publikationen mit diesem Themenkomplex auseinander. Mit unterschiedlichen Schwerpunkten und Vorstellungen entwickelten Künstler darin eigene, ganz verschieden künstlerische Konzepte, analysieren, erforschen und kritisieren die Gesellschaft, die Umwelt und die Natur des Menschen. Ein Trend, der bis heute anhält. Die vorliegende Arbeit möchte anhand ausgesuchter Künstler und Arbeiten genauer untersuchen, wie Künstler gegenwärtig mit der Natur umgehen, wie sie das Verhältnis zur Natur definieren und auf welche Traditionen sie gegebenenfalls zurückgreifen. Alle vorgestellten künstlerischen Positionen werden thematisch oder hinsichtlich konkret fassbarer Probleme gegliedert und vorgestellt. Exkurse über historische Entwicklungen oder thematische Schwerpunkte begleiten die Übersicht. Ziel der vielfältigen Blickpunkte ist es, im Vergleich mit den einzelnen Positionen neue Standorte zwischen Natur und Kultur vorzustellen, neu zu definieren oder erst zu entwickeln.
Mit dem am 10. Juli 2015 in Kraft getretenen „Gesetz zur Tarifeinheit“ wird der durch das Bundesarbeitsgericht im Jahre 2010 aufgegebene Grundsatz der Tarifeinheit durch den Gesetzgeber reaktiviert. Das Ziel des Gesetzes ist es, die Funktionsfähigkeit der Tarifautonomie durch die Auflösung von Tarifkollisionen zu sichern. Schon das Gesetzgebungsverfahren wurde durch vielstimmige Gutachten und Stellungnahmen begleitet, die sich nicht nur mit der verfassungsrechtlichen Problematik der gesetzlichen Regelung auseinandersetzen, sondern auch mit deren Anwendung in der tarifrechtlichen Praxis. Denn mit dem Instrument der Verdrängung eines geltenden Tarifvertrags im jeweiligen Betrieb nach dem Mehrheitsprinzip in Fällen einer Tarifkollision hat der Gesetzgeber zugleich in vielerlei Hinsicht „Neuland“ betreten.
Mit der vorstehenden Thematik befasst sich dieser Forums-Beitrag von Dr. Jürgen Treber, Richter am Bundesarbeitsgericht. Er geht dabei insbesondere auf Inhalt und Regelungssystematik der zentralen Kollisionsauflösungsregelung des § 4a Abs. 2 TVG ein.
Auf Twitter sind viele Journalisten mit persönlichen Accounts präsent und damit ein potenzieller Interaktionspartner für das Publikum. Untersuchungen aktiver Twitterer zeigen, dass auf der Netzwerkplattform politisch interessierte, persönlichkeitsstarke Nutzer interagieren, die sich vom Durchschnitt typischer Internetnutzer unterscheiden. Nachrichtenjournalisten berichten über negative Erfahrungen im direkten Publikumskontakt auf Twitter. Anders als bei Nutzerkommentaren auf Nachrichtenseiten sind öffentliche Anschriebe und Kontakte zu Journalisten auch unabhängig von einem Beitrag möglich. Zu diesem Phänomen existieren bislang jedoch kaum Studien. Über ein Tracking der Anschriebe wird daher erstens untersucht, wie häufig Politikjournalisten 2017 überhaupt in Tweets erwähnt wurden. Zweitens wurden die Nutzer befragt, die die Journalisten angeschrieben haben. Eine Nutzergruppe aus mehreren zehntausend Accounts nimmt Adressierungen vor. Die Erwähnungen verteilen sich unter den Journalisten ungleich. Die Nutzung von Blogs als alternative Informationsquelle und starke politische Orientierungen erklären das Vorkommen häufiger Interaktionen. Als Hauptmotivationen für Interaktionen zeigen sich das Bedürfnis nach eigener Meinungsäußerung und Kritik sowie das Weitergeben von neuen Informationen und Feedback an Journalisten. Sind diese Motivationen ausgeprägt, tendieren die Nutzer eher zu häufigen Interaktionen.
Die rechtspolitische Diskussion um den rechtlichen Rahmen der Gentechnologie verlangt den Blick über die Grenzen, insbesondere zu den europäischen Nachbarstaaten. Diese Sammlung enthält wesentliche Dokumente der französischen Debatte in französischer und deutscher Zusammenfassung.
Die vorliegende Arbeit hat die zunehmende Bedeutung des Social Web und die daraus resultierenden Auswirkungen auf das Informations- und Reiseverhalten von Städtetouristen zum Thema. Hauptfragestellung ist, inwiefern sich die gestiegene Bedeutung des Social Web auf das Informationsverhalten von Reisenden und ihr Verhalten vor Ort, insbesondere hinsichtlich des Interesses an Nischenattraktionen, auswirkt. Große Städte, vor allem Metropolen, verfügen über eine fast unüberschaubare Zahl von touristischen Attraktionen und Angeboten. Dazu zählen auch jene, die abseits der Haupttouristenrouten in weniger touristisch geprägten Stadtteilen liegen. Trotz dieser Angebotsvielfalt ist die Mehrzahl der Städtetouristen meist auf der sogenannten "Straße der Ameisen" anzutreffen. Eine Ausnahme stellen jedoch die sogenannten neuen Städtetouristen dar, die weniger an klassischen Mainstream-Sehenswürdigkeiten, sondern mehr am Entdecken authentischer und einzigartiger Plätze abseits der Touristenpfade und am Erleben des Alltags der Einheimischen interessiert sind. Für die vorliegende Untersuchung der Fragestellung wurden insgesamt drei methodische Bausteine herangezogen: 1) Eine Inhaltsanalyse für den Vergleich von Social-Web-Anwendungen und klassischen Reisemedien hinsichtlich ihrer thematischen Schwerpunktsetzung; 2) eine Touristenbefragung mit dem Ziel, mehr über die Nutzung des Social Web als Reiseinformationsquelle und über das Verhalten der Social-Web-Nutzer im Allgemeinen, und ihr Interesse an Nischen und Orten abseits der Touristenpfade im Besonderen, zu erfahren. Schließlich sollten 3) Interviews mit städtetouristischen Nischenunternehmen weitere Erkenntnisse über die Nutzung sozialer Medien durch Anbieter im Städtetourismus liefern. Die Ergebnisse machen deutlich, dass die Auswirkungen des Social Web " sowohl durch die Nutzung als Reiseinformationsquelle durch die Nachfrager, als auch durch die Verwendung als Marketing- und Vertriebskanal von Seiten der Anbieter " bislang geringer sind als zunächst angenommen. Auch wenn Nischenangebote und Alltagskultur zum Teil in sozialen Medien stärker präsent sind als z. B. in Reiseführern, und einige kleine Nischenanbieter die Möglichkeiten, die ihnen das Social Web bietet, schon optimal nutzen, so hat eine verstärkte Social-Web-Nutzung bislang doch keine grundlegenden Verhaltensänderungen auf Seiten der Reisenden bewirkt. Die Straße der Ameisen ist trotz der gestiegenen Social-Web-Nutzung nach wie vor existent. Dass das Social Web als ein Filter fungiert, der Interessierte in Richtung der Long-Tail-Angebote "schickt", konnte im Rahmen der vorliegenden Dissertation nur zum Teil bestätigt werden. Neben der Informationsquelle Social Web üben doch auch viele andere Faktoren einen Einfluss auf das Interesse von Reisenden an Lokalkolorit, authentischen Erlebnissen und besonderen Nischenangeboten aus. Trotzdem dürfte gerade für den sogenannten neuen Touristen das Social Web neue Möglichkeiten der Informationsgewinnung über einzigartige Örtlichkeiten an den Reisezielen bereitstellen. So ist es heutzutage einfacher als je zuvor, an Hinweise und Tipps zu ganz spezifischen Reisezielen und -aktivitäten zu kommen, die zudem meist noch sehr persönlich und authentisch wirken, da sie größtenteils von anderen Nutzern stammen.
In light of an alarming increase of sick leave and early retirement because of mental diseases, the public, political and scientific interest in an effective protection of psychological health within organizational context has been increasing for years. More and more the focus is especially on executives who influence the mental health of their employees by leadership behavior within interactions and by designing work tasks and working pro-cesses. In this regard classical and modern, explicit health-oriented leadership approaches provide valuable insights but also neglect the important influence of leadership situation on health-oriented leadership. This situation reduces the explanatory and predictive potential of available health-oriented leadership concepts.
In article 1 a conceptual framework model called Systemic Salutogenic Interaction Model (SSIM) is developed and justified that is based on findings of evidence-based leadership research but also integrates systemic concepts and key elements of the theory of saluto-genesis. The SSIM distinguishes between two levels: Within the primary system of salutogenic interaction salutogenic leadership and employees behavior for the first time are conceptualized as recipocal influence factors that influence each other (level 1). The organizational context is explicitly taken into account as significant factor outside the primary system that effects the behavior of both interaction partners mediated via cognitive pro-cesses (level 2). Due to this focus on interactions und context factors for the first time leadership situation becomes an explicit component of a health-oriented leadership concept.
First of all, article 2 focusses on the systematic analysis of the relative importance health related leadership aspects. For this purpose the TIMP-inventory was developed that records three distinct core-factors of salutogenic leadership (trust, incident management and pressure) which explain more variance of the Work-SoC construct than established general approaches and health-related leadership concepts.
In article 3 the results of a cross-sectional multilevel analysis indicate that the perceived leadership situation significantly explains variance of salutogenic leadership between teams. For the first time, this shows a significant correlation between specific aspects of leadership situation und salutogenic leadership behavior.
Within the frame of a quasi-experimental study (article 4), for the first time, a correlation is shown between salutogenic target-setting processes on executive’s side and the Work-SoC of team members. These results support an essential effect mechanism that is postulated in the SSIM. Furthermore these findings indicate that the SSIM can profitably be used within the context of salutogenic coachings, underlining its practical benefit.
Taken together the empirical findings of this dissertation support the assumption that the new SSIM approach significantly expands the explanatory und predictive potential of the health-oriented leadership concepts so far available. The results also raise a number of new, interesting questions for future research. Furthermore the SSIM broadens the perspective regarding the strategic orientation of human resource and organizational devel-opment. Especially out of the SSIM important guiding principles and innovative concepts for a target-oriented diagnostic und effective interventions can be derived. Thus this dissertation lays the foundation for a coherent, holistic oriented salutogenic leadership research und practice.
Tschechien hat nach deutschem Vorbild ein sehr starkes Verfassungsgericht. Das Gericht besitzt die Kompetenz, nicht nur verfassungswidrige Gesetze aufzuheben, sondern auch alle Entscheidungen anderer Gerichte, wenn sie die Grundrechte verletzen.
Im grundsätzlichen Urteil des Plenums des Verfassungsgerichts Pl. ÚS
27/09 (Nr. 318/2009 Sb., Fall Melčák) hob das Verfassungsgericht
sogar das Verfassungsgesetz über die Verkürzung der fünften Wahlperiode der Abgeordnetenkammer auf. Das Verfassungsgericht stimmte so der Auslegung zu, dass es die Befugnis hat, auch das Verfassungsgesetz aufzuheben, falls dieses eine unzulässige Änderung der wesentlichen Erfordernisse eines demokratischen Rechtsstaats bedeutet (Art. 9 Abs. 2 der Verfassung). Die fünfzehn Richter des Verfassungsgerichts werden vom Präsidenten der Republik mit Zustimmung des Senats auf zehn Jahre ernannt; ein Verfassungsrichter muss mindestens vierzig Jahre alt sein, über eine juristische Ausbildung und eine zehnjährige Praxis verfügen (Art. 84 der Verfassung); Wiederernennung ist möglich und kommt in der Praxis vor. Im Gegensatz zu anderen Verfassungsorganen genießt das Verfassungsgericht das besondere Vertrauen der Öffentlichkeit.
Der Beitrag von Dr. Wintr fasst die wichtigsten Urteile des tschechischen Verfassungsgerichts zusammenfassen.
Data fusions are becoming increasingly relevant in official statistics. The aim of a data fusion is to combine two or more data sources using statistical methods in order to be able to analyse different characteristics that were not jointly observed in one data source. Record linkage of official data sources using unique identifiers is often not possible due to methodological and legal restrictions. Appropriate data fusion methods are therefore of central importance in order to use the diverse data sources of official statistics more effectively and to be able to jointly analyse different characteristics. However, the literature lacks comprehensive evaluations of which fusion approaches provide promising results for which data constellations. Therefore, the central aim of this thesis is to evaluate a concrete plethora of possible fusion algorithms, which includes classical imputation approaches as well as statistical and machine learning methods, in selected data constellations.
To specify and identify these data contexts, data and imputation-related scenario types of a data fusion are introduced: Explicit scenarios, implicit scenarios and imputation scenarios. From these three scenario types, fusion scenarios that are particularly relevant for official statistics are selected as the basis for the simulations and evaluations. The explicit scenarios are the fulfilment or violation of the Conditional Independence Assumption (CIA) and varying sample sizes of the data to be matched. Both aspects are likely to have a direct, that is, explicit, effect on the performance of different fusion methods. The summed sample size of the data sources to be fused and the scale level of the variable to be imputed are considered as implicit scenarios. Both aspects suggest or exclude the applicability of certain fusion methods due to the nature of the data. The univariate or simultaneous, multivariate imputation solution and the imputation of artificially generated or previously observed values in the case of metric characteristics serve as imputation scenarios.
With regard to the concrete plethora of possible fusion algorithms, three classical imputation approaches are considered: Distance Hot Deck (DHD), the Regression Model (RM) and Predictive Mean Matching (PMM). With Decision Trees (DT) and Random Forest (RF), two prominent tree-based methods from the field of statistical learning are discussed in the context of data fusion. However, such prediction methods aim to predict individual values as accurately as possible, which can clash with the primary objective of data fusion, namely the reproduction of joint distributions. In addition, DT and RF only comprise univariate imputation solutions and, in the case of metric variables, artificially generated values are imputed instead of real observed values. Therefore, Predictive Value Matching (PVM) is introduced as a new, statistical learning-based nearest neighbour method, which could overcome the distributional disadvantages of DT and RF, offers a univariate and multivariate imputation solution and, in addition, imputes real and previously observed values for metric characteristics. All prediction methods can form the basis of the new PVM approach. In this thesis, PVM based on Decision Trees (PVM-DT) and Random Forest (PVM-RF) is considered.
The underlying fusion methods are investigated in comprehensive simulations and evaluations. The evaluation of the various data fusion techniques focusses on the selected fusion scenarios. The basis for this is formed by two concrete and current use cases of data fusion in official statistics, the fusion of EU-SILC and the Household Budget Survey on the one hand and of the Tax Statistics and the Microcensus on the other. Both use cases show significant differences with regard to different fusion scenarios and thus serve the purpose of covering a variety of data constellations. Simulation designs are developed from both use cases, whereby the explicit scenarios in particular are incorporated into the simulations.
The results show that PVM-RF in particular is a promising and universal fusion approach under compliance with the CIA. This is because PVM-RF provides satisfactory results for both categorical and metric variables to be imputed and also offers a univariate and multivariate imputation solution, regardless of the scale level. PMM also represents an adequate fusion method, but only in relation to metric characteristics. The results also imply that the application of statistical learning methods is both an opportunity and a risk. In the case of CIA violation, potential correlation-related exaggeration effects of DT and RF, and in some cases also of RM, can be useful. In contrast, the other methods induce poor results if the CIA is violated. However, if the CIA is fulfilled, there is a risk that the prediction methods RM, DT and RF will overestimate correlations. The size ratios of the studies to be fused in turn have a rather minor influence on the performance of fusion methods. This is an important indication that the larger dataset does not necessarily have to serve as a donor study, as was previously the case.
The results of the simulations and evaluations provide concrete implications as to which data fusion methods should be used and considered under the selected data and imputation constellations. Science in general and official statistics in particular benefit from these implications. This is because they provide important indications for future data fusion projects in order to assess which specific data fusion method could provide adequate results along the data constellations analysed in this thesis. Furthermore, with PVM this thesis offers a promising methodological innovation for future data fusions and for imputation problems in general.
In order to classify smooth foliated manifolds, which are smooth maifolds equipped with a smooth foliation, we introduce the de Rham cohomologies of smooth foliated manifolds. These cohomologies are build in a similar way as the de Rham cohomologies of smooth manifolds. We develop some tools to compute these cohomologies. For example we proof a Mayer Vietoris theorem for foliated de Rham cohomology and show that these cohomologys are invariant under integrable homotopy. A generalization of a known Künneth formula, which relates the cohomologies of a product foliation with its factors, is discussed. In particular, this envolves a splitting theory of sequences between Frechet spaces and a theory of projective spectrums. We also prove, that the foliated de Rham cohomology is isomorphic to the Cech-de Rham cohomology and the Cech cohomology of leafwise constant functions of an underlying so called good cover.
This dissertation investigates corporate acquisition decisions that represent important corporate development activities for family and non-family firms. The main research objective of this dissertation is to generate insights into the subjective decision-making behavior of corporate decision-makers from family and non-family firms and their weighting of M&A decision-criteria during the early pre-acquisition target screening and selection process. The main methodology chosen for the investigation of M&A decision-making preferences and the weighting of M&A decision criteria is a choice-based conjoint analysis. The overall sample of this dissertation consists of 304 decision-makers from 264 private and public family and non-family firms from mainly Germany and the DACH-region. In the first empirical part of the dissertation, the relative importance of strategic, organizational and financial M&A decision-criteria for corporate acquirers in acquisition target screening is investigated. In addition, the author uses a cluster analysis to explore whether distinct decision-making patterns exist in acquisition target screening. In the second empirical part, the dissertation explores whether there are differences in investment preferences in acquisition target screening between family and non-family firms and within the group of family firms. With regards to the heterogeneity of family firms, the dissertation generated insights into how family-firm specific characteristics like family management, the generational stage of the firm and non-economic goals such as transgenerational control intention influences the weighting of different M&A decision criteria in acquisition target screening. The dissertation contributes to strategic management research, in specific to M&A literature, and to family business research. The results of this dissertation generate insights into the weighting of M&A decision-making criteria and facilitate a better understanding of corporate M&A decisions in family and non-family firms. The findings show that decision-making preferences (hence the weighting of M&A decision criteria) are influenced by characteristics of the individual decision-maker, the firm and the environment in which the firm operates.
Der Beitrag zeichnet die jüngere öffentliche Debatte über die Spannungen in der Europäischen Union und insbesondere innerhalb der Europäischen Währungsunion nach, die durch die Folgen der Finanzkrise und der Staatsverschuldung in mehreren Mitgliedsländern der Europäischen Union entstanden sind. Es wird deutlich, dass die Grundsätze der Solidarität und der Solidität etwa im Hinblick auf die äußerst schwierige Lage in Griechenland mit einer enormen Beanspruchung des gemeinschaftlichen Zusammenhalts verbunden sind. Der Unterstützungsbedarf mehrerer Mitgliedsländer der Euro-Zone hat auf fast schmerzhafte Weise Grundsatzfragen demokratischer Legitimität aufgeworfen. Europa steht möglicherweise an einem Schweideweg.
Digitalisierung wirkt sich in radikaler Weise auf alle Lebensbereiche aus. Durch die technische Vernetzung und die Umwandlung analoger in digitale Daten entstehen umfassende Datenmengen. Aus ihrer Verknüpfung und Verarbeitung lassen sich Regelmäßigkeiten erkennen und Anwendungen generieren, deren soziale, ethische, politische, rechtliche, arbeitsweltliche und ökonomische Folgen heute noch nicht ansatzweise abzuschätzen sind.
Digitale Tools bieten vielfältige Möglichkeiten, demokratische Beteiligung in Schule und Gesellschaft zu unterstützen, an politischen Entscheidungsprozessen zu partizipieren und schulische Gremienarbeit, Entwicklungsprozesse und Projekte zu organisieren. Damit Schüler*innen die Tools kompetent nutzen können, sollte ihre Anwendung in Schule und Unterricht erprobt und reflektiert werden.
Schule entwickeln – ohne feste Tagesordnung, ohne starres Rednerpodium mit festgelegten Beiträgen und alle Mitglieder der Schulgemeinschaft können frei entscheiden, was sie wann tun möchten und werden mit ihren Ideen und Anliegen gehört. Klingt das sowohl interessant, als auch ein wenig verrückt? Open Space als Werkzeug zur demokratischen Schulentwicklung macht es möglich.
Den Klassenrat einführen
(2019)
Bevor eine Einführung des Klassenrats in einer Schulklasse erfolgen kann, sind organisatorische, inhaltliche und methodische Vorbereitungen erforderlich. Der Beitrag gibt Hinweise zur Einführung des Klassenrats und bietet konkrete Methoden, die eine erfolgreiche Implementierung in einer Schulklasse unterstützen.
Die Arbeit analysiert Bedeutungen von Körperlichkeit im Straßenprotest. Ausgehend von den Selbstwahrnehmungen von Aktivist_innen wird dabei der Frage nachgegangen, wie Erfahrungen den reflexiven Umgang mit Verletzlichkeit und Verletzungsmacht prägen. Zunächst wird dafür eine theoretische Konzeption einer leibkörperlich gebundenen Reflexivität entwickelt. Pierre Bourdieus Theorie der Praxis, die sich der Verkörperung von Wissen widmet, wird ergänzt durch den Rückbezug auf Maurice Merlau-Ponty, der konsequenter herausstellt, dass jegliche Wahrnehmung immer nur körperlich-leiblich möglich ist. Während Merleau-Pontys Fokus auf dem wahrnehmenden Leib liegt, wird mit der philosophischen Anthropologie Helmuth Plessners die Verschränkung von wahrnehmendem Leib und wahrgenommenem Körper, bzw. wie Wahrgenommenes reflexiv auf das Spüren und Erleben zurückwirkt, nachvollziehbar. Aufbauend auf Plessner hat Heinrich Popitz eine Phänomenologie der Macht entwickelt, in deren Zentrum die anthropologischen Grundkonstanten von menschlicher Verletzungsoffenheit und Verletzungsmacht stehen. Diese Konzeption, verbunden mit Ergebnissen aus verschiedenen Vorstudien zur vorliegenden Arbeit, leitet die empirische Analyse von zehn leitfadengestützten Interviews, in denen Aktivist_innen mit teilweise langjähriger Straßenprotestbiographie zu ihren Erfahrungen und Praktiken in Straßenprotesten befragt werden. Die Arbeit ist an der Schnittstelle der drei Teildisziplinen Politische Soziologie, Körpersoziologie und Wissenssoziologie angesiedelt. Innerhalb der Politischen Soziologie liegen die Anknüpfungspunkte insbesondere in der sozial- und kulturwissenschaftlichen Protestforschung. Hier ist der Körper nach wie vor weitgehend marginalisiert und es existieren bisher in Anbetracht des insgesamt kaum noch überschaubaren Umfangs der Protestforschung vergleichsweise wenige Studien. Hinsichtlich der Körpersoziologie zielt die Arbeit - insbesondere mit der Bezugnahme auf Plessners philosophische Anthropologie - auf einen Erkenntnisgewinn hinsichtlich der Verbindung von Körpersoziologie und politischer Soziologie. Es lässt sich vor allem in den letzten Jahren eine deutliche Renaissance Plessners innerhalb der allerdings fast ausschließlich deutschsprachigen Körpersoziologie feststellen. Die körpersoziologischen Arbeiten sind bisher jedoch kaum im Rahmen einer politischen Soziologie aufgegriffen worden. Eine solche Brücke möchte die vorliegende Arbeit insbesondere via Popitz (und z.T. Michel Foucault) schlagen. Wissenssoziologisch folgt die Arbeit dem Verständnis eines verkörperten Wissens, wie es vor allem in Bezug auf Bourdieu konzeptionalisiert wird. Es werden Überlegungen aufgegriffen, die sich u.a. auch Analysen und Konzepten der Dance Studies oder der Sportsoziologie hinsichtlich körperlicher Reflexion verdanken. Im Anschluss an die phänomenologisch orientierten Arbeiten Bourdieus und Merleau-Pontys sowie an Plessners philosophische Anthropologie werden dabei sogenanntes kognitives und körperliches Wissen integriert und die unmittelbare Verschränkung beider Wissensformen aufgezeigt.
Der terroristische Anschlag auf das World Trade Center in New York am 11. September 2001 hat nicht nur den Themenkatalog der internationalen Politik durcheinandergebracht, sondern auch das Völkerrecht vor erhebliche Herausforderungen gestellt. Traditionell versteht man das Völkerrecht als ein Recht der zwischenstaatlichen Beziehungen. Terroristen werden als Kriminelle gesehen, die es mit allen Mitteln des Strafrechts zu bekämpfen gilt. Freilich versagen die üblichen Methoden der internationalen Zusammenarbeit, wenn ein Staat terroristischen Handlungen seine Rückendeckung gibt. Es bereitet erhebliche Schwierigkeiten, ein derartiges Komplizentum richtig einzuordnen. Im Mittelpunkt aller Überlegungen steht heute die Frage, ob Afghanistan durch die Usama bin Laden gewährte Unterstützung selbst einen bewaffneten Angriff gegen die USA geführt hat, der die USA nach Artikel 51 der UNO-Charta zur Selbstverteidigung berechtigt.
Im Zentrum dieser Arbeit stehen die Darstellung und Analyse der Leitbilder und Konzeptionen für tugendhaftes Verhalten, bürgerliche Werte und Normen, wie sie in den niederländischen Moralischen Wochenschriften über beinahe die gesamte Dauer des 18. Jahrhunderts diskutiert wurden. Die Moralischen Wochenschriften richteten sich an den "Bürger" und "Mitmenschen", den sie zu einem "nützlichen" Mitglied der Gesellschaft zu bilden gedachten. Dem an Orientierung interessierten Leser konnten sie dabei mehr und anderes bieten als das bis dahin gängige Schrifttum. In regelmäßiger Folge und in unterhaltsamer fiktionaler Form behandelten sie Fragen der Religion und der Ethik, sowie aus der Lebenspraxis des Alltags. Aus diesem nur scheinbar unpolitischen Blickwinkel heraus berührten die Moralischen Wochenschriften einige der zentralen Aspekte der politischen Philosophie: die Frage nach dem Verhältnis zwischen dem individuellen Glück des Menschen und dem Zustand der Gesellschaft, die Aporien der Freiheit und der Gleichheit, die Frage nach dem Verhältnis der Geschlechter und der Generationen, die Thematik von Geschichte und Fortschritt sowie Aspekte der Zeitkritik und Polemik. Ausgehend von ihrer klassisch-republikanisch inspirierten Staats- und Gesellschaftsauffassung nach der die gesamte Einwohnerschaft eines "guten" Gemeinwesens in ihrer gemeinsamen sittlichen Aufgabe, das Gemeinwohl zu verwirklichen, unlöslich miteinander verbunden war, entwickelten die Wochenschriftenschreiber ein ganz auf die Bedürfnisse eines modernen kommerziellen Gemeinwesens wie den nördlichen Niederlanden ausgerichtetes Ideal "guter" Bürgerschaft. Die Grundlage einer freien, auf Handel und Gewerbe beruhenden Republik wie der Niederländischen, so lautete die Kernbotschaft, beruhe auf dem offenen und zivilisierten Austausch zwischen verantwortungsbewussten und gebildeten Einwohnern. Von tugendhaften Bürgern erwarteten die Wochenschriftenschreiber, dass sie bei der Verfolgung ihrer individuellen Interessen in allen Lebensbereichen immer auch zugleich auf das Wohl und das Interesse des Gemeinwesens als Ganzem - der res publica - im Blick behielten und stets so handelten, dass die Maximen ihres eigenen Tuns auch Prinzip für das Wollen und Tun anderer sein könnten. Das für die Autoren der Moralischen Wochenschriften offenbar reizvolle an diesem Konzept bürgerlicher Tugend war, dass es ermöglichte, an die Verantwortlichkeit aller Mitglieder des Gemeinwesens zu appellieren, ohne die bestehende politisch-soziale Ordnung in Frage stellen zu müssen. Die - bei aller Kritik an den bestehenden Zuständen - im Kern stets konservative Tugendbotschaft der Moralischen Wochenschriften verlor erst seit den frühen 1780er Jahren an Glaubwürdigkeit, als die bestehende aristokratische Verfassung der niederländischen Republik unter dem Eindruck innenpolitischer Unruhen sowie revolutionärer Vorgänge in Amerika und in den benachbarten Ländern ihren paradigmatischen Wert als bestmögliche freiheitliche Ordnung zusehends einbüßte. So lag es nicht nur an der gegen Ende des 18. Jahrhunderts altmodisch gewordenen literarischen Form, dass die Moralische Wochenschrift in den 1790er Jahren als Gattung vom niederländischen Zeitschriftenmarkt verschwand, sondern auch an ihrer durch die revolutionären Umbrüche überholten politisch-sozialen Botschaft.
In der Welt existieren zahlreiche Institutionen zur Verteidigung der Menschenrechte. Besonderes Interesse verdient dabei eine relativ neue Möglichkeit zur Wahrung dieser Rechte " das Amt des Bürgerbeauftragten. In Bulgarien sind die ersten derartigen Institutionen 1998 als Projekt auf Gemeindeebene ins Leben gerufen worden. Seit 2003 sind die Institutionen eines Ombudsmanns auf nationaler Ebene sowie eines gesellschaftlichen Vermittlers auf Gemeindeebene gesetzlich geregelt. Die wesentliche Aufgabe der Bürgerbeauftragten ist die Annahme von Bürgerbeschwerden über Verletzungen ihrer Rechte durch die Staats- oder Gemeindeverwaltung. Der Bürgerbeauftragte in Bulgarien stellt eine demokratische Garantie zur Wahrung der Menschenrechte sowie zur weiteren Entwicklung des Rechtsstaates dar.
Das Stresshormon Cortisol zeigt einen starken zirkadianen Rhythmus mit hohen Cortisolwerten nach dem morgendlichen Erwachen und niedrigen Werten am Abend. Die vorliegende Arbeit legt die Grundlagen dafür, dass der Cortisolspiegel nach dem Erwachen (Cortisol Awakening Response) zukünftig Bestandteil einer multimodalen Diagnostik stressbezogener Erkrankungen werden kann. Zu diesem Zweck werden besonders messmethodische Aspekte des Cortisol Awakening Response (CAR) dargestellt und eingehend diskutiert. Der Einfluss verschiedener konfundierender Variablen wurde in einer quantitativen Metaanalyse untersucht. Ein gesonderter Abschnitt beschreibt verschiedene Möglichkeiten der statistischen Analyse des CAR. Zu diesem Zweck wurden verschiedene statistische Kennwerte generiert und deren Reliabilitäten und Interkorrelationen an einem empirischen Datensatz untersucht. In dieser Arbeit werden auch Normwerte für die einzelnen statistischen Kennwerte des CAR angegeben.
Das EU-weite Naturschutznetz Natura 2000 (FFH) umfasst über 11% der terrestrischen Ökosystemfläche. Zur langfristigen Erhaltung dieser Gebiete fehlt ein funktionierendes Monitoringsystem mit geeigneten Indikatoren, Parametern und Datenprodukten, die eine regelmäßig wiederholbare, flächendeckende und vor allem kosteneffiziente Erhebung ermöglichen. Hierfür untersucht diese Dissertation moderne, höchstauflösende Satellitendaten und die Möglichkeiten ihrer Anwendung im Naturschutz, insbesondere als Grundlage zur Indikatorenableitung. Es wurden konkrete Anforderungen von Behörden und NGO bzgl. Daten und Indikatorwerten gesammelt und für zwei Untersuchungsgebiete im Naturpark "Hoher Fläming" in Brandenburg umgesetzt. Dazu wurden zwei Aufnahmen des QuickBird-Satelliten akquiriert und mit vorhandenen GIS-Daten kombiniert. Der praktische Teil der Arbeit beschreibt Eigenschaften und Vorverarbeitung aller Daten, ihre Auswertung nach einem objektbasierten Ansatz und die Ableitung spezifischer quantitativer Parameter. Diese beschreiben den Zustand der Ökosysteme und berücksichtigen die sozio-ökonomischen Belastungen, die auf die Flächen einwirken und Nutzungskonflikte verursachen. Auf der Basis dieser Parameter wurden räumliche Indikatoren erprobt. Zur Anwendung auf der lokalen Ebene in bewaldeten Gebieten und für das Monitoring von Offenland-Flächen werden je zwei Indikatoren vorgeschlagen. Für die regionale Ebene wird ein sozio-ökomischer Indikator empfohlen. Diese fünf Indikatoren sind dazu geeignet, ausgewählte Aspekte der (Bio)Diversität in Schutzgebieten zu beschreiben. Sie analysieren Komposition, Struktur und Funktion der Habitat-Typen sowohl auf der regionalen Landschafts-Ebene, als auch auf der lokalen Ökosystem- bzw. Schutzgebiets-Ebene. Alle Indikatoren besitzen einen Nutzen für das Management von Schutzgebieten und bieten zumindest indirekte Hilfe für die Berichterstattung im Sinne der FFH-Richtlinie. Die vorgeschlagenen Indikatoren sind zwar spezifisch auf die lokalen Untersuchungsgebiete zugeschnitten, doch sind die ökologischen Rahmenbedingungen allgemein gültig. Es ist möglich, diese Indikatoren auch in anderen europäischen Regionen mit den gleichen natürlichen Gegebenheiten und sozio-ökonomischen Strukturproblemen anzuwenden. Für die Anwendung verschiedener Fernerkundungsdaten zur Erfüllung von Monitoringaufgaben sprechen die positiven Ergebnisse der durchgeführten Kosten-Nutzen-Analyse. Vor- und Nachteile von Daten und Auswertungsmethoden werden ausführlich diskutiert.
Die Lehre von wirkungsvollem Sprechen und Schreiben, die Rhetorik, stellt seit der Antike Möglichkeiten bereit, wie man die Überzeugung eines Gegenübers mit Argumenten (aber auch mit einer schönen Form) beeinflussen kann. Unter diesen Möglichkeiten war und ist eins die Verwendung eines dem Gegenüber vertrauten oder unmittelbar einleuchtenden Sachverhalts, von dem auf den gegebenen Fall geschlossen werden konnte, das Exemplum. In der vorliegenden Studie habe ich den Exempelgebrauch in Sangspruchstrophen und -liedern zwischen ca. 1170 und 1320 untersucht. Die letzte Monographie zu diesem Thema ist Joachim Teschners Bonner Dissertation von 1970. In den seither vergangenen 35 Jahren haben sich die Voraussetzungen und die Betrachtungsweise in der Erforschung der Sangsprüche verändert. Dies hängt insbesondere mit dem Erscheinen der Bände 3-5 des "Repertoriums der Sangsprüche und Meisterlieder" (1986-91) zusammen, in denen Autoren dieser Gattung und ihre Werke bis zum ausgehenden Mittelalter katalogisiert sind. Anders als meine Vorgänger habe ich als oberstes Gliederungskriterium die Frage gewählt, wie das Exempel und seine Anwendung auf die Strophe verteilt sind. Nach der Erarbeitung einer Definition des Exempelliedes anhand der einschlägigen Literatur habe ich das Material für meine Untersuchung, in fünf Zeitanschnitte gegliedert, chronologisch zusammen gestellt (vgl. Helmut Tervooren, Sangspruchdichtung, 1995). In Kapitel 2 ermöglicht eine Tabelle einen schnellen Überblick. Es sind vier Typen der Verteilung von Exempel und Auslegung in einer Strophe und später in einem mehrstrophigen Lied zu unterscheiden: Am häufigsten ist der klassische Typ a: Auf ein Exempel folgt die Auslegung. Hier finden sich zwei Untertypen: mehrheitlich ist ein Exempel zwar narrativ (a1), es kann sich aber auch um eine Beschreibung handeln (a2). Zwei weitere Formen fanden weit weniger häufig Verwendung, nämlich Typ b: Das Exempel folgt auf eine sentenziöse Einleitung und die eigentliche Auslegung steht am Abschluss, und Typ c, die Umkehrung des genannten Haupttyps: für eine These wird erst in der zweiten Hälfte oder am Ende der Strophe ein Beispiel genannt. Der Typ des Exempelliedes, bei dem die Auslegung wegfällt, nimmt wiederum größeren Raum ein, die Zahl der Belege ist beträchtlich. Damit endet dieses Kapitel. Im Laufe der Arbeit haben sich zwei Sondertypen herausgestellt, für die es angebracht erschien, sie für sich zu besprechen. Es sind dies die Ich-Parabeln, bei denen im Exempel ein zwischen dem Exempel im eigentlichen Sinne und den Rezipienten vermittelndes Ich steht; es handelt sich dabei meist um persönliche Klagen des Dichter-Ichs. Als zweiter Sonderfall wird die Verwendung eines Traums als Exempel besprochen; hier konnte es zur zweifachen Auslegung von Träumen kommen, im Exempel und bei der Ausdeutung. Die Vorstellung dieser beiden Randerscheinungen bildet den Abschluss der Untersuchung. Die Beobachtungen in der vorliegenden Untersuchung führen zu fünferlei Ergebnissen, die in dem Schlusskapitel zusammengefasst sind: Diese betreffen die Problematik der Textsorte, die Anordnung von Exempel und Auslegung in der Strophe, die Entwicklung zur Mehrstrophigkeit, die für Exempellieder kennzeichnenden Ausdrücke, mit denen die Auslegung eingeleitet wird, und schließlich die vielfältigen Anwendungsbereiche des Exempels.
Diese Dissertation ist 2006 verbessert beim Verlag Königshausen & Neumann in der Reihe "Würzburger Beiträge zur deutschen Philologie" erschienen. Ein Register der behandelten Strophen mit Angabe der Siglen im "Repertorium der Sangsprüche und Meisterlieder des 12. bis 18. Jahrhunderts" wurde hinzugefügt.
Umweltschutz wird in dieser Arbeit als Soziales Dilemma betrachtet. Es wird mittels eines experimentellen Online-Spiels (N = 182) primär überprüft, inwieweit unkooperatives Verhalten von Akteuren zu genuinem Ungerechtigkeitserleben bei anderen Personen führt und ob diese in Folge u. a. das eigene kooperative Verhalten reduzieren. Somit wird im Gegensatz zu Erklärungen der Rational-Choice-Theorien angenommen, dass ein Teil des phänotypisch unkooperativen, umweltschädigenden Verhaltens nicht auf Egoismus, sondern auf einem genuinen Gerechtigkeitsmotiv beruht. Zur Erhöhung der internen Validität wird ebenfalls der moderierende Einfluss der Persönlichkeitseigenschaften "Eigeninteresse" und "Gerechtigkeitszentralität" untersucht. Die Hypothesentestungen zeigen, dass unkooperatives Verhalten anderer Akteure in Sozialen Dilemmata bei vielen Personen Ungerechtigkeitserleben auslöst, was sich u. a. in Emotionen der Empörung, Ungerechtigkeitskognitionen, Bestrafungsverhalten und einer Reduktion des eigenen kooperativen Verhaltens niederschlägt. Hierbei spielen interindividuelle Unterschiede hinsichtlich der Stärke des Gerechtigkeitsmotivs bei etlichen gefundenen Effekte eine moderierende Rolle. Es wird somit ein motivpluralistischer Ansatz bestätigt, der die Rolle des Gerechtigkeitsmotivs bei der Vorhersage und Veränderung von Verhalten in Sozialen Dilemmata hervorhebt. Implikationen in Hinblick auf Theorie, zukünftige Forschung und Interventionen in Sozialen-Dilemma-Situationen werden erörtert.
Am 03.03.2004 verkündete das Bundesverfassungsgericht sein Urteil zum Großen Lauschangriff, in dem es die akustische Wohnraumüberwachung unter eng begrenzten Umständen für zulässig erklärte. Der Beitrag setzt sich, beginnend mit rechtsgleichenden Betrachtungen, eingehend mit dem Urteil auseinander und beleuchtet die Entscheidung ebenso wie die abweichenden Voten kritisch. Dabei zeigt der Autor Probleme auf, die sich bei der Anwendung des Urteils in der Praxis ergeben und plädiert für die Normierung auch des sog. kleinen Lauschangriffs.
Schon seit geraumer Zeit wird darüber diskutiert, ob die Besetzung der Rundfunkgremien im Allgemeinen und beim ZDF im Besonderen mit dem aus der Rundfunkfreiheit abzuleitenden Gebot der Staatsferne vereinbar ist. Nachdem sieben der vierzehn Verwaltungsratsmitglieder des ZDF im September letzten Jahres gegen den Vorschlag des Intendanten Markus Schächter gestimmt haben, den Vertrag von Nikolaus Brender als Chefredakteur zu verlängern, hat diese Diskussion an Brisanz gewonnen. Kritiker halten die aus ihrer Sicht zu staats- und politiknahe Besetzung des ZDF-Verwaltungsrates und des Fernsehrates für unvereinbar mit dem Grundgesetz. So will die Bundestagsfraktion Bündnis 90/Die Grünen mit einem Normenkontrollverfahren, für das sie allerdings ein Viertel der Mitglieder des Bundestages benötigt, durch das Bundesverfassungsgericht klären lassen, ob die im ZDF-Staatsvertrag vorgesehene Zusammensetzung des Fernseh- und des Verwaltungsrates mit der Rundfunkfreiheit vereinbar ist. Nunmehr hat auch das Land Rheinland-Pfalz ein solches Normenkontrollverfahren angekündigt. Dabei geht es um eine wichtige Frage. Die Rundfunkfreiheit mit einem unabhängigen, staatsfernen und qualitätsvollen öffentlich-rechtlichen Rundfunk ist aus Sicht des Bundesverfassungsgerichts für die Demokratie schlechthin konstituierend.
Der Hauptmann von Koepenick
(2005)
Recht als begründete Ableitung aus politisch Vorentschiedenem und Politik als autokratischer Erstentscheid blicken als zwei Welten aufeinander, mit verschiedenen Augen und auf jeweils für sie verschiedene Gegenstände. Strukturelle Unterschiede, aber auch die gegenseitige Durchdringung von Recht und Politik hebt der Verfasser hervor und versteht Rechtspolitik auch als Kampf für die Belange eines konsistenten Rechtssystems. Politik erscheine heute nicht mehr als der große Integrationsentwurf, sondern als Lavieren zwischen den Zwängen aller anderen Funktionssysteme der Gesellschaft. Grundlegend den Zustand unserer Demokratie hinterfragend mahnt der Verfasser, das Recht und die Juristen dürften nicht uneingeschränkt auf eingefahrene Kontrollmechanismen vertrauen, wenn der verfassungsrechtliche Sozialstaatsauftrag unter dem Standortwettbewerb und der wirtschaftlichen Funktionslogik ins Wanken gerate und Verantwortung zunehmend an Private delegiert werde.
Die Implementierung eines Klassenrats ist mit der Hoffnung verbunden, die demokratischen Kompetenzen von Schüler*innen zu stärken. Welche Kompetenzen die Teilnehmer*innen mithilfe dieser demokratiepädagogischen Methode tatsächlich erwerben und wie sich der Klassenrat auf die Klassengemeinschaft auswirkt, hat eine empirische Studie1 am Lycée Nic Biever in Dudelange untersucht.
Demokratie lebt von der Beteiligung engagierter Bürger*innen. Hierzu ist es notwendig, Kinder und Jugendliche frühzeitig an demokratische Handlungsweisen heranzuführen. Der demokratiepädagogische Klassenrat bietet vielfältige Chancen, Schüler*innen Partizipationserfahrungen zu eröffnen und ihre demokratischen Kompetenzen zu stärken.
Der Photograph Willi Huttig
(2019)
Im 18. Jahrhundert manifestierte sich ein grundlegendes Kennzeichen moderner Kunst: ihr Öffentlichkeitsanspruch. Dessen diskursiven Verdichtungen konkretisierten sich in der zeitgenössischen Kunsttheorie und -literatur, in der Kunstkritik, in Beschreibungen und bildlichen Darstellungen, und ebenso in vielfachen impliziten Strategien zur Adressierung bildender Kunst. In der Entstehung der Kunstausstellung, der Kunstkritik, dem Wandel des Patronagesystems und den damit verbundenen Kommunikationsstrategien bildender KünstlerInnen wird nicht nur eine historisch reale Figur beschrieben, sondern zugleich ein imaginäres Konstrukt entworfen: das Kunstpublikum. Am Beispiel zweier bedeutender Kunstzentren des 18. Jahrhunderts, Paris und London, wird der Umgang mit dieser neuen Öffentlichkeit in der bildenden Kunst, Kunstliteratur und Ausstellungspraxis verfolgt. Tatsächlich ist die Anrede des "enlightened public" oder "public éclairé" allgegenwärtig, doch ist es oft schwierig, die Grenzen zwischen höflicher Leerformel, Euphemismus und Ironie richtig zu lesen. Das Sprechen über Öffentlichkeit ist nicht einfach eine Quelle für einen historisch-soziologischen Wandel, sondern stellt ein Symptom der zunehmenden Emphatisierung des Öffentlichkeitsbegriffs im Zuge der Aufklärung dar. Dabei ist das "Publikum" auch eine Konstruktion, die Leerstellen auffüllen muss, und der ihm zugewiesene Platz wechselt immer wieder. Die Formierung des Öffentlichkeitsbegriffs geschah nicht nur als Prozess der Öffnung, sondern auch der Abgrenzung. Ebenso bedeutend wie die positiven Formulierungen sind die negativen Zerrbilder des Publikums, die im 18. Jahrhunderts vielfach entwickelt werden. Am Beispiel zweier solcher Negativbilder, des "Connaisseurs" und der "multitude" werden die Verbindungen zur ästhetischen Theorie untersucht. Traditionelle Öffentlichkeitstheorien hinterlassen noch weit in das 18. Jahrhundert hinein ihre Spuren. Dies führt zu Begrifflichkeiten, die nicht emanzipatorisch oder demokratisch geprägt sind und zu einem Verständnis von Öffentlichkeit, das nicht nur prinzipiell kritisch oder widerständig, subversiv oder oppositionell gedacht werden kann, sondern mit jeder Öffnung auch eine Schließung unternimmt. Das "Kunstpublikum" entwickelt sich in einem konfliktreichen Prozess, in dem sich die Zugangsberechtigungen zur Institution Kunst immer wieder verändern und neu ausdifferenzieren.
In Europa haben sich im Laufe der vergangenen Jahrhunderte zahlreiche Kriege und Auseinandersetzungen Art abgespielt, die die Menschen und Nationen, ihre Ideologien und Ansichten stark geprägt haben. Gerade im SaarLorLux-Raum, einer grenzüberschreitenden Region im Gebiet von Deutschland, Frankreich, Luxemburg und Belgien, wurden die Grenzen von den Siegermächten immer neu gezogen und verschoben. Heute leben hier Menschen mit sehr verschiedenen kulturellen Hintergründen in einer multikulturellen Gesellschaft zusammen, die aber oftmals stark von einem Nebeneinander und von Unterschieden geprägt ist. Für die Grenzräume haben sich mit dem Konzept "Europa der Regionen", das kleineren räumlichen Einheiten ein Mitwirken bei Entscheidungsprozessen ermöglicht, große Kooperationschancen eröffnet. Von politischer Seite wird der SaarLorLux-Raum oft als "Mitte Europas" (BRÜCHER, QUASTEN, REITEL 1982, S. 13) oder "einzige europäische Kernregion" bezeichnet, in die "besonders hohe Erwartungen gesetzt" (SANTER 1997) werden. Wie aber sieht das Leben jenseits der Politik auf der ganz alltäglichen Ebene aus? Welche Möglichkeiten bieten sich den Menschen, die kulturelle Vielfalt, die Andersartigkeit der Nachbarländer sowie die Vor- und Nachteile hautnah in Alltagssituationen zu erleben? Die Dissertation untersucht, inwieweit die Grenzen in den Köpfen der Menschen auch nach ihrer Öffnung durch das Schengener Abkommen verankert bleiben und ob die Bewohner einer Grenzregion diesen besonderen Lebensraum in ihrem Alltag nutzen und zu grenzüberschreitend agierenden Europäern werden. Dazu werden wahrnehmungsgeographische Forschungsmethoden (mental maps) genutzt und auf das konkrete Beispiel des SaarLorLux-Raumes angewendet. In drei Studien (2000, 2002 und 2006) wurden insgesamt 5865 Schüler und Bewohner in 20 Orten in den vier Ländern zu ihren Vorstellungen vom SaarLorLux-Raum, zu ihrem aktionsräumlichen Verhalten und zu ihrer Abgrenzung der Region befragt. Dabei wurden bewusst grenznahe und grenzferne Standorte ausgewählt wurden, um Unterschiede im Verhalten herauszuarbeiten. Ziel der Analyse ist es, das Leben in der Großregion über den Zeitraum von sechs Jahren zu untersuchen und mit dieser Langzeitstudie Veränderungen beziehungsweise Gemeinsamkeiten im Verhalten der Bewohner herauszuarbeiten. Die Wahrnehmung des Lebens im SaarLorLux-Raum aus der Sicht seiner Bewohner wird herausgearbeitet und -ausgehend von den Ergebnissen- werden Potentiale und Defizite im grenzüberschreitenden Zusammenleben abzuleiten. Die politische und ökonomische Liberalisierung ist seit mehr als einem halben Jahrhundert Realität in Westeuropa. Ob allerdings die sich daraus ergebenden Chancen von den Bewohnern der grenznahen Räume erkannt, erwünscht und erlebt werden, ist Gegenstand der Untersuchungen. Durch die Fokussierung auf die Befragung von Schülern, also den jungen Menschen, die die Zukunft darstellen, wird die Frage beantwortet, ob sich traditionelle und eventuell auch eingefahrene Sichtweisen von Generation zu Generation übertragen und somit das aktionsräumliche Verhalten beeinflussen und erstarren lassen. Einen Beitrag zu einer funktionierenden Zusammenarbeit leistet die kulturelle und regionale Identität, die dazu beiträgt, dass sich die Menschen über die Grenzen hinaus als Bewohner der gleichen Region definieren. Dabei sollen nicht die Unterschiede, die zwischen den Bewohnern mit unterschiedlichen Nationalitäten bestehen, geleugnet oder verwischt werden. Abschließend werden, losgelöst vom regionalen Beispiel, Möglichkeiten aufgezeigt, wie durch unterschiedliche Initiativen vor allem auf schulischer Ebene zur Stärkung einer gemeinsamen europäischen Identität bei der jungen Bevölkerung beigetragen werden kann. Die Dissertation endet "ausgerichtet auf die Hauptzielgruppe bei den Befragungen- mit dem Entwurf einer Unterrichteinheit zur Stärkung eines grenzüberschreitenden Wir-Gefühls. Der Schulunterricht kann einen Beitrag dazu leisten, dass die zukünftigen Generationen ein tieferes Bewusstsein für das Zusammenleben im Grenzraum und in Europa erhalten.
Die Geschichte verteilter Systeme und Anwendungen hat die unterschiedlichsten Technologien hervorgebracht: Client-Server-Architekturen, Peer-To-Peer-Netzwerke und Komponentensysteme sind nur einige Vertreter. Die vorliegende Arbeit ist im Bereich der Middleware-Architekturen angesiedelt, einem zur Zeit sehr stark beachteten Zweig der verteilten Anwendungen. Als Mittler zwischen den Anwendungen auf der einen Seite sowie Datenbanken, eMail-Systemen oder weiterer Servern auf der anderen Seite, schlägt sie die Brücke zu heterogenen IT-Landschaften. Sie verbirgt Details und Änderungen dieser IT-Umgebungen und schafft gleichzeitig einen transparenten Zugriff auf sie. Die Forschung hat viele Technologien im Middleware-Umfeld hervorgebracht und setzt bei den Zielen unterschiedliche Schwerpunkte. Eine Sicht auf die Middleware hat den Entwickler im Fokus und soll ihn bei der Erstellung von Anwendungen und Lösungen unterstützen. Aus diesem Grund stehen hier die Schnittstellen zum Server und zur Server-Infrastruktur sowie die Einbettung der Dienste in die Middleware im Vordergrund. Der interne Aufbau sowie die inneren Datenflüsse der Middleware dienen nur der Erfüllung dieser Ziele. Eine andere Sichtweise stellt den inneren Aufbau in den Fokus der Forschung. Hier ist das Ziel die Schaffung von flexiblen und erweiterbaren Server-Strukturen sowie die Effizienz von internen Abläufen und Datenflüssen. Damit ist eine einfache Anpassung an verschiedene Einsatzumgebungen sowie die Fähigkeit, auf die Leistungsmerkmale von Clients individuell eingehen zu können, möglich. Die im Rahmen dieser Arbeit entstandene Middleware-Architektur "Smart Data Server (SDS)" setzt Konzepte um, die beide Sichtweisen miteinander kombiniert. Ein Schwerpunkt neben der Entwicklung neuer Konzepte, liegt in der praktischen Anwendbarkeit der entwickelten Middleware. Die vorliegende Arbeit zeigt, dass der Smart Data Server die Praxistauglichkeit seiner Konzepte unter realen Bedingungen unter Beweis stellen kann und zeigt gleichzeitig, welche Konstrukte für den praktischen Einsatz tatsächlich notwendig sind. Ein zweiter Schwerpunkt liegt in der Entwicklung von Mechanismen zur Abarbeitung von streamingfähigen Anfragen. Üblicherweise folgt auf die Übermittlung von Anfragen an einen Server zunächst die Berechnung einer Antwort und anschließend deren Rücktransport. Bei Streaming-Anfragen ist neben der Übermittlung von Anfrageparametern ein kontinuierlicher und in seiner Dimension nicht beschränkter Datenstrom Bestandteil der Anfrage. Der Server startet seine Berechnungen wenn möglich schon vor dem Ende der Datenübermittlung und liefert schon bei Vorliegen von Teilergebnissen diese an den Client. Der benötigte Bedarf an Speicherplatz im Server kann so optimiert werden, da nur so viele Daten der Anfrage im Server vorgehalten werden müssen wie zur Berechnung tatsächlich notwendig sind und nicht etwa die gesamte Anfrage. Die Entwicklung eines Streaming-Mechanismuses muss entsprechende Möglichkeiten in der Anfragestruktur sowie in der Architektur der Middleware vorsehen. Der Smart Data Server schafft mit der Einführung einer streamingfähigen Anfragestruktur die Voraussetzung für die Verarbeitung solcher Anfragen. Zusätzlich muss eine Server-Architektur geschaffen werden, die das Abarbeiten von Streaming-basierten Anfragen unterstützt. Hier liegt der dritte Schwerpunkt der Arbeit: die Schaffung einer flexiblen und erweiterbaren Server-Struktur sowie die Effizienz von internen Abläufen und Datenflüssen unter Berücksichtigung der Anforderung einer streamingfähigen Anfragebearbeitung. Diese Anforderungen werden mit der neu entwickelten Technologie der inneren Workflow-Programme erfüllt. Innere Workflow-Programme repräsentieren Netzwerke von hochgradig unabhängigen Serverkomponenten. Durch die Umgestaltung dieser Netze sind neue Serverstrukturen möglich, um neuen Einsatzbedingungen angepasst werden zu können. Neben diesem statischen Netzwerk von Server-Komponenten kann zur Laufzeit eine Pipeline zur Abarbeitung von Datenströmen aufgebaut werden, mit der dann letztendlich die Streamingfähigkeit des Servers hergestellt wird.
Auf dem Friedhof der Kirche St. Matthias im Süden Triers befinden sich vier Kammern, die bis in jüngste Zeit als die Untergeschosse selbstständiger römischer Grabbauten angesprochen wurden. Bei dem Areal handelte es sich um einen Teil der südlichen Nekropole des römischen Triers, der vor allem mit Körperbestattungen belegt worden ist. Dieses Körpergräberfeld wird in der vorliegenden Arbeit zum ersten Mal anhand der archäologischen Funde und Befunde beschrieben.
Nach früheren, kleineren Untersuchungen fanden im Umfeld der Kammern 1931 umfangreiche Grabungen statt; weitere folgten in den 1960er Jahren. Die im Rahmen dieser Maßnahmen erstellten Unterlagen wurden vom Autor zusammengestellt und aufgearbeitet. Ergänzend kamen eigene Beobachtungen am noch sichtbaren Befund hinzu.
So ließ sich erschließen, dass die meisten Grabkammern nicht Reste eigenständiger Bauten waren, sondern Teile eines bisher nicht erkannten größeren Baukomplexes. Dieser bestand aus einem großen Rechteckbau, der das Untergeschoss eines älteren Grabbaus inkorporierte. Dieser bildete einen kellerartigen Raum, der mit einem Wasseranschluss versehen war. Innerhalb des Rechteckbaus konnten Reste eines festen Fußbodens zu ebener Erde, sowie farbige Wandmalerei beobachtet werden. Kurz nach seiner Errichtung wurde der Rechteckbau mit zwei unterirdischen Kammern versehen und im Osten durch drei Anbauten mit unterschied-lichen Grundrissen erweitert: Im Süden entstand so ein Apsidenbau mit einer großen unterirdischen Kammer, in der sich bis heute ein Reliefsarkophag befindet.
Die Befundauswertung ergab, dass der Baukomplex in konstantinischer Zeit errichtet worden ist und offenbar schon um die Mitte des 5.Jhs. n. Chr. aufgegeben wurde.
Zu diesem Baubefund ließ sich in den benachbarten römischen Provinzen keine direkte Parallele finden. Am ehesten vergleichbar scheint ein weiterer Baukomplex aus der nördlichen Nekropole Triers, der unter der Kirche St. Maximin aufgedeckt wurde. Er ist ab der Mitte des 4. Jhs. n. Chr. errichtet und von der christlichen Gemeinde genutzt worden. Dieser Bau ähnelt in seinem Grundriss dem Baukomplex von St. Matthias, unterschiedet sich aber in der Bestattungspraxis: Während zahlreiche Sarkophag-Bestattungen im Hauptbau und teilweise auch den Anbauten in den unbefestigten Boden eingelassen worden sind, fand sich bei St. Matthias sowohl im Hauptbau als auch den Anbauten ein fester Boden. Innerhalb dieses Baukomplexes kann nur der oben beschriebene Reliefsarkophag der Nutzungszeit zugeordnet werden. Demnach könnte hier die Schaffung separater Bestattungsräume bedeutsam gewesen sein – neben anderen Funktionen, wie der Bereitstellung von Wasser und überdachtem Raum zur Begehung der Totenfeiern. Die stärkere Berücksichtigung solch funktionaler Elemente scheint demnach eine wichtige Ergänzung zur weiterführenden Deutung römischer Sepulkralarchitektur zu sein.
Unternehmen aus güterproduzierenden Industrien und Sektoren entdecken in immer stärkerem Maße das Differenzierungs- und Erlöspotenzial des Angebots ergänzender Dienstleistungen zur Erlangung von strategischen Wettbewerbsvorteilen. In vielen Branchen ist dies bereits ein notwendiger Bestandteil im Angebotsportfolios der Hersteller um sich zu positionieren und wettbewerbsfähig zu bleiben. Ein besonders prägnantes Beispiel stellt die Automobilbranche dar, die schon vor Jahren begonnen hat in ihr Geschäftsmodell um das Kernprodukt "Automobil" auch sog. produktbegleitende Dienstleistungen (wie beispielsweise Finanzierungsdienstleistungen) zu integrieren, um sich durch Erhöhung des Kundennutzens von den Angeboten der Mitbewerber zu differenzieren. Vor dem Hintergrund, dass Marketingkonstrukte, wie Marke, Reputation, Kundenloyalität, aber auch technische Spezifikationen wie Motorisierung, Ausstattung und Zubehör die Fahrzeugwahl beeinflussen, stellt sich die Autorin die Frage, inwiefern ein Zusatzangebot von reinen produktbegleitenden Dienstleistungen einen Einfluss auf die Marken- und Fahrzeugwahl beim Autokauf hat. In diesem Zusammenhang ist ein Forschungsziel der vorliegenden Untersuchung die Konzeption einer branchenunabhängigen Wertschöpfungskette für produktbegleitende Dienstleistungen, um eine Identifikation des strategischen Differenzierungspotenzials produktbegleitender Dienstleistungen zu ermöglichen. Den Bezugsrahmen der Forschungsarbeit wird dabei aus Perspektive des Endkonsumenten bei der Automobilkaufentscheidung konstruiert, um Aussagen zur Wahrnehmung existierender Angebote produktbegleitender Dienstleistungen den individuellen Phasen der Kaufentscheidung zuordnen zu können. Dies bildet das methodische Fundament dieses empirisch geprägten Forschungsbeitrags, um die folgende Frage der Untersuchung beantworten zu können: "Haben produktbegleitende Dienstleistungen einen Einfluss auf die Kaufwahrscheinlichkeit beim konsumentenseitigen Kaufentscheidungsprozess bei Automobilen im Segment des Privat-PKW?" Als Forschungsstrategie wird die Anwendung der Kausalanalyse gewählt, um anhand zwei aufeinander aufbauenden Primärerhebungen (quantitative Datenerhebung anhand eines Online-Fragebogens) potenzielle Autokäufer hinsichtlich ihres Wissens und ihrer Wahrnehmung bezüglich produktbegleitender Dienstleistungen der einzelnen Automobilherstellermarken zu untersuchen. Die Ergebnisse der Datenauswertung lassen die Schlussfolgerung zu, dass produktbegleitende Dienstleistungen zwar einen positiven Einfluss auf die Kaufentscheidung beim potentiellen Automobilkäufer ausüben, jedoch aufseiten der Automobilhersteller und -händler durchaus großes Verbesserungspotenzial bezüglich der Kommunikation von solchen Value-Added-Leistungen vorliegt. Die vorliegende Dissertationsschrift wurde am Lehrstuhl für Organisation und Strategisches Dienstleistungsmanagement verfasst und beim Fachbereich IV der Universität Trier eingereicht.
Die Ritualmordbeschuldigung ist eine von mehreren Anklagen, die in Westeuropa seit dem hohen Mittelalter immer wieder gegen Juden erhoben wurden. Da sie die am weitesten verbreitete unter ihnen war, wirkte sie in besonderem Maße prägend auf das Bild, das in der christlichen Mehrheit von der jüdischen Minderheit in Umlauf war. Der Trienter Fall spielt in diesem Kontext aus vielen Gründen eine herausgehobene Rolle. Die vorliegende Arbeit berücksichtigt alle wesentlichen Elemente des Prozesses, seine Entstehungsbedingungen sowie die Faktoren, die seinen Verlauf beeinflussten und seine weitreichenden Auswirkungen verursachten. Die Ursache für die große Resonanz des Prozesses liegt vor allem im Zusammentreffen der beiden sehr unterschiedlichen Entwicklungen der Judenfeindschaft im deutschen und im italienischen Raum. Die geographische und politische Lage des Fürstbistums Trient im Grenzgebiet zwischen venezianischem und habsburgischem, italienischem und deutschem Einflussbereich führte zu einer Reihe von einmaligen Umständen, die verantwortlich für den Verlauf des Prozesses selbst und auch für seinen ungeheuren Widerhall waren. Hinzu treten andere Faktoren im personellen und institutionellen Bereich und nicht zuletzt die Tatsache, daß mit dem Buchdruck ein völlig neues Medium der Verbreitung und Propaganda zur Verfügung stand, das hier erstmals in großem Umfang eingesetzt wurde. Im Rahmen der Rezeption des Prozesses spielte auch die Entstehung eines Märtyrerkultes für das angebliche Ritualmordopfer, den "seligen Simon von Trient", eine zwar begrenzte, aber keinesfalls zu vernachlässigende Rolle. Langfristig gesehen war es weniger der Kult, der die Bedeutung der Trienter Ereignisse ausmachte, als die Tatsache, daß die Geschichte Simons von Trient wegen ihrer großen Bekanntheit immer wieder als Bestätigung für die Existenz jüdischer Ritualmorde herangezogen wurde und als Vorbild für andere "Ritualmordmärtyrer" fungierte - bis ins 20. Jahrhundert hinein.
Estimation and therefore prediction -- both in traditional statistics and machine learning -- encounters often problems when done on survey data, i.e. on data gathered from a random subset of a finite population. Additional to the stochastic generation of the data in the finite population (based on a superpopulation model), the subsetting represents a second randomization process, and adds further noise to the estimation. The character and impact of the additional noise on the estimation procedure depends on the specific probability law for subsetting, i.e. the survey design. Especially when the design is complex or the population data is not generated by a Gaussian distribution, established methods must be re-thought. Both phenomena can be found in business surveys, and their combined occurrence poses challenges to the estimation.
This work introduces selected topics linked to relevant use cases of business surveys and discusses the role of survey design therein: First, consider micro-econometrics using business surveys. Regression analysis under the peculiarities of non-normal data and complex survey design is discussed. The focus lies on mixed models, which are able to capture unobserved heterogeneity e.g. between economic sectors, when the dependent variable is not conditionally normally distributed. An algorithm for survey-weighted model estimation in this setting is provided and applied to business data.
Second, in official statistics, the classical sampling randomization and estimators for finite population totals are relevant. The variance estimation of estimators for (finite) population totals plays a major role in this framework in order to decide on the reliability of survey data. When the survey design is complex, and the number of variables is large for which an estimated total is required, generalized variance functions are popular for variance estimation. They allow to circumvent cumbersome theoretical design-based variance formulae or computer-intensive resampling. A synthesis of the superpopulation-based motivation and the survey framework is elaborated. To the author's knowledge, such a synthesis is studied for the first time both theoretically and empirically.
Third, the self-organizing map -- an unsupervised machine learning algorithm for data visualization, clustering and even probability estimation -- is introduced. A link to Markov random fields is outlined, which to the author's knowledge has not yet been established, and a density estimator is derived. The latter is evaluated in terms of a Monte-Carlo simulation and then applied to real world business data.
This dissertation looked at both design-based and model-based estimation for rare and clustered populations using the idea of the ACS design. The ACS design (Thompson, 2012, p. 319) starts with an initial sample that is selected by a probability sampling method. If any of the selected units meets a pre-specified condition, its neighboring units are added to the sample and observed. If any of the added units meets the pre-specified condition, its neighboring units are further added to the sample and observed. The procedure continues until there are no more units that meet the pre-specified condition. In this dissertation, the pre-specified condition is the detection of at least one animal in a selected unit. In the design-based estimation, three estimators were proposed under three specific design setting. The first design was stratified strip ACS design that is suitable for aerial or ship surveys. This was a case study in estimating population totals of African elephants. In this case, units/quadrant were observed only once during an aerial survey. The Des Raj estimator (Raj, 1956) was modified to obtain an unbiased estimate of the population total. The design was evaluated using simulated data with different levels of rarity and clusteredness. The design was also evaluated on real data of African elephants that was obtained from an aerial census conducted in parts of Kenya and Tanzania in October (dry season) 2013. In this study, the order in which the samples were observed was maintained. Re-ordering the samples by making use of the Murthy's estimator (Murthy, 1957) can produce more efficient estimates. Hence a possible extension of this study. The computation cost resulting from the n! permutations in the Murthy's estimator however, needs to be put into consideration. The second setting was when there exists an auxiliary variable that is negatively correlated with the study variable. The Murthy's estimator (Murthy, 1964) was modified. Situations when the modified estimator is preferable was given both in theory and simulations using simulated and two real data sets. The study variable for the real data sets was the distribution and counts of oryx and wildbeest. This was obtained from an aerial census that was conducted in parts of Kenya and Tanzania in October (dry season) 2013. Temperature was the auxiliary variable for two study variables. Temperature data was obtained from R package raster. The modified estimator provided more efficient estimates with lower bias compared to the original Murthy's estimator (Murthy, 1964). The modified estimator was also more efficient compared to the modified HH and the modified HT estimators of (Thompson, 2012, p. 319). In this study, one auxiliary variable is considered. A fruitful area for future research would be to incorporate multi-auxiliary information at the estimation phase of an ACS design. This could, in principle, be done by using for instance a multivariate extension of the product estimator (Singh, 1967) or by using the generalized regression estimator (Särndal et al., 1992). The third case under design-based estimation, studied the conjoint use of the stopping rule (Gattone and Di Battista, 2011) and the use of the without replacement of clusters (Dryver and Thompson, 2007). Each of these two methods was proposed to reduce the sampling cost though the use of the stopping rule results in biased estimates. Despite this bias, the new estimator resulted in higher efficiency gain in comparison to the without replacement of cluster design. It was also more efficient compared to the stratified design which is known to reduce final sample size when networks are truncated at stratum boundaries. The above evaluation was based on simulated and real data. The real data was the distribution and counts of hartebeest, elephants and oryx obtained in the same census as above. The bias attributed by the stopping rule has not been evaluated analytically. This may not be direct since the truncated network formed depends on the initial unit sampled (Gattone et al., 2016a). This and the order of the bias however, deserves further investigation as it may help in understanding the effect of the increase in the initial sample size together with the population characteristics on the efficiency of the proposed estimator. Chapter four modeled data that was obtained using the stratified strip ACS (as described in sub-section (3.1)). This was an extension of the model of Rapley and Welsh (2008) by modeling data that was obtained from a different design, the introduction of an auxiliary variable and the use of the without replacement of clusters mechanism. Ideally, model-based estimation does not depend on the design or rather how the sample was obtained. This is however, not the case if the design is informative; such as the ACS design. In this case, the procedure that was used to obtain the sample was incorporated in the model. Both model-based and design-based simulations were conducted using artificial and real data. The study and the auxiliary variable for the real data was the distribution and counts of elephants collected during an aerial census in parts of Kenya and Tanzania in October (dry season) and April (wet season) 2013 respectively. Areas of possible future research include predicting the population total of African elephants in all parks in Kenya. This can be achieved in an economical and reliable way by using the theory of SAE. Chapter five compared the different proposed strategies using the elephant data. Again the study variable was the elephant data from October (dry season) 2013 and the auxiliary variable was the elephant data from April (wet season) 2013. The results show that the choice of particular strategy to use depends on the characteristic of the population under study and the level and the direction of the correlation between the study and the auxiliary variable (if present). One general area of the ACS design that is still behind, is the implementation of the design in the field especially on animal populations. This is partly attributed by the challenges associated with the field implementation, some of which were discussed in section 2.3. Green et al. (2010) however, provides new insights in undertaking the ACS design during an aerial survey such as how the aircraft should turn while surveying neighboring units. A key point throughout the dissertation is the reduction of cost during a survey which can be seen by the reduction in the number of units in the final sample (through the use of stopping rule, use of stratification and truncating networks at stratum boundaries) and ensuring that units are observed only once (by using the without replacement of cluster sampling technique). The cost of surveying an edge unit(s) is assumed to be low in which case the efficiency of the ACS design relative to the non-adaptive design is achieved (Thompson and Collins, 2002). This is however not the case in aerial surveys as the aircraft flies at constant speed and height (Norton-Griffiths, 1978). Hence the cost of surveying an edge unit is the same as the cost of surveying a unit that meets the condition of interest. The without replacement of cluster technique plays a greater role of reducing the cost of sampling in such surveys. Other key points that motivated the sections in the dissertation include gains in efficiency (in all sections) and practicability of the designs in the specific setting. Even though the dissertation focused on animal populations, the methods can as well be implemented in any population that is rare and clustered such as in the study of forestry, plants, pollution, minerals and so on.
Official business surveys form the basis for national and regional business statistics and are thus of great importance for analysing the state and performance of the economy. However, both the heterogeneity of business data and their high dynamics pose a particular challenge to the feasibility of sampling and the quality of the resulting estimates. A widely used sampling frame for creating the design of an official business survey is an extract from an official business register. However, if this frame does not accurately represent the target population, frame errors arise. Amplified by the heterogeneity and dynamics of business populations, these errors can significantly affect the estimation quality and lead to inefficiencies and biases. This dissertation therefore deals with design-based methods for optimising business surveys with respect to different types of frame errors.
First, methods for adjusting the sampling design of business surveys are addressed. These approaches integrate auxiliary information about the expected structures of frame errors into the sampling design. The aim is to increase the number of sampled businesses that are subject to frame errors. The element-specific frame error probability is estimated based on auxiliary information about frame errors observed in previous samples. The approaches discussed consider different types of frame errors and can be incorporated into predefined designs with fixed strata.
As the second main pillar of this work, methods for adjusting weights to correct for frame errors during estimation are developed and investigated. As a result of frame errors, the assumptions under which the original design weights were determined based on the sampling design no longer hold. The developed methods correct the design weights taking into account the errors identified for sampled elements. Case-number-based reweighting approaches, on the one hand, attempt to reconstruct the unknown size of the individual strata in the target population. In the context of weight smoothing methods, on the other hand, design weights are modelled and smoothed as a function of target or auxiliary variables. This serves to avoid inefficiencies in the estimation due to highly scattering weights or weak correlations between weights and target variables. In addition, possibilities of correcting frame errors by calibration weighting are elaborated. Especially when the sampling frame shows over- and/or undercoverage, the inclusion of external auxiliary information can provide a significant improvement of the estimation quality. For those methods whose quality cannot be measured using standard procedures, a procedure for estimating the variance based on a rescaling bootstrap is proposed. This enables an assessment of the estimation quality when using the methods in practice.
In the context of two extensive simulation studies, the methods presented in this dissertation are evaluated and compared with each other. First, in the environment of an experimental simulation, it is assessed which approaches are particularly suitable with regard to different data situations. In a second simulation study, which is based on the structural survey in the services sector, the applicability of the methods in practice is evaluated under realistic conditions.
Designing a Randomized Trial with an Age Simulation Suit—Representing People with Health Impairments
(2020)
Due to demographic change, there is an increasing demand for professional care services, whereby this demand cannot be met by available caregivers. To enable adequate care by relieving informal and formal care, the independence of people with chronic diseases has to be preserved for as long as possible. Assistance approaches can be used that support promoting physical activity, which is a main predictor of independence. One challenge is to design and test such approaches without affecting the people in focus. In this paper, we propose a design for a randomized trial to enable the use of an age simulation suit to generate reference data of people with health impairments with young and healthy participants. Therefore, we focus on situations of increased physical activity.
Forest inventories provide significant monitoring information on forest health, biodiversity,
resilience against disturbance, as well as its biomass and timber harvesting potential. For this
purpose, modern inventories increasingly exploit the advantages of airborne laser scanning (ALS)
and terrestrial laser scanning (TLS).
Although tree crown detection and delineation using ALS can be seen as a mature discipline, the
identification of individual stems is a rarely addressed task. In particular, the informative value of
the stem attributes—especially the inclination characteristics—is hardly known. In addition, a lack
of tools for the processing and fusion of forest-related data sources can be identified. The given
thesis addresses these research gaps in four peer-reviewed papers, while a focus is set on the
suitability of ALS data for the detection and analysis of tree stems.
In addition to providing a novel post-processing strategy for geo-referencing forest inventory plots,
the thesis could show that ALS-based stem detections are very reliable and their positions are
accurate. In particular, the stems have shown to be suited to study prevailing trunk inclination
angles and orientations, while a species-specific down-slope inclination of the tree stems and a
leeward orientation of conifers could be observed.
Detection of Preferential Water Flow by Electrical Resistivity Tomography and Self-Potential Method
(2021)
This study explores the hydrogeological conditions of a landslide-prone hillslope in the Upper Mosel valley, Luxembourg. The investigation program included the monitoring of piezometer wells, hydrogeological field tests, analysis of drillcore records, and geophysical surveys. Monitoring and field testing in some of the observation wells indicated very pronounced preferential flow. Electrical resistivity tomography (ERT) and self-potential geophysical methods were employed in the study area for exploration of the morphology of preferential flowpaths. Possible signals associated with flowing groundwater in the subsurface were detected; however, they were diffusively spread over a relatively large zone, which did not allow for the determination of an exact morphology of the conduit. Analysis of drillcore records indicated that flowpaths are caused by the dissolution of thin gypsum interlayers in marls. For better understanding of the site’s hydrogeological settings, a 3D hydrogeological model was compiled. By applying different subsurface flow mechanisms, a hydrogeological model with thin, laterally extending flowpaths embedded in a porous media matrix showed the best correspondence with field observations. Simulated groundwater heads in a preferential flow conduit exactly corresponded with the observed heads in the piezometer wells. This study illustrates how hydrogeological monitoring and geophysical surveys in conjunction with the newest hydrogeological models allow for better conceptualization and parametrization of preferential flow.
Social entrepreneurship is a successful activity to solve social problems and economic
challenges. Social entrepreneurship uses for-profit industry techniques and tools to build
financially sound businesses that provide nonprofit services. Social entrepreneurial activities
also lead to the achievement of sustainable development goals. However, due to the complex,
hybrid nature of the business, social entrepreneurial activities are typically supported by macrolevel
determinants. To expand our knowledge of how beneficial macro-level determinants can
be, this work examines empirical evidence about the impact of macro-level determinants on
social entrepreneurship. Another aim of this dissertation is to examine the impact at the micro
level, as the growth ambitions of social and commercial entrepreneurs differ. At the beginning,
the introductory section is explained in Chapter 1, which contains the motivation for the
research, the research question, and the structure of the work.
There is an ongoing debate about the origin and definition of social entrepreneurship.
Therefore, the numerous phenomena of social entrepreneurship are examined theoretically in
the previous literature. To determine the common consensus on the topic, Chapter 2 presents
the theoretical foundations and definition of social entrepreneurship. The literature shows that
a variety of determinants at the micro and macro levels are essential for the emergence of social
entrepreneurship as a distinctive business model (Hartog & Hoogendoorn, 2011; Stephan et
al., 2015; Hoogendoorn, 2016). It is impossible to create a society based on a social mission without the support of micro and macro-level-level determinants. This work examines the
determinants and consequences of social entrepreneurship from different methodological
perspectives. The theoretical foundations of the micro- and macro-level determinants
influencing social entrepreneurial activities were discussed in Chapter 3
The purpose of reproducibility in research is to confirm previously published results
(Hubbard et al., 1998; Aguinis & Solarino, 2019). However, due to the lack of data, lack of
transparency of methodology, reluctance to publish, and lack of interest from researchers, there
is a lack of promoting replication of the existing research study (Baker, 2016; Hedges &
Schauer, 2019a). Promoting replication studies has been regularly emphasized in the business
and management literature (Kerr et al., 2016; Camerer et al., 2016). However, studies that
provide replicability of the reported results are considered rare in previous research (Burman
et al., 2010; Ryan & Tipu, 2022). Based on the research of Köhler and Cortina (2019), an
empirical study on this topic is carried out in Chapter 4 of this work.
Given this focus, researchers have published a large body of research on the impact of microand
macro-level determinants on social inclusion, although it is still unclear whether these
studies accurately reflect reality. It is important to provide conceptual underpinnings to the
field through a reassessment of published results (Bettis et al., 2016). The results of their
research make it abundantly clear that the macro determinants support social entrepreneurship.
In keeping with the more narrative approach, which is a crucial concern and requires attention,
Chapter 5 considered the reproducibility of previous results, particularly on the topic of social
entrepreneurship. We replicated the results of Stephan et al. (2015) to establish the trend of
reproducibility and validate the specific conclusions they drew. The literal and constructive
replication in the dissertation inspired us to explore technical replication research on social
entrepreneurship. Chapter 6 evaluates the fundamental characteristics that have proven to be key factors in the
growth of social ventures. The current debate reviews and references literature that has
specifically focused on the development of social entrepreneurship. An empirical analysis of
factors directly related to the ambitious growth of social entrepreneurship is also carried out.
Numerous social entrepreneurial groups have been studied concerning this association. Chapter
6 compares the growth ambitions of social and traditional (commercial) entrepreneurship as
consequences at the micro level. This study examined many characteristics of social and
commercial entrepreneurs' growth ambitions. Scholars have claimed to some extent that the
growth of social entrepreneurship differs from commercial entrepreneurial activities due to
objectivity differences (Lumpkin et al., 2013; Garrido-Skurkowicz et al., 2022). Qualitative
research has been used in studies to support the evidence on related topics, including Gupta et
al (2020) emphasized that research needs to focus on specific concepts of social
entrepreneurship for the field to advance. Therefore, this study provides a quantitative,
analysis-based assessment of facts and data. For this purpose, a data set from the Global
Entrepreneurship Monitor (GEM) 2015 was used, which examined 12,695 entrepreneurs from
38 countries. Furthermore, this work conducted a regression analysis to evaluate the influence
of various social and commercial characteristics of entrepreneurship on economic growth in
developing countries. Chapter 7 briefly explains future directions and practical/theoretical
implications.
It has been the overall aim of this research work to assess the potential of hyperspectral remote sensing data for the determination of forest attributes relevant to forest ecosystem simulation modeling and forest inventory purposes. A number of approaches for the determination of structural and chemical attributes from hyperspectral remote sensing have been applied to the collected data sets. Many of the methods to be found in the literature were up to now just applied to broadband multispectral data, applied to vegetation canopies other than forests, reported to work on the leaf level or with modelled data, not validated with ground truth data, or not systematically compared to other methods. Attributes that describe the properties of the forest canopy and that are potentially open to remote sensing were identified, appropriate methods for their retrieval were implemented and field, laboratory and image data (HyMap sensor) were acquired over a number of forest plots. The study on structural attributes compared statistical and physical approaches. In the statistical section, linear predictive models between vegetation indices derived from HyMap data and field measurements of structural forest stand attributes were systematically evaluated. The study demonstrates that for hyperspectral image data, linear regression models can be applied to quantify leaf area index and crown volume with good accuracy. For broadband multispectral data, the accuracy was generally lower. The physically-based approach used the invertible forest reflectance model (INFORM), a combination of well established sub-models FLIM, SAIL and LIBERTY. The model was inverted with HyMap data using a neural network approach. In comparison to the statistical approach, it could be shown that the reflectance model inversion works equally well. In opposition to empirically derived prediction functions that are generally limited to the local conditions at a certain point in time and to a specified sensor type, the calibrated reflectance model can be applied more easily to different optical remote sensing data acquired over central European forests. The study on chemical forest attributes evaluated the information content of HyMap data for the estimation of nitrogen, chlorophyll and water concentration. A number of needle samples of Norway spruce were analysed for their total chlorophyll, nitrogen and water concentrations. The chemical data was linked to needle spectra measured in the laboratory and canopy spectra measured by the HyMap sensor. Wavebands selected in statistical models were often located in spectral regions that are known to be important for chlorophyll detection (red edge, green peak). Predictive models were applied on the HyMap image to compute maps of chlorophyll concentration and nitrogen concentration. Results of map overlay operations revealed coherence between total chlorophyll and zones of stand development stage and between total chlorophyll and zones of soil type. Finally, it can be stated that the hyperspectral remote sensing data generally contains more information relevant to the estimation of the forest attributes compared to multispectral data. Structural forest attributes, except biomass, can be determined with good accuracy from a hyperspectral sensor type like HyMap. Among the chemical attributes, chlorophyll concentration can be determined with good accuracy and nitrogen concentration with moderate accuracy. For future research, additional dimensions have to be taken into account, for instance through exploitation of multi-view angle data. Additionally, existing forest canopy reflectance models should be further improved.
The classic Capital Asset Pricing Model and the portfolio theory suggest that investors hold the market portfolio to diversify idiosyncratic risks. The theory predicts that expected return of assets is positive and that reacts linearly on the overall market. However, in reality, we observe that investors often do not have perfectly diversified portfolios. Empirical studies find that new factors influence the deviation from the theoretical optimal investment. In the first part of this work (Chapter 2) we study such an example, namely the influence of maximum daily returns on subsequent returns. Here we follow ideas of Bali et al. (2011). The goal is to find cross-sectional relations between extremely positive returns and expected average returns. We take account a larger number of markets worldwide. Bali et al. (2011) report with respect to the U.S. market a robust negative relation between MAX (the maximum daily return) and the expected return in the subsequent time. We extent substantially their database to a number of other countries, and also take more recent data into account (until end of 2009). From that we conclude that the relation between MAX and expected returns is not consistent in all countries. Moreover, we test the robustness of the results of Bali et al. (2011) in two time-periods using the same data from CRSP. The results show that the effect of extremely positive returns is not stable over time. Indeed we find a negative cross-sectional relation between the extremely positive returns and the average returns for the first half of the time series, however, we do not find significant effects for the second half. The main results of this chapter serve as a basis for an unpublished working paper Yuan and Rieger (2014b). While in Chapter 2 we have studied factors that prevent optimal diversification, we consider in Chapter 3 and 4 situations where the optimal structure of diversification was previously unknown, namely diversification of options (or structured financial products). Financial derivatives are important additional investment form with respect to diversification. Not only common call and put options, but also structured products enable investors to pursue a multitude of investment strategies to improve the risk-return profile. Since derivatives become more and more important, diversification of portfolios with dimension of derivatives is of particularly practical relevance. We investigate the optimal diversification strategies in connection with underlying stocks for classical rational investors with constant relative risk aversion (CRRA). In particular, we apply Monte Carlo method based on the Black-Scholes model and the Heston model for stochastic volatility to model the stock market processes and the pricing of the derivatives. Afterwards, we compare the benchmark portfolio which consists of derivatives on single assets with derivatives on the index of these assets. First we compute the utility improvement of an investment in the risk-free assets and plain-vanilla options for CRRA investors in various scenarios. Furthermore, we extend our analysis to several kinds of structured products, in particular capital protected notes (CPNs), discount certificates (DCs) and bonus certificates (BCs). We find that the decision of an investor between these two diversification strategies leads to remarkable differences. The difference in the utility improvement is influenced by risk-preferences of investors, stock prices and the properties of the derivatives in the portfolio. The results will be presented in Chapter 3 and are the basis for a yet unpublished working paper Yuan and Rieger (2014a). To check furthermore whether underlyings of structured products influence decisions of investors, we discuss explicitly the utility gain of a stock-based product and an index-based product for an investor whose preferences are described by cumulative prospect theory (CPT) (Chapter 4, compare to Yuan (2014)). The goal is that to investigate the dependence of structured products on their underlying where we put emphasis on the difference between index-products and single-stock-products, in particular with respect to loss-aversion and mental accounting. We consider capital protected notes and discount certificates as examples, and model the stock prices and the index of these stocks via Monte Carlo simulations in the Black-Scholes framework. The results point out that market conditions, particularly the expected returns and volatility of the stocks play a crucial role in determining the preferences of investors for stock-based CPNs and index-based CPNs. A median CPT investor prefers the index-based CPNs if the expected return is higher and the volatility is lower, while he prefers the stock-based CPNs in the other situation. We also show that index-based DCs are robustly more attractive as compared to stock-based DCs for CPT investors.
Die vorliegende Dissertation ist ein Versuch, mit einer Erforschung, Darstellung und Analyse dessen zu beginnen, was die deutsche Präsenz in Guatemala seit der Ankunft der ersten Siedler im frühen 19. Jahrhundert bedeutet. Aus diesen Seiten spricht ein im Gange befindlicher Prozess einer Akkulturation zwischen deutschen Einwanderern und Guatemalteken, in dessen Verlauf beide Teile ihr Leben gegenseitig wirtschaftlich, gesellschaftlich und geistig, wenn auch nicht immer ohne Spannungen, bereicherten. Die Darstellung beginnt mit einer Besprechung der wirtschaftlichen, sozialen und kulturellen Beiträge der ersten Siedler, sowie der Arbeit deutscher Institutionen. Sie untersucht dann die Aufnahme deutschen Gedankengutes bei der studierenden Jugend, bei Dozenten, Künstlern und Intellektuellen. Das Hauptgewicht dieses letzteren Teils liegt auf der Zeitspanne der achtziger Jahre des 20. Jahrhunderts, als Guatemala die ärgste Zeit der Gewalt, Unsicherheit und Angst erlebte. In jenen Jahren beschäftigten sich viele Intellektuelle und Studenten äusserst intensiv mit deutscher Denkart. Die Gründe dieses Interesses waren Gegenstand meiner besonderen Aufmerksamkeit. Meine Nachforschungen umfassten Reisen von Hunderten von Kilometern durch ganz Guatemala, sowohl während meines Aufenthalts als amerikanischer Diplomat (1981-1983) wie auch bei wiederholten Reisen zwischen 1984 und 1990, teilweise in abgelegenen und von Guerillaunruhen heimgesuchten Gegenden. Aspekte der historisch-sozialen und politischen Analyse Guatemalas in den nächsten Kapiteln stützen sich im wesentlichen auf meine Studie: Guatemala: A Complex Scenario. Wir erhalten nicht nur das Bild eines Guatemala, wo deutsche Siedler und Institutionen bleibende Spuren in der Gellschaft hinterliessen. Wir sehen auch einen Aspekt eines Guatemala, das sich intensiv mit wichtigen intellektuellen und kulturellen Errungenschaften Deutschlands befasst. Es ist ein faszinierendes Bild, auf dem sogar eine so komplexe Gestalt wie Heidegger ihren Schatten hinterlassen hat. Es reflektiert die stolze Anstrengung einer Gesellschaft, sich von den vielen Schwierigkeiten, denen sie sich im täglichen Leben ständig ausgesetzt sieht, die geistige Offenheit und Bereicherung nicht einschränken zu lassen.
Die vorliegende Arbeit untersucht, ob eine Positionierung der von den Winzern hergestellten Erzeugnisse im hochwertigen und damit hochpreisigen Produktsegment einen geeigneten Lösungsansatz darstellt. Neben einer qualitativen Ausstattung der Produkte im Hochpreissegment, die bereits von einigen Erzeugern erfolgreich vollzogen wurde, wird insbesondere analysiert, ob ein größerer Stellenwert der Kommunikation dieser Entwicklung gegenüber den meinungsbildenden und qualitätsorientierten Konsumenten geeignet ist, die Beurteilung und damit das Image von "Deutschem Spitzenwein" zu verbessern, somit das Konsumverhalten nachhaltig zu verändern und das vorstehende Problem zu lösen. Der Dissertation liegt insoweit die übergeordnete Fragestellung zugrunde, ob und gegebenenfalls wie langfristig eine deutsche Luxusweinmarke kreiert und etabliert werden kann bzw. welche strategischen und operativen Management-Maßnahmen zur Erreichung dieser Zielsetzung erforderlich sind.
Der Beitrag beschäftigt sich mit dem Verhältnis zwischen Deutschland und dem Völkerrecht nach dem Irak-Konflikt. Zunächst erläutert der Verfasser drei erkennbare Trends in der Völkerrechtsentwicklung, nämlich die Dominanz der USA, die Konstitutionalisierung des Völkerrechts und den Bedeutungsverlust des Staates in einigen Regionen der Welt. Zimmermann geht dann auf die Relevanz dieser Entwicklungen für Deutschland ein. In einem zweiten Teil widmet sich der Autor gezielt dem völkerrechtlichen Gewaltverbot und Deutschlands Rolle bei der Entwicklung in diesem Bereich. Der Irak-Konflikt dient ihm in allen Feldern dazu, die gegenwärtigen Entwicklungen zu verdeutlichen.