Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (833)
- Wissenschaftlicher Artikel (219)
- Buch (Monographie) (113)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (108)
- Arbeitspapier (62)
- Ausgabe (Heft) zu einer Zeitschrift (24)
- Teil eines Buches (Kapitel) (22)
- Konferenzveröffentlichung (17)
- Sonstiges (16)
- Rezension (10)
Sprache
- Deutsch (843)
- Englisch (518)
- Französisch (75)
- Mehrsprachig (15)
- Russisch (1)
Schlagworte
- Deutschland (84)
- Luxemburg (52)
- Stress (40)
- Schule (37)
- Schüler (33)
- Politischer Unterricht (29)
- Modellierung (28)
- Fernerkundung (25)
- Geschichte (24)
- Demokratie (23)
Institut
- Raum- und Umweltwissenschaften (213)
- Psychologie (212)
- Politikwissenschaft (132)
- Universitätsbibliothek (84)
- Rechtswissenschaft (77)
- Wirtschaftswissenschaften (66)
- Mathematik (65)
- Fachbereich 4 (57)
- Medienwissenschaft (57)
- Fachbereich 6 (50)
- Geschichte, mittlere und neuere (45)
- Fachbereich 1 (36)
- Fachbereich 3 (34)
- Informatik (31)
- Germanistik (28)
- Fachbereich 2 (26)
- Kunstgeschichte (23)
- Anglistik (21)
- Soziologie (20)
- Computerlinguistik und Digital Humanities (10)
- Philosophie (10)
- Romanistik (9)
- Fachbereich 5 (7)
- Pädagogik (6)
- Allgemeine Sprach- und Literaturwissenschaft (5)
- Ethnologie (5)
- Geschichte, alte (5)
- Klassische Philologie (4)
- Sinologie (4)
- Japanologie (3)
- Archäologie (2)
- Phonetik (2)
- Servicezentrum eSciences (2)
- Forschungszentrum Europa (1)
- Pflegewissenschaft (1)
- Slavistik (1)
- Theologische Fakultät (1)
The main goal of this publication is the development and application of an empirical method, which allows to forecast the transport of radionuclides in soils ad sediments. The calculations are based on data published in the literature. 10 case studies, comprising 30 time series, deal with the transport of Cs-134, Cs-137, Sr-85, Sr-90, and Ru-106. Transport in undisturbed soils and experimental systems like lysimeters and columns in laboratories are dealt with. The soils involved cover a large range of soils, e. g. podsols, cambisols (FAO), and peaty soils. Different speciations are covered, namely ions, aerosols, and fuel particles. Time series analysis centres around the Weibull-distribution. All theoretical models failed to forecast the transport of radionuclides. It can be shown that the parameters D and v, the dispersion coefficient and the advection velocity, appearing in solutions of the advection-dispersion equation (ADE), have no real physical meaning. They are just fitting parameters. The calculation of primary photon fluence rates, caused by Cs-137 in the soil, stresses the unreliability of forecasts based on theoretical models.
Time series archives of remotely sensed data offer many possibilities to observe and analyse dynamic environmental processes at the Earth- surface. Based on these hypertemporal archives, which offer continuous observations of vegetation indices, typically at repetition rates from one to two weeks, sets of phenological parameters or metrics can be derived. Examples of such parameters are the beginning and end of the annual growing period, as well as its length. Even though these parameters do not correspond exactly to conventional observations of phenological events, they nevertheless provide indications of the dynamic processes occurring in the biosphere. The development of robust algorithms for the derivation of phenological metrics can be challenging. Currently, such algorithms are most commonly based on digital filters or the Fourier analysis of time series. Polynomial spline models offer a useful alternative to existing methods. The possibilities of using spline models in the analytical description of time series are numerous, and their specific mathematical properties may help to avoid known problems occurring with the more common methods for deriving phenological metrics. Based on a selection of different polynomial spline models suitable for the analysis of remotely sensed time series of vegetation indices, a method to derive various phenological parameters from such time series was developed and implemented in this work. Using an example data set from an intensively used agricultural area showing highly dynamic variations in vegetation phenology, the newly developed method was verified by a comparison of the results of the spline based approach to the results of two alternative, well established methods.
The subject of this thesis is a homological approach to the splitting theory of PLS-spaces, i.e. to the question for which topologically exact short sequences 0->X->Y->Z->0 of PLS-spaces X,Y,Z the right-hand map admits a right inverse. We show that the category (PLS) of PLS-spaces and continuous linear maps is an additive category in which every morphism admits a kernel and a cokernel, i.e. it is pre-abelian. However, we also show that it is neither quasi-abelian nor semi-abelian. As a foundation for our homological constructions we show the more general result that every pre-abelian category admits a largest exact structure in the sense of Quillen. In the pre-abelian category (PLS) this exact structure consists precisely of the topologically exact short sequences of PLS-spaces. Using a construction of Ext-functors due to Yoneda, we show that one can define for each PLS-space A and every natural number k the k-th abelian-group valued covariant and contravariant Ext-functors acting on the category (PLS) of PLS-spaces, which induce for every topologically exact short sequence of PLS-spaces a long exact sequence of abelian groups and group morphisms. These functors are studied in detail and we establish a connection between the Ext-functors of PLS-spaces and the Ext-functors for LS-spaces. Through this connection we arrive at an analogue of a result for Fréchet spaces which connects the first derived functor of the projective limit with the first Ext-functor and also gives sufficient conditions for the vanishing of the higher Ext-functors. Finally, we show that Ext^k(E,F) = 0 for a k greater or equal than 1, whenever E is a closed subspace and F is a Hausdorff-quotient of the space of distributions, which generalizes a result of Wengenroth that is itself a generalization of results due to Domanski and Vogt.
This literature review was conducted to identify important wetlands in the Greater Accra Region and to illustrate dominant research trends, prevailing perspectives and corresponding research gaps. Six wetlands systems were identified as most significant lagoon systems, namely the Densu Delta, Sakumo, Muni-Pomadze, Keta, Korle and Songor Lagoons. Research foci for each of the respective wetlands were extrapolated and summarized in a category system. The frequency of different categories illustrates that natural science’s perspectives dominate, as most of Accra’s lagoons have been studied with regard to their ecological, physical and chemical properties. The development of research interest over time and focus on ecological baseline conditions are related to the designation of Ramsar Sites and orientation of national policies towards environmental protection. A research gap was identified, as studies link their findings to human activities but neglect the connection between governance variables and environmental developments. It is suggested to expand the natural science’s perspective on Accra’s wetlands to account for social and political aspects in order to develop a holistic and more sustainable management strategy.
The goal of this thesis is to transfer the logarithmic barrier approach, which led to very efficient interior-point methods for convex optimization problems in recent years, to convex semi-infinite programming problems. Based on a reformulation of the constraints into a nondifferentiable form this can be directly done for convex semi- infinite programming problems with nonempty compact sets of optimal solutions. But, by means of an involved max-term this reformulation leads to nondifferentiable barrier problems which can be solved with an extension of a bundle method of Kiwiel. This extension allows to deal with inexact objective values and subgradient information which occur due to the inexact evaluation of the maxima. Nevertheless we are able to prove similar convergence results as for the logarithmic barrier approach in the finite optimization. In the further course of the thesis the logarithmic barrier approach is coupled with the proximal point regularization technique in order to solve ill-posed convex semi-infinite programming problems too. Moreover this coupled algorithm generates sequences converging to an optimal solution of the given semi-infinite problem whereas the pure logarithmic barrier only produces sequences whose accumulation points are such optimal solutions. If there are certain additional conditions fulfilled we are further able to prove convergence rate results up to linear convergence of the iterates. Finally, besides hints for the implementation of the methods we present numerous numerical results for model examples as well as applications in finance and digital filter design.
Determining the exact position of a forest inventory plot—and hence the position of the sampled trees—is often hampered by a poor Global Navigation Satellite System (GNSS) signal quality beneath the forest canopy. Inaccurate geo-references hamper the performance of models that aim to retrieve useful information from spatially high remote sensing data (e.g., species classification or timber volume estimation). This restriction is even more severe on the level of individual trees. The objective of this study was to develop a post-processing strategy to improve the positional accuracy of GNSS-measured sample-plot centers and to develop a method to automatically match trees within a terrestrial sample plot to aerial detected trees. We propose a new method which uses a random forest classifier to estimate the matching probability of each terrestrial-reference and aerial detected tree pair, which gives the opportunity to assess the reliability of the results. We investigated 133 sample plots of the Third German National Forest Inventory (BWI, 2011"2012) within the German federal state of Rhineland-Palatinate. For training and objective validation, synthetic forest stands have been modeled using the Waldplaner 2.0 software. Our method has achieved an overall accuracy of 82.7% for co-registration and 89.1% for tree matching. With our method, 60% of the investigated plots could be successfully relocated. The probabilities provided by the algorithm are an objective indicator of the reliability of a specific result which could be incorporated into quantitative models to increase the performance of forest attribute estimations.
Die vorliegende Meta-Analyse zeigt eindeutig, dass von Familienmitgliedern geführte Familienunternehmen eine schlechtere Performance aufweisen als Unternehmen, die von Managern geleitet werden, die der Inhaberfamilie nicht angehören. Basierend auf uni- und multivariaten Analysen von 270 wissenschaftlichen Publikationen aus 42 verschiedenen Ländern, wurde die Performance von Familienunternehmen im Vergleich zu Nicht-Familienunternehmen untersucht. Das erste robuste Ergebnis zeigt eindeutig, dass Familienunternehmen hinsichtlich der Performance Nicht-Familienunternehmen übertreffen. Dieses Ergebnis ist im Einklang mit den meisten Primärstudien und früheren Meta-Analysen. Das zweite Ergebnis dieser Arbeit kann dem "Finance"-Forschungszweig zugeordnet werden und basiert auf der Unterscheidung von Markt- und Accounting-Performance-Kennzahlen. Markt-Performance-Kennzahlen, welche durch Analysten errechnet werden, zeigen, dass Familienunternehmen Nicht-Familienunternehmen hinsichtlich der Performance unterlegen sind. Dieses Ergebnis steht im Gegensatz zu den Accounting-Performance-Kennzahlen, welche von den Familienunternehmen selbst in ihren von Wirtschaftsprüfern freigegebenen Bilanzen veröffentlicht wurden. Die dritte Forschungsfrage untersucht im Detail, ob die Zusammensetzung des Datensatzes in Primärstudien das Gesamtergebnis in eine bestimmte Richtung verzerrt. Das Ergebnis wird nicht durch Datensätzen mit Unternehmen, welche öffentlich gelistet, im produzieren Gewerbe tätig oder Technologie getriebene Unternehmen, sind getrieben. Kleine und Mittlere Unternehmen (KMU) veröffentlichen kleinere Kennzahlen und reduzieren somit die Höhe der abhängigen Variable. Das vierte Ergebnis gibt eine Übersicht über die Art und Weise der Beteiligung der Familie an der Aufsicht oder dem operativen Geschäft des Unternehmens. Dieses Ergebnis zeigt klar, dass Manager aus Familien einen signifikanten negativen Einfluss auf die Performance des Unternehmens haben. Dies kann auf die Erhaltung des Wohlstandes der Familienmitglieder zurückzuführen sein und somit spielen finanzielle Kennzahlen keine vordergründige Rolle. Die letzte Forschungsfrage untersucht, ob die Performance von Familienunternehmen im Vergleich zu Nicht-Familienunternehmen auch durch institutionelle Faktoren beeinflusst wird. In Europa zeigen die Familienunternehmen im Vergleich zu Nordamerika eine geringere Performance hinsichtlich der Kennzahlen. Das ist darauf zurückzuführen, dass europäische Unternehmen im Vergleich zu nordamerikanischen unterbewertet sind (Caldwell, 07.06.2014). Darüber hinaus zeigen Familienunternehmen im Vergleich zu Nicht-Familienunternehmen eine bessere Performance in eher maskulin geprägten Kulturen. Maskulinität, ist nach Hofstede, gekennzeichnet durch höhere Wettbewerbsorientierung, Selbstbewusstsein, Streben nach Wohlstand und klar differenzierte Geschlechterrollen. Rechtsregime hingegen (Common- oder Civil-Law) spielen im Performance-Zusammenhang von Familienunternehmen keine Rolle. Die Durchsetzbarkeit der Gesetze hat jedoch einen signifikanten positiven Einfluss auf die Performance von Familienunternehmen im Vergleich zu Nicht-Familienunternehmen. Dies ist damit zu begründen, dass die Kosten für Kredite in Länder mit einer sehr guten Durchsetzbarkeit von Gesetzen für Familienunternehmen geringer sind.
A matrix A is called completely positive if there exists an entrywise nonnegative matrix B such that A = BB^T. These matrices can be used to obtain convex reformulations of for example nonconvex quadratic or combinatorial problems. One of the main problems with completely positive matrices is checking whether a given matrix is completely positive. This is known to be NP-hard in general. rnrnFor a given matrix completely positive matrix A, it is nontrivial to find a cp-factorization A=BB^T with nonnegative B since this factorization would provide a certificate for the matrix to be completely positive. But this factorization is not only important for the membership to the completely positive cone, it can also be used to recover the solution of the underlying quadratic or combinatorial problem. In addition, it is not a priori known how many columns are necessary to generate a cp-factorization for the given matrix. The minimal possible number of columns is called the cp-rank of A and so far it is still an open question how to derive the cp-rank for a given matrix. Some facts on completely positive matrices and the cp-rank will be given in Chapter 2. Moreover, in Chapter 6, we will see a factorization algorithm, which, for a given completely positive matrix A and a suitable starting point, computes the nonnegative factorization A=BB^T. The algorithm therefore returns a certificate for the matrix to be completely positive. As introduced in Chapter 3, the fundamental idea of the factorization algorithm is to start from an initial square factorization which is not necessarily entrywise nonnegative, and extend this factorization to a matrix for which the number of columns is greater than or equal to the cp-rank of A. Then it is the goal to transform this generated factorization into a cp-factorization. This problem can be formulated as a nonconvex feasibility problem, as shown in Section 4.1, and solved by a method which is based on alternating projections, as proven in Chapter 6. On the topic of alternating projections, a survey will be given in Chapter 5. Here we will see how to apply this technique to several types of sets like subspaces, convex sets, manifolds and semialgebraic sets. Furthermore, we will see some known facts on the convergence rate for alternating projections between these types of sets. Considering more than two sets yields the so called cyclic projections approach. Here some known facts for subspaces and convex sets will be shown. Moreover, we will see a new convergence result on cyclic projections among a sequence of manifolds in Section 5.4. In the context of cp-factorizations, a local convergence result for the introduced algorithm will be given. This result is based on the known convergence for alternating projections between semialgebraic sets. To obtain cp-facrorizations with this first method, it is necessary to solve a second order cone problem in every projection step, which is very costly. Therefore, in Section 6.2, we will see an additional heuristic extension, which improves the numerical performance of the algorithm. Extensive numerical tests in Chapter 7 will show that the factorization method is very fast in most instances. In addition, we will see how to derive a certificate for the matrix to be an element of the interior of the completely positive cone. As a further application, this method can be extended to find a symmetric nonnegative matrix factorization, where we consider an additional low-rank constraint. Here again, the method to derive factorizations for completely positive matrices can be used, albeit with some further adjustments, introduced in Section 8.1. Moreover, we will see that even for the general case of deriving a nonnegative matrix factorization for a given rectangular matrix A, the key aspects of the completely positive factorization approach can be used. To this end, it becomes necessary to extend the idea of finding a completely positive factorization such that it can be used for rectangular matrices. This yields an applicable algorithm for nonnegative matrix factorization in Section 8.2. Numerical results for this approach will suggest that the presented algorithms and techniques to obtain completely positive matrix factorizations can be extended to general nonnegative factorization problems.
Low-level jets (LLJs) are climatological features in polar regions. It is well known that katabatic winds over the slopes of the Antarctic ice sheet are associated with strong LLJs. Barrier winds occurring, e.g., along the Antarctic Peninsula may also show LLJ structures. A few observational studies show that LLJs occur over sea ice regions. We present a model-based climatology of the wind field, of low-level inversions and of LLJs in the Weddell Sea region of the Antarctic for the period 2002–2016. The sensitivity of the LLJ detection on the selection of the wind speed maximum is investigated. The common criterion of an anomaly of at least 2 m/s is extended to a relative criterion of wind speed decrease above and below the LLJ. The frequencies of LLJs are sensitive to the choice of the relative criterion, i.e., if the value for the relative decrease exceeds 15%. The LLJs are evaluated with respect to the frequency distributions of height, speed, directional shear and stability for different regions. LLJs are most frequent in the katabatic wind regime over the ice sheet and in barrier wind regions. During winter, katabatic LLJs occur with frequencies of more than 70% in many areas. Katabatic LLJs show a narrow range of heights (mostly below 200 m) and speeds (typically 10–20 m/s), while LLJs over the sea ice cover a broad range of speeds and heights. LLJs are associated with surface inversions or low-level lifted inversions. LLJs in the katabatic wind and barrier wind regions can last several days during winter. The duration of LLJs is sensitive to the LLJ definition criteria. We propose to use only the absolute criterion for model studies.
A model-based temperature adjustment scheme for wintertime sea-ice production retrievals from MODIS
(2022)
Knowledge of the wintertime sea-ice production in Arctic polynyas is an important requirement for estimations of the dense water formation, which drives vertical mixing in the upper ocean. Satellite-based techniques incorporating relatively high resolution thermal-infrared data from MODIS in combination with atmospheric reanalysis data have proven to be a strong tool to monitor large and regularly forming polynyas and to resolve narrow thin-ice areas (i.e., leads) along the shelf-breaks and across the entire Arctic Ocean. However, the selection of the atmospheric data sets has a large influence on derived polynya characteristics due to their impact on the calculation of the heat loss to the atmosphere, which is determined by the local thin-ice thickness. In order to overcome this methodical ambiguity, we present a MODIS-assisted temperature adjustment (MATA) algorithm that yields corrections of the 2 m air temperature and hence decreases differences between the atmospheric input data sets. The adjustment algorithm is based on atmospheric model simulations. We focus on the Laptev Sea region for detailed case studies on the developed algorithm and present time series of polynya characteristics in the winter season 2019/2020. It shows that the application of the empirically derived correction decreases the difference between different utilized atmospheric products significantly from 49% to 23%. Additional filter strategies are applied that aim at increasing the capability to include leads in the quasi-daily and persistence-filtered thin-ice thickness composites. More generally, the winter of 2019/2020 features high polynya activity in the eastern Arctic and less activity in the Canadian Arctic Archipelago, presumably as a result of the particularly strong polar vortex in early 2020.
The larval stage of the European fire salamander (Salamandra salamandra) inhabits both lentic and lotic habitats. In the latter, they are constantly exposed to unidirectional water flow, which has been shown to cause downstream drift in a variety of taxa. In this study, a closed artificial creek, which allowed us to keep the water flow constant over time and, at the same time, to simulates with predefined water quantities and durations, was used to examine the individual movement patterns of marked larval fire salamanders exposed to unidirectional flow. Movements were tracked by marking the larvae with VIAlpha tags individually and by using downstream and upstream traps. Most individuals showed stationarity, while downstream drift dominated the overall movement pattern. Upstream movements were rare and occurred only on small distances of about 30 cm; downstream drift distances exceeded 10 m (until next downstream trap). The simulated flood events increased drift rates significantly, even several days after the flood simulation experiments. Drift probability increased with decreasing body size and decreasing nutritional status. Our results support the production hypothesis as an explanation for the movements of European fire salamander larvae within creeks.
The presence of sea ice leads in the sea ice cover represents a key feature in polar regions by controlling the heat exchange between the relatively warm ocean and cold atmosphere due to increased fluxes of turbulent sensible and latent heat. Sea ice leads contribute to the sea ice production and are sources for the formation of dense water which affects the ocean circulation. Atmospheric and ocean models strongly rely on observational data to describe the respective state of the sea ice since numerical models are not able to produce sea ice leads explicitly. For the Arctic, some lead datasets are available, but for the Antarctic, no such data yet exist. Our study presents a new algorithm with which leads are automatically identified in satellite thermal infrared images. A variety of lead metrics is used to distinguish between true leads and detection artefacts with the use of fuzzy logic. We evaluate the outputs and provide pixel-wise uncertainties. Our data yield daily sea ice lead maps at a resolution of 1 km2 for the winter months November– April 2002/03–2018/19 (Arctic) and April–September 2003–2019 (Antarctic), respectively. The long-term average of the lead frequency distributions show distinct features related to bathymetric structures in both hemispheres.
Die Dissertation beschäftigt sich mit einer neuartigen Art von Branch-and-Bound Algorithmen, deren Unterschied zu klassischen Branch-and-Bound Algorithmen darin besteht, dass
das Branching durch die Addition von nicht-negativen Straftermen zur Zielfunktion erfolgt
anstatt durch das Hinzufügen weiterer Nebenbedingungen. Die Arbeit zeigt die theoretische Korrektheit des Algorithmusprinzips für verschiedene allgemeine Klassen von Problemen und evaluiert die Methode für verschiedene konkrete Problemklassen. Für diese Problemklassen, genauer Monotone und Nicht-Monotone Gemischtganzzahlige Lineare Komplementaritätsprobleme und Gemischtganzzahlige Lineare Probleme, präsentiert die Arbeit
verschiedene problemspezifische Verbesserungsmöglichkeiten und evaluiert diese numerisch.
Weiterhin vergleicht die Arbeit die neue Methode mit verschiedenen Benchmark-Methoden
mit größtenteils guten Ergebnissen und gibt einen Ausblick auf weitere Anwendungsgebiete
und zu beantwortende Forschungsfragen.
Two areas were selected to represent major process regimes of Mediterranean rangelands. In the County of Lagads (Greece), situated east of the city of Thessaloniki, livestock grazing with sheep and goats is a major factor of the rural economy. In suitable areas, it is complemented by agricultural use. The region of Ayora (Spain) is located west of the city of Valencia. It is one of regions most affected by fires in Spain. First of all, long time series of satellite data were compiled for both regions on the basis of Landsat sensors, which cover the time until 1976 (Ayora) and 1984 (Lagadas) with one image per year. Using a rigorous processing scheme, the data were geometrically and radiometrically corrected Specific attention was given to an exact sensor calibration, the radiometric intercalibration of Landsat-TM and "MSS. Proportional cover of photosynthetically active vegetation was identified as a suitable quantitative indicator for assessing the state of rangelands. Using Spectral Mixture Analysis (SMA) it was inferred for all data sets. The extensive data base procured this way enabled to map fire events in the Ayora area based on sequential diachronic sets and provide fire dates, perimeter as well as fire recurrence for each pixel. The increasing fire frequency in the past decades is in large parts attributed to the accelerated abandonment of the area that leads to an encroachment of shrublands and the accumulation of combustible biomass. On the basis of the fire mapping results, a spatial and temporal stratification of the data set allowed to asses plant recovery dynamics on the landscape level through linear trend analysis. The long history of fire events in the Mediterranean frequently leads to processes of auto-succession. Following an initial dominance of herbaceous vegetation this commonly leads to similar plant communities as the ones present before the fire. On a temporal axis, this results in typical exponential post-fire trajectories which could also be shown in this study. The analysis of driving factors for post-fire dynamics confirmed the importance of aspect and slope. Locations with lower amounts of solar irradiation and favourable water supply yielded faster recovery rates and higher post-fire vegetation cover levels. In most cases, the vegetation cover levels observed before the fire were not reached within the post-fire observation period. In the area of Lagadas, linear trend analysis and additional statistical parameters were used to infer a degradation index. This could be used to illustrate a complex pattern of stability, regeneration and degradation of vegetation cover. These different processes and states are found in close proximity and are clearly determined by topography and elevation. Following a sequence of analyses, it was found that in particular steep, narrow valleys show positive trends, while negative trends are more abundant on plain or gently undulating areas. Considering the local grazing regime, this spatial differentiation was related to the accessibility of specific locations. Subsequently, animal numbers on community level were used to calculate efficient stocking rates and assess the temporal development of their relation with vegetation cover. This calculation of temporal trajectories illustrated that only some communities show the expected negative relation. To the contrary, a positive relation or even changing relation patterns are observed. This signifies recent concentration and intensification processes in the grazing scheme, as a result of which animals are kept in sheds, where additional feedstuffs are provided. In these cases, free roaming of livestock animals is often confined to some hours every day, which explains the spatial preference of easily accessible areas by the shepherds. Beyond these temporal trends, it was analysed whether the grazing pattern is equally reflected in a spatial trend. Making use of available geospatial information layers, the efforts required to reach each location was expressed as a cost. Then, cost zones could be defined and woody vegetation cover as a grazing indicator could be inferred for the different zones. Animal sheds were employed as starting features for this piospheric analysis, which could be mapped from very high spatial resolution Quickbird image data. The result was a clearly structured gradient showing increasing woody vegetation cover with increasing cost distance. On the basis of these two pilot studies, the elements of a monitoring and interpretation framework identified at the beginning of the work were evaluated and a formal interpretation scheme was presented.
A satellite-based climatology of wind-induced surface temperature anomalies for the Antarctic
(2019)
It is well-known that katabatic winds can be detected as warm signatures in the surface temperature over the slopes of the Antarctic ice sheets. For appropriate synoptic forcing and/or topographic channeling, katabatic surges occur, which result in warm signatures also over adjacent ice shelves. Moderate Resolution Imaging Spectroradiometer (MODIS) ice surface temperature (IST) data are used to detect warm signatures over the Antarctic for the winter periods 2002–2017. In addition, high-resolution (5 km) regional climate model data is used for the years of 2002 to 2016. We present a case study and a climatology of wind-induced IST anomalies for the Ross Ice Shelf and the eastern Weddell Sea. The IST anomaly distributions show maxima around 10–15K for the slopes, but values of more than 25K are also found. Katabatic surges represent a strong climatological signal with a mean warm anomaly of more than 5K on more than 120 days per winter for the Byrd Glacier and the Nimrod Glacier on the Ross Ice Shelf. The mean anomaly for the Brunt Ice Shelf is weaker, and exceeds 5K on about 70 days per winter. Model simulations of the IST are compared to the MODIS IST, and show a very good agreement. The model data show that the near-surface stability is a better measure for the response to the wind than the IST itself.
This paper describes the concept of the hyperspectral Earth-observing thermal infrared (TIR) satellite mission HiTeSEM (High-resolution Temperature and Spectral Emissivity Mapping). The scientific goal is to measure specific key variables from the biosphere, hydrosphere, pedosphere, and geosphere related to two global problems of significant societal relevance: food security and human health. The key variables comprise land and sea surface radiation temperature and emissivity, surface moisture, thermal inertia, evapotranspiration, soil minerals and grain size components, soil organic carbon, plant physiological variables, and heat fluxes. The retrieval of this information requires a TIR imaging system with adequate spatial and spectral resolutions and with day-night following observation capability. Another challenge is the monitoring of temporally high dynamic features like energy fluxes, which require adequate revisit time. The suggested solution is a sensor pointing concept to allow high revisit times for selected target regions (1"5 days at off-nadir). At the same time, global observations in the nadir direction are guaranteed with a lower temporal repeat cycle (>1 month). To account for the demand of a high spatial resolution for complex targets, it is suggested to combine in one optic (1) a hyperspectral TIR system with ~75 bands at 7.2"12.5 -µm (instrument NEDT 0.05 K"0.1 K) and a ground sampling distance (GSD) of 60 m, and (2) a panchromatic high-resolution TIR-imager with two channels (8.0"10.25 -µm and 10.25"12.5 -µm) and a GSD of 20 m. The identified science case requires a good correlation of the instrument orbit with Sentinel-2 (maximum delay of 1"3 days) to combine data from the visible and near infrared (VNIR), the shortwave infrared (SWIR) and TIR spectral regions and to refine parameter retrieval.
Measurements of the atmospheric boundary layer (ABL) structure were performed for three years (October 2017–August 2020) at the Russian observatory “Ice Base Cape Baranova” (79.280° N, 101.620° E) using SODAR (Sound Detection And Ranging). These measurements were part of the YOPP (Year of Polar Prediction) project “Boundary layer measurements in the high Arctic” (CATS_BL) within the scope of a joint German–Russian project. In addition to SODAR-derived vertical profiles of wind speed and direction, a suite of complementary measurements at the observatory was available. ABL measurements were used for verification of the regional climate model COSMO-CLM (CCLM) with a 5 km resolution for 2017–2020. The CCLM was run with nesting in ERA5 data in a forecast mode for the measurement period. SODAR measurements were mostly limited to wind speeds <12 m/s since the signal was often lost for higher winds. The SODAR data showed a topographical channeling effect for the wind field in the lowest 100 m and some low-level jets (LLJs). The verification of the CCLM with near-surface data of the observatory showed good agreement for the wind and a negative bias for the 2 m temperature. The comparison with SODAR data showed a positive bias for the wind speed of about 1 m/s below 100 m, which increased to 1.5 m/s for higher levels. In contrast to the SODAR data, the CCLM data showed the frequent presence of LLJs associated with the topographic channeling in Shokalsky Strait. Although SODAR wind profiles are limited in range and have a lot of gaps, they represent a valuable data set for model verification. However, a full picture of the ABL structure and the climatology of channeling events could be obtained only with the model data. The climatological evaluation showed that the wind field at Cape Baranova was not only influenced by direct topographic channeling under conditions of southerly winds through the Shokalsky Strait but also by channeling through a mountain gap for westerly winds. LLJs were detected in 37% of all profiles and most LLJs were associated with channeling, particularly LLJs with a jet speed ≥ 15 m/s (which were 29% of all LLJs). The analysis of the simulated 10 m wind field showed that the 99%-tile of the wind speed reached 18 m/s and clearly showed a dipole structure of channeled wind at both exits of Shokalsky Strait. The climatology of channeling events showed that this dipole structure was caused by the frequent occurrence of channeling at both exits. Channeling events lasting at least 12 h occurred on about 62 days per year at both exits of Shokalsky Strait.
Abenteuer Sprache: Spanisch und Französisch im Kontakt mit amerikanischen Ureinwohnersprachen
(2006)
Sprache - ein Abenteuer?! Spanisch und Französisch - beide romanischen Sprachen sind in Amerika mit Ureinwohnersprachen in Kontakt getreten. In der vorliegenden Dissertation wird der Sprachkontakt zwischen Spanisch und den Maya-Sprachen (Maya yucateco) mit dem Kontakt zwischen Französisch und den Algonkin-Sprachen (Montagnais) vergleichend untersucht. Besondere Schwerpunkte bilden dabei die ersten Kontakte, die Fixierung der Ureinwohnersprachen durch die Europäer und die bis heute in Yucatán und Québec spürbaren linguistischen Konsequenzen dieser europäisch-indigenen Sprachdurchdringung. Obwohl der Einfluss der genannten Ureinwohnersprachen auf die beiden romanischen Sprachen insgesamt gesehen für relativ gering gehalten wird, stellt er einen wichtigen und interessanten Aspekt bei der Sprachbetrachtung dar. Ohne das Werk der europäischen Missionare hätte die Reichhaltigkeit der indigenen Sprachen nicht bis zum heutigen Tage lebendig gehalten werden können. Wir verdanken ihnen die ersten "sprachwissenschaftlichen Abhandlungen, mit denen sie einen beachtlichen Beitrag für die Linguistik geleistet haben, auch wenn dieser von Zeit zu Zeit sehr kontrovers diskutiert wird. Der vermutete Überhang an Indigenismen im heutigen amerikanischen Spanisch kann im Anschluss an meine Untersuchungen bestätigt werden. Während im Französischen Québecs die Entlehnungen aus dem Montagnais vorwiegend im Bereich der Flora und Fauna anzutreffen sind, hat sich im yukatekischen Spanisch im Raum Mérida eine Art "Regionalcode" herausgebildet, der etliche Einflüsse aus dem Maya yucateco enthält. Die Reise der beiden Sprachen über den Ozean, die Kontaktaufnahme ihrer Sprecher, die Arbeit der Missionare und die Ergebnisse des Sprachkontakts sind in jeder Hinsicht so abenteuerlich wie eine Reise in die untersuchten Sprachgebiete!
Die vorliegende Arbeit entstand im Rahmen des EU INTERREG NWE IVB Projektes "ForeStClim - Transnational Forestry Management Strategies in Response to Regional Climate Change Impacts". Zum Zweck der Verbesserung des Prozessverständnisses von Abflussprozessen in Wäldern sowie zur Validierung und Weiterentwicklung eines GIS-basierten Tools (GIS-DRP) zur Erstellung von Abflussprozesskarten wurden auf 25 Test-Plots in vier Einzugsgebieten in Rheinland-Pfalz und dem Großherzogtum Luxemburg boden-hydrologische Untersuchungen durchgeführt. Auf Grundlage dieser Untersuchungen konnten große intraspezifische Unterschiede im Abflussverhalten von Waldstandorten erhoben werden. Die Differenzen werden dabei hauptsächlich durch das Substrat, die bodenphysikalischen Eigenschaften, die Nutzung bzw. deren Intensität und die Vorfeuchte bedingt. Es wurde nachgewiesen, dass Wälder generell hohe Infiltrationsraten aufweisen und verzögerte Zwischenabflussprozesse begünstigen. Durch einen prinzipiell naturnahen Waldbau und etwaige Meliorationsmaßnahmen auf Niederertragsstandorten bestehen zudem Möglichkeiten positiv auf die Wasserretention und das Wasserspeichervermögen eines Forstbestandes einzuwirken. Die mittels GIS-DRP erstellten Abflussprozesskarten der vier Testgebiete wurden durch die Ergebnisse der Geländeuntersuchungen sowie der Abflussprozesskartierung nach SCHERRER (2006) validiert. Hierdurch wurden für die Abflussgenerierung wichtige Parameter ermittelt und Optimierungsansätze erarbeitet, welche anschließend in GIS-DRP implementiert werden konnten. Verschlämmungsprozesse auf Ackerflächen können nun durch das modifizierte GIS-DRP-Werkzeug identifiziert werden. Zudem war es möglich, Extrem-Ereignis basierte Abflussprozesskarten zu etablieren, die Hot Spots der Abflussgenerierung identifizieren können. Die Einführung des Abflussprozesses "dSSF" (tiefer Zwischenabfluss) wurde durch eine neue Klassifizierung des geologischen Ausgangssubstrates erreicht. Forstwirten und Entscheidungsträgern im Waldmanagement wird somit die Möglichkeit geboten, Expertenwissen in ihre Planungen einfließen zu lassen. Hierdurch kann zum einen positiv auf den Landschaftswasserhaushalt eingewirkt werden, da gezielt auf Flächen nachteiliger Abflussbildung geeignete Maßnahmen des dezentralen Hochwasserschutzes angewandt werden können. Zum anderen werden Potentiale für bestmögliche Waldwachstumsvoraussetzungen in einem Landschaftsraum aufgezeigt. Der nachhaltigen Nutzung von Wäldern wird somit auch im Kontext des Klimawandels Rechnung getragen.
Ability self-concept (SC) and self-efficacy (SE) are central competence-related self-perceptions that affect students’ success in educational settings. Both constructs show conceptual differences but their empirical differentiation in higher education has not been sufficiently demonstrated. In the present study, we investigated the empirical differentiation of SC and SE in higher education with N = 1,243 German psychology students (81% female; age M = 23.62 years), taking into account central methodological requirements that, in part, have been neglected in prior studies. SC and SE were assessed at the same level of specificity, only cognitive SC items were used, and multiple academic domains were considered. We modeled the structure of SC and SE taking into account a multidimensional and/or hierarchical structure and investigated the empirical differentiation of both constructs on different levels of generality (i.e., domain-specific and domain-general). Results supported the empirical differentiation of SC and SE with medium-sized positive latent correlations (range r = .57 - .68) between SC and SE on different levels of generality. The knowledge about the internal structure of students’ SC and SE and the differentiation of both constructs can help us to develop construct-specific and domain-specific intervention strategies. Future empirical comparisons of the predictive power of SC and SE can provide further evidence that both represent empirical different constructs.
The following dissertation contains three studies examining academic boredom development in five high-track German secondary schools (AVG-project data; Study 1: N = 1,432; Study 2: N = 1,861; Study 3: N = 1,428). The investigation period spanned 3.5 years, with four waves of measurement from grades 5 to 8 (T1: 5th grade, after transition to secondary school; T2: 5th grade, after mid-term evaluations; T3: 6th grade, after mid-term evaluations; T4: 8th grade, after mid-term evaluations). All three studies featured cross-sectional and longitudinal analyses, separating, and comparing the subject domains of mathematics and German.
Study 1 provided an investigation of academic boredom’s factorial structure alongside correlational and reciprocal relations of different forms of boredom and academic self-concept. Analyses included reciprocal effects models and latent correlation analyses. Results indicated separability of boredom intensity, boredom due to underchallenge and boredom due to overchallenge, as separate, correlated factors. Evidence for reciprocal relations between boredom and academic self-concept was limited.
Study 2 examined the effectiveness and efficacy of full-time ability grouping for as a boredom intervention directed at the intellectually gifted. Analyses included propensity score matching, and latent growth curve modelling. Results pointed to limited effectiveness and efficacy for full-time ability grouping regarding boredom reduction.
Study 3 explored gender differences in academic boredom development, mediated by academic interest, academic self-concept, and previous academic achievement. Analyses included measurement invariance testing, and multiple-indicator-multi-cause-models. Results showed one-sided gender differences, with boys reporting less favorable boredom development compared to girls, even beyond the inclusion of relevant mediators.
Findings from all three studies were embedded into the theoretical framework of control-value theory (Pekrun, 2006; 2019; Pekrun et al., 2023). Limitations, directions for future research, and practical implications were acknowledged and discussed.
Overall, this dissertation yielded important insights into boredom’s conceptual complexity. This concerned factorial structure, developmental trajectories, interrelations to other learning variables, individual differences, and domain specificities.
Keywords: Academic boredom, boredom intensity, boredom due to underchallenge, boredom due to overchallenge, ability grouping, gender differences, longitudinal data analysis, control-value theory
Aider les jeunes à s’exprimer constitue un volet important de l’éducation à la démocratie. Dans ce contexte, une des méthodes consiste à laisser les jeunes concevoir les médias qu’ils/elles connaissent le mieux. Cet article examine essentiellement comment mettre en relation le travail de projet créatif avec les médias numériques, et plus précisément, le smartphone.
Acute social and physical stress interact to influence social behavior: the role of social anxiety
(2018)
Stress is proven to have detrimental effects on physical and mental health. Due to different tasks and study designs, the direct consequences of acute stress have been found to be wide-reaching: while some studies report prosocial effects, others report increases in antisocial behavior, still others report no effect. To control for specific effects of different stressors and to consider the role of social anxiety in stress-related social behavior, we investigated the effects of social versus physical stress on behavior in male participants possessing different levels of social anxiety. In a randomized, controlled two by two design we investigated the impact of social and physical stress on behavior in healthy young men. We found significant influences on various subjective increases in stress by physical and social stress, but no interaction effect. Cortisol was significantly increased by physical stress, and the heart rate was modulated by physical and social stress as well as their combination. Social anxiety modulated the subjective stress response but not the cortisol or heart rate response. With respect to behavior, our results show that social and physical stress interacted to modulate trust, trustworthiness, and sharing. While social stress and physical stress alone reduced prosocial behavior, a combination of the two stressor modalities could restore prosociality. Social stress alone reduced nonsocial risk behavior regardless of physical stress. Social anxiety was associated with higher subjective stress responses and higher levels of trust. As a consequence, future studies will need to investigate further various stressors and clarify their effects on social behavior in health and social anxiety disorders.
Energy transport networks are one of the most important infrastructures for the planned energy transition. They form the interface between energy producers and consumers and their features make them good candidates for the tools that mathematical optimization can offer. Nevertheless, the operation of energy networks comes with two major challenges. First, the nonconvexity of the equations that model the physics in the network render the resulting problems extremely hard to solve for large-scale networks. Second, the uncertainty associated to the behavior of the different agents involved, the production of energy, and the consumption of energy make the resulting problems hard to solve if a representative description of uncertainty is to be considered.
In this cumulative dissertation we study adaptive refinement algorithms designed to cope with the nonconvexity and stochasticity of equations arising in energy networks. Adaptive refinement algorithms approximate the original problem by sequentially refining the model of a simpler optimization problem. More specifically, in this thesis, the focus of the adaptive algorithm is on adapting the discretization and description of a set of constraints.
In the first part of this thesis, we propose a generalization of the different adaptive refinement ideas that we study. We sequentially describe model catalogs, error measures, marking strategies, and switching strategies that are used to set up the adaptive refinement algorithm. Afterward, the effect of the adaptive refinement algorithm on two energy network applications is studied. The first application treats the stationary operation of district heating networks. Here, the strength of adaptive refinement algorithms for approximating the ordinary differential equation that describes the transport of energy is highlighted. We introduce the resulting nonlinear problem, consider network expansion, and obtain realistic controls by applying the adaptive refinement algorithm. The second application concerns quantile-constrained optimization problems and highlights the ability of the adaptive refinement algorithm to cope with large scenario sets via clustering. We introduce the resulting mixed-integer linear problem, discuss generic solution techniques, make the link with the generalized framework, and measure the impact of the proposed solution techniques.
The second part of this thesis assembles the papers that inspired the contents of the first part of this thesis. Hence, they describe in detail the topics that are covered and will be referenced throughout the first part.
Bei der Preisberechnung von Finanzderivaten bieten sogenannte Jump-diffusion-Modelle mit lokaler Volatilität viele Vorteile. Aus mathematischer Sicht jedoch sind sie sehr aufwendig, da die zugehörigen Modellpreise mittels einer partiellen Integro-Differentialgleichung (PIDG) berechnet werden. Wir beschäftigen uns mit der Kalibrierung der Parameter eines solchen Modells. In einem kleinste-Quadrate-Ansatz werden hierzu Marktpreise von europäischen Standardoptionen mit den Modellpreisen verglichen, was zu einem Problem optimaler Steuerung führt. Ein wesentlicher Teil dieser Arbeit beschäftigt sich mit der Lösung der PIDG aus theoretischer und vor allem aus numerischer Sicht. Die durch ein implizites Zeitdiskretisierungsverfahren entstandenen, dicht besetzten Gleichungssysteme werden mit einem präkonditionierten GMRES-Verfahren gelöst, was zu beinahe linearem Aufwand bezüglich Orts- und Zeitdiskretisierung führt. Trotz dieser effizienten Lösungsmethode sind Funktionsauswertungen der kleinste-Quadrate-Zielfunktion immer noch teuer, so dass im Hauptteil der Arbeit Modelle reduzierter Ordnung basierend auf Proper Orthogonal Decomposition Anwendung finden. Lokale a priori Fehlerabschätzungen für die reduzierte Differentialgleichung sowie für die reduzierte Zielfunktion, kombiniert mit einem Trust-Region-Ansatz zur Globalisierung liefern einen effizienten Algorithmus, der die Rechenzeit deutlich verkürzt. Das Hauptresultat der Arbeit ist ein Konvergenzbeweis für diesen Algorithmus für eine weite Klasse von Optimierungsproblemen, in die auch das betrachtete Kalibrierungsproblem fällt.
Addition of Phosphogypsum to Fire-Resistant Plaster Panels:
A Physic–Mechanical Investigation
(2023)
Gypsum (GPS) has great potential for structural fire protection and is increasingly used in construction due to its high-water retention and purity. However, many researchers aim to improve its physical and mechanical properties by adding other organic or inorganic materials such as fibers, recycled GPS, and waste residues. This study used a novel method to add non-natural GPS from factory waste (phosphogypsum (PG)) as a secondary material for GPS. This paper proposes to mix these two materials to properly study the effect of PG on the physico-mechanical properties and fire performance of two Tunisian GPSs (GPS1 and GPS2). PG initially replaced GPS at 10, 20, 30, 40, and 50% weight percentage (mixing plan A). The PGs were then washed with distilled water several times. Two more mixing plans were run when the pH of the PG was equal to 2.4 (mixing plan B), and the pH was equal to 5 (mixing plan C). Finally, a comparative study was conducted on the compressive strength, flexural strength, density, water retention, and mass loss levels after 90 days of drying, before/after incineration of samples at 15, 30, 45, and 60 min. The results show that the mixture of GPS1 and 30% PG (mixing plan B) obtained the highest compressive strength (41.31%) and flexural strength (35.03%) compared to the reference sample. The addition of 10% PG to GPS1 (mixing plan A) improved fire resistance (33.33%) and the mass loss (17.10%) of the samples exposed to flame for 60 min compared to GPS2. Therefore, PG can be considered an excellent insulating material, which can increase physico-mechanical properties and fire resistance time of plaster under certain conditions.
Water-deficit stress, usually shortened to water- or drought stress, is one of the most critical abiotic stressors limiting plant growth, crop yield and quality concerning food production. Today, agriculture consumes about 80-90% of the global freshwater used by humans and about two thirds are used for crop irrigation. An increasing world population and a predicted rise of 1.0-2.5-°C in the annual mean global temperature as a result of climate change will further increase the demand of water in agriculture. Therefore, one of the most challenging tasks of our generation is to reduce the amount water used per unit yield to satisfy the second UN Sustainable Development Goal and to ensure global food security. Precision agriculture offers new farming methods with the goal to improve the efficiency of crop production by a sustainable use of resources. Plant responses to water stress are complex and co-occur with other environmental stresses under natural conditions. In general, water stress causes plant physiological and biochemical changes that depend on the severity and the duration of the actual plant water deficit. Stomatal closure is one of the first responses to plant water stress causing a decrease in plant transpiration and thus an increase in plant temperature. Prolonged or severe water stress leads to irreversible damage to the photosynthetic machinery and is associated with decreasing chlorophyll content and leaf structural changes (e.g., leaf rolling). Since a crop can already be irreversibly damaged by only mild water deficit, a pre-visual detection of water stress symptoms is essential to avoid yield loss. Remote sensing offers a non-destructive and spatio-temporal method for measuring numerous physiological, biochemical and structural crop characteristics at different scales and thus is one of the key technologies used in precision agriculture. With respect to the detection of plant responses to water stress, the current state-of-the-art hyperspectral remote sensing imaging techniques are based on measurements of thermal infrared emission (TIR; 8-14 -µm), visible, near- and shortwave infrared reflectance (VNIR/SWIR; 0.4-2.5 -µm), and sun-induced fluorescence (SIF; 0.69 and 0.76 -µm). It is, however, still unclear how sensitive these techniques are with respect to water stress detection. Therefore, the overall aim of this dissertation was to provide a comparative assessment of remotely sensed measures from the TIR, SIF, and VNIR/SWIR domains for their ability to detect plant responses to water stress at ground- and airborne level. The main findings of this thesis are: (i) temperature-based indices (e.g., CWSI) were most sensitive for the detection of plant water stress in comparison to reflectance-based VNIR/SWIR indices (e.g., PRI) and SIF at both, ground- and airborne level, (ii) for the first time, spectral emissivity as measured by the new hyperspectral TIR instrument could be used to detect plant water stress at ground level. Based on these findings it can be stated that hyperspectral TIR remote sensing offers great potential for the detection of plant responses to water stress at ground- and airborne level based on both TIR key variables, surface temperature and spectral emissivity. However, the large-scale application of water stress detection based on hyperspectral TIR measures in precision agriculture will be challenged by several problems: (i) missing thresholds of temperature-based indices (e.g., CWSI) for the application in irrigation scheduling, (ii) lack of current TIR satellite missions with suitable spectral and spatial resolution, (iii) lack of appropriate data processing schemes (including atmosphere correction and temperature emissivity separation) for hyperspectral TIR remote sensing at airborne- and satellite level.
Death is perceived as a severe threat to the self. Although it is certain that everyone has to die, people usually don't think about the finiteness of their life. Everything reminding of death is ignored, rationalized and death-related thoughts and fears are pushed out of mind (TMT; Pyszczynski et al., 1999). However, people differ in their ability to regulate negative affect and to access their self-system (Kuhl, 2001). As death is assumed to arouse existential fears, the ability to regulate such fears is particularly important, higher self-access could be relevant in defending central personal values. This thesis aimed at showing existential fears under mortality salience and effects of self-regulation of affect under mortality salience. In two studies (Chapter 2) implicit negative affect under mortality salience was demonstrated. An additional study (Chapter 3) shows the effects of self-regulation on implicit negative affect, whereas four studies in Chapter 4 displayed differences in self-access under mortality salience depending on people- ability of self-regulating negative affect.
Im Rahmen dieser Arbeit wurde die agrarklimatische und phänologische Situation in der zweiten Hälfte des vergangenen 20. Jahrhunderts für das Mittlere Moseltal am Beispiel der Moselregion im Umfeld der Stadt Bernkastel-Kues ausgewertet. Es konnten erhebliche klimatische und phänologische Veränderungen festgestellt und deren Auswirkungen auf den regionsprägenden Weinbau aufgezeigt werden. Der zeitliche Verlauf der Jahresmittel der Lufttemperatur zeigt eine deutliche Zweiteilung der Entwicklung in den Jahren 1945 bis 2000. Eine Abnahme (- 0.7 K) in der ersten Hälfte und eine deutliche Zunahme (+1.1 K) in der zweiten Hälfte der Zeitreihe. Einen vergleichbaren Verlauf zeigen die Jahresmittel der Tagestemperaturmaxima und -minima. Eine erhebliche Erwärmung lässt sich im April und Mai, August und Oktober und Januar und Dezember beobachten. Die geringsten Veränderungen zeigen Februar, Juli und November. Die Jahresniederschläge lassen keinen Trend im Gesamtabschnitt erkennen. Saisonale Verschiebungen weisen jedoch auf Änderungen in der Niederschlagscharakteristik hin. Die niederschlagsreichste Zeit im Jahr hat sich vom August auf Juni/Juli verschoben (starke Abnahme im August) und der regenärmste Monat vom März auf den Februar. Zunahmen zeigen v. a. September und Oktober. Die Jahressummen der Sonnen-scheindauer zeigen einen starken Rückgang in den Jahren 1945 bis 1981 und eine Trendumkehr in den Jahren bis 2000. Insbesondere der Monat August weist eine starke Zunahme der Sonnenscheindauer auf. Der mittlere jährliche Wachstumsverlauf der Weinrebe beginnt Anfang/Mitte April. Austrieb und Ergrünen folgen bis Mitte Mai. Die Rebe blüht im Durchschnitt zwischen dem 21.6. und 26.6. Mitte Juli sind die Beeren erbsengroß. Das Beerenwachstum und die Fruchtreife dauern in der Regel bis Anfang Oktober. Die Herbsttermine Laubfärbung und Laubfall finden zwischen Mitte Oktober und Anfang November statt. Alle in Bernkastel beobachteten phänologischen Merkmale zeigen eine Vorverlagerung der Eintrittstermine zwischen -6 Tagen und -15 Tagen in den Jahren 1967 bis 2001. Die Beerenentwicklung bzw. Reifephase im Sommer und Frühherbst verlängert sich um rund 10 Tage. Die wärmer gewordenen Monate März und April (geringere Spätfrostgefahr) äußern sich anhand eines früheren Vegetationsbeginns der Rebe. Die wärmeren, trockeneren und sonnenscheinreicheren Monate Mai und Juni führen zu einer erheblichen Vorverlagerung des Blühtermins und zu einer günstigen Verschiebung der Fruchtentwicklungs- und Reifephasen in den trockeneren, wärmeren und strahlungsreicheren Hochsommer. Die optimale Ausreife der Trauben im September und Oktober wird einerseits durch eine Temperaturzunahme gefördert, anderseits durch höhere Niederschlagswerte verzögert oder behindert. Die phänologischen Termine Knospung, Austriebs, Blüte und Reifegrad eignen sich somit hervorra-gend als Indikator für die Veränderung der klimatischen Bedingungen im Jahresverlauf. Ein starker Zusammenhang zwischen den Terminen des Blühbeginns der Rebe mit den Temperaturfaktoren und zwischen dem Reifegrad 60 -°Oe und kumulierten Temperatursummen bzw. den Sonnenscheindauern zwischen Mai und August ist ein weiterer Beleg für die stattgefundenen klimatischen Veränderungen im Mittleren Moseltal besonders in den Monaten März bis Juni und August und Oktober.
Das Grundgesetz ist keine bloße Neuauflage, sondern vielmehr eine Weiterentwicklung der Weimarer Reichsverfassung. Obwohl dem Namen nach gar keine „Verfassung“, wird das Grundgesetz spätestens seit der Wiedervereinigung nicht mehr als vorläufige, sondern als endgültige gesamtdeutsche Verfassung angesehen. Strikte Gewaltenteilung, Rechtsstaatlichkeit, umfassender Grundrechtsschutz und die Einführung der sog. „Ewigkeitsklausel“ (Art. 79 Abs. 3 GG) sind nur einige Elemente, mit denen „Bonn“ korrigierte, was „Weimar“ noch nicht vermochte. Nicht zuletzt die umfangreiche Rechtsprechung des Bundesverfassungsgerichts hat das Grundgesetz zu dem umfassenden Regelwerk gemacht, das nunmehr 70 Jahre ohne eine größere Verfassungskrise überdauert hat.
Die in dieser Ausgabe zusammengefassten Beiträge, die im Mai 2019 im Rahmen einer Festveranstaltung im Rokoko-Saal der Aufsichts- und Dienstleistungsdirektion in Trier gehalten wurden, beleuchten aus unterschiedlichen Perspektiven die Hintergründe der deutschen Verfassungsrechtsgeschichte und bieten eine Bestandsaufnahme über aktuelle Entwicklungen.
Das übergeordnete Ziel dieser Dissertation ist die Untersuchung der aktuellen Geomorphodynamik in den Gullyeinzugsgebieten der Souss-Ebene, Südmarokko. Eine Sonderstellung nehmen besonders in der Taroudant-Region die durch land-levelling Maßnahmen beeinflussten Flächen ein. Anhand von experimentellen Feldmethoden werden verschiedene Prozesse der Bodenerosion aufgenommen und bewertet. Mittels Luftbildmonitoring mit einer Drohne erfolgt eine Analyse des Gullywachstums. Durch eine Zusammenführung der Methodenkombination kann ein Gesamtbild der aktuellen geomorphologischen Prozessdynamik im Souss erstellt werden. Mit Zerfall der Zuckerindustrie Ende des 17. Jahrhunderts setzt im Souss Becken aufgrund der nahezu vollständigen Abholzung der Arganwälder die lineare Bodenerosion ein. Mit der Transformation von traditioneller Landwirtschaft zu modernen Zitrusfrucht- und Gemüseplantagen, beginnt Anfang der 1960er Jahre ein sehr dynamischer Landnutzungswandel. Die Expansion der Anbauflächen, die von Wadi- und Gullysystemen tief zerschnittenen sind, wird durch Planierungsmaßnahmen vorangetrieben. Auf den planierten Flächen entwickeln sich durch die Verdichtung des Bodens, das Entfernen von Vegetationsbedeckung sowie Krustenbildung auf dem schluffig-lehmigen Substrat bei Starkniederschlagsereignissen zumeist erneut Gullys. Die rasche lineare Zerschneidung bedroht weitere Anbauflächen. Eine nachhaltige Entwicklung auf diesen Flächen ist daher fraglich. Durch starke Verschlämmung nach Niederschlägen bilden sich auf den planierten Flächen sehr schnell physikalische Bodenkrusten aus. Ihre Mikromorphologie ist aufgrund der Belastungen mit schwerem Gerät sowie mehrfacher Erosions- und Akkumulationszyklen durch Plattenstruktur und Vesikel geprägt, wodurch die Infiltrationskapazität des Bodens verringert wird. Diese Auswirkungen können durch Messungen mit dem Einringinfiltrometer bestätigt werden. Sie zeigen auf ungestörten Flächen durchschnittlich eine 2,6-fach höhere Infiltrationsrate als auf planierten Flächen. Durch eine Inventarisierung der Bodeneigenschaften und Oberflächencharakteristika kann ihre signifikante Veränderung nach Planierungsmaßnahmen identifiziert werden. So zeigen planierte Flächen hohe Anteile an Bodenverkrustung und wenig Vegetationsbedeckung auf. Ungestörte Flächen sind dagegen weniger verkrustet und stärker mit Vegetation bedeckt. Zudem kann eine Kompaktion der oberen Bodenschicht nachgewiesen werden. Diese Faktoren wirken auf die Oberflächenabflussbildung und den Sedimentabtrag ein. Die Ergebnisse von 122 Niederschlagssimulationen mit einer Kleinberegnungsanlage zeigen einen signifikanten Anstieg der mittleren Oberflächenabflüsse und Sedimentfrachten (1,4-, bzw. 3,5-mal höher) auf planierten im Gegensatz zu ungestörten Testflächen. Mithilfe des Gullymonitorings wird die Entwicklung eines kompletten Gullys durch Starkniederschlagsereignisse auf einer planierten Fläche detektiert. Dabei wird in einem 3,5 ha großen Einzugsgebiet etwa 1080 t Bodenmaterial erodiert. Hier wurde errechnet, dass Gullyerosion für 91 % des gesamten Bodenverlustes im Einzugsgebiet verantwortlich ist. Die Fläche dient nur als Lieferant des Erosionsagens Wasser. Das Verfüllen des ursprünglichen Gullysystems mit Material der umliegenden Hänge führt zu einer Erniedrigung der Geländehöhe von durchschnittlich über 5 cm. Auf ungestörten Flächen wird dagegen nur ein geringes Gullywachstum verzeichnet. Die vorgestellte Methodenkombination lässt eine gezielte Beschreibung der aktuellen Geomorphodynamik in den Einzugsgebieten der Souss-Ebene zu. Durch die land-levelling Maßnahmen wird die Prozessdynamik signifikant erhöht. Eine Verminderung der Vegetationsbedeckung, schnelle Krustenbildung sowie Bodenkompaktion unterstützen hohe Oberflächenabflussbildung und Sedimentabtrag. Durch lineare Konzentration des Abflusses wird rapide Gullyerosion gefördert. Ganze Gullysysteme können sich auf Planierungsflächen durch nur ein einziges Starkniederschlagsereignis ausbilden. Dadurch sind Anbauflächen, Gebäude und Infrastruktur gefährdet.
Sollten Plastikverpackungen verboten werden? Was spricht gegen eine Wahlberechtigung ab 14 Jahren? Wie sollte die EU mit möglichen Auswirkungen des Brexits umgehen? – Auch solche Fragen haben im Klassenrat ihre Berechtigung, denn ihre Diskussion bietet besondere Chancen für demokratische Lernprozesse.
Algorithmen als Richter
(2022)
Die menschliche Entscheidungsgewalt wird durch algorithmische
Entscheidungssysteme herausgefordert. Verfassungsrechtlich besonders
problematisch ist dies in Bereichen, die das staatliche Handeln betreffen.
Eine herausgehobene Stellung nimmt durch den besonderen Schutz der
Art. 92 ff. GG die rechtsprechende Gewalt ein. Lydia Wolff fragt daher danach, welche Antworten das Grundgesetz auf digitale Veränderungen in diesem Bereich bereithält und wie sich ein Eigenwert menschlicher Entscheidungen in der Rechtsprechung angesichts technischen Wandels darstellen lässt.
Das Werk erörtert hierzu einen Beitrag zum verfassungsrechtlichen
Richterbegriff und stellt diesen etablierten Begriff in einen Kontext neuer digitaler Herausforderungen durch algorithmische Konkurrenz.
Ziel der vorliegenden Dissertation war es, in einem gesamtspektralen Porträt als Momentaufnahme darzustellen, welche Themen in den japanischen allgemeinen Tageszeitungen wie strukturiert dargestellt werden und in welcher gestalterischen Form dies geschieht. Anhand einer umfassenden Stichtagssammlung galt es dabei vornehmlich, Antworten auf die Fragen zu finden, ob Unterschiede in der Themenwahl und deren gestalterischer Darstellung auszumachen sind, und welche Grundmuster vorherrschen. Vor allem bezüglich der formalen Gestaltung musste einer Diskussion der bislang nur unzureichend erarbeiteten Grundlagen der japanischen Layout-Theorie gebührender Platz eingeräumt werden. Am Soll-Zustand des Mediums wurde dann im Zuge der genannten Fragestellung mittels einer Kombination von Formstruktur- und Themen- bzw. Themensenquenzanalyse der Stichtagssammlung der Ist-Zustand gemessen. Die Autopsie des Samples ergab große Übereinstimmungen bei der Seitengestaltung. Bezüglich der Themenselektion konnte zudem eine hohe Konveregenz konstatiert werden. Hier kristallisierten sich im Laufe der Betrachtung hauptsächlich zwei Zeitungstypen heraus: als dominierender Typ Erst- bzw. Hauptzeitungen, auflagenstarke nationale und regionale Set- wie Morgenzeitungen, die eine weite Bandbreite von Themen in überwiegend übereinstimmender Sequenz präsentieren, sowie Zweit- bzw. Nebenzeitungen, die nur Teile des Themenspektrums in unterschiedlicher Sequenz vorweisen. Die Analyseergebnisse führen zu dem Schluss, dass im japanischen Zeitungswesen auf breiter Basis ein bisher erfolgreiches Businessmodell kopiert wird und auch im allgegenwärtigen Wettbewerb der regionalen Zeitungen mit den nationalen Blättern nur ansatzweise Abwechslung zu erkennen ist. Die Fortsetzung der traditionellen gestalterischen Form, wie auch die Beibehaltung althergebrachter inhaltlicher Strukturen und thematischer Tendenzen beweisen, dass sich die allgemeinen japanischen Tageszeitungen eindeutig auf die älteren Leser als Zielgruppe konzentrieren und sich so zu einem Seniorenmedium wandeln.
Although gravitropism forces trees to grow vertically, stems have shown to prefer specific orientations. Apart from wind deforming the tree shape, lateral light can result in prevailing inclination directions. In recent years a species dependent interaction between gravitropism and phototropism, resulting in trunks leaning down-slope, has been confirmed, but a terrestrial investigation of such factors is limited to small scale surveys. ALS offers the opportunity to investigate trees remotely. This study shall clarify whether ALS detected tree trunks can be used to identify prevailing trunk inclinations. In particular, the effect of topography, wind, soil properties and scan direction are investigated empirically using linear regression models. 299.000 significantly inclined stems were investigated. Species-specific prevailing trunk orientations could be observed. About 58% of the inclination and 19% of the orientation could be explained by the linear models, while the tree species, tree height, aspect and slope could be identified as significant factors. The models indicate that deciduous trees tend to lean down-slope, while conifers tend to lean leeward. This study has shown that ALS is suitable to investigate the trunk orientation on larger scales. It provides empirical evidence for the effect of phototropism and wind on the trunk orientation.
Alt und Jung im Dialog
(2001)
Besonderheiten, die den intergenerationellen Dialog innerhalb wie auch außerhalb von Familien kennzeichnen, wurden in zwei empirischen Studien untersucht. Im Anschluß an eine umfangreiche Übersicht der einschlägigen Forschungsliteratur werden die Studien präsentiert, in denen Zusammenhänge zwischen Merkmalen dyadischer Beziehungskontexte und Aspekten des Dialogs, der in ihnen stattfindet, explorativ analysiert wurden. In der quasi-experimentellen Studie A wurde geprüft, ob Wahrnehmungen und Bewertungen eines fiktiven intergenerationellen Dialogs in Abhängigkeit seines Beziehungskontexts variieren. Jüngere (M = 22 Jahre; n = 164) und ältere Erwachsene (M = 74 Jahre; n = 139) bearbeiteten Textvignetten, in denen ein Dialog zwischen einer älteren Frau und ihrer Tochter oder aber einer professionellen Altenpflegerin wiedergegeben wurde. Die jüngere Protagonistin zeigte dabei entweder ein bevormundendes oder ein aufgabenorientiertes Sprechverhalten. Das Verhalten einer (fiktiven) Tochter wurde als respektvoller und wertschätzender beurteilt als das einer professionellen Altenpflegerin. Dies galt in der Stichprobe der älteren Erwachsenen vor allem für bevormundendes, in der Stichprobe der jüngeren Erwachsenen für aufgabenorientiertes Sprechverhalten. Im Einklang mit bisherigen Studien urteilten ältere Erwachsene generell milder über die Vignetten als jüngere, und bevormundendes Sprechverhalten wurde negativer bewertet als aufgabenorientiertes. Der Funktionsstatus der älteren Protagonistin erwies sich hingegen als irrelevant für Urteile über das an sie gerichtete Sprechverhalten. In der zweiten, explorativ angelegten Fragebogenstudie B wurden Aspekte der inhaltlichen Gestaltung des intergenerationellen Dialogs und deren systematische Zusammenhänge mit Indikatoren der Qualität intrafamilialer Generationenbeziehungen analysiert. In unabhängigen Stichproben von Erwachsenen im mittleren ("Kinder"; M = 45 Jahre, n = 299) und im höheren Lebensalter ("Eltern"; M = 71 Jahre, n = 244) wurde die perzipierte Häufigkeit erfaßt, mit der 15 ausgewählte Themen (z.B. "politische und gesellschaftliche Fragen", "Lebensführung des Kindes") im Gespräch mit einer der beiden Elternpersonen resp. mit dem ältesten Kind zur Sprache kommen. Aufgrund exploratorischer Faktorenanalysen wurden diese Angaben zu den Dimensionen "Narrativer Austausch" und "Regulativer Austausch" aggregiert. In multivariaten Auswertungen erwies sich ein häufiger narrativer Austausch als charakteristisch für "gute" Eltern-Kind-Beziehungen, die durch Zuneigung und hohe erlebte Wertschätzung seitens der anderen Generation gekennzeichnet waren. Ein häufiger regulativer Austausch deutete hingegen - vor allem in Verbindung mit einem reduzierten narrativen Austausch - auf eine eher konflikthafte Eltern-Kind-Beziehung hin.
Die Auswirkungen von Rahmenfehlern in Zensen werden bereits seit vielen Jahren untersucht. Eine Methode, um aktuelle Bevölkerungszahlen zu gewinnen, basiert auf Fortschreibung. Wegen Ungenauigkeiten in der Fortschreibung wurden aber auch andere Modelle entwickelt - die capture-recapture-Modelle. Am 29. August 2006 hat die Bundesregierung beschlossen, dass in Deutschland 2011 ein registergestützter Zensus durchgeführt wird. Der Schwerpunkt dieser Dissertation liegt in der Anwendung des capture-recapture-Modelles im deutschen Zensus 2011. Die Dissertation vergleicht den dual system estimator (DSE) und alternative Schätzer (Verallgemeinerter-Regressionsschätzer, Verhältnis-synthetischer Schätzer, Schätzer basierend auf dem Unit-level Modell) für die Schätzung der Anzahl der tatsächlich vorhandenen Personen. Die empirische Untersuchung der Güte der Schätzer basiert auf Monte Carlo Simulationen synthetischer Populationen des Bundeslandes Saarland.
In the past twenty years considerable research has focused on the distinction between implicit and explicit measures of retention. In implicit memory tests, subjects are asked to perform a task that is apparently not related to a previous study phase, e.g. to produce category exemplars or to complete word stems. Implicit memory is revealed when the previous exposure to stimuli facilitates later performance in the implicit memory task relative to a nonstudied baseline performance. Implicit memory tests are contrasted with explicit memory tests, such as recall or recognition that require an intentional recollection of previous experiences. So far, only few studies on the development of implicit memory have been published. Despite the relative paucity of research with children, findings have been quite consistent: While explicit memory improves with age, no age differences were found in implicit memory tests. In these studies, however, mainly perceptual implicit memory tests have been employed. In recent studies with adults, dissociations have been observed between different implicit tests, especially between perceptual and conceptual ones. To draw conclusions about the developmental invariance of priming from findings using only one single type of test thus seems premature. In the present study, six experiments have been conducted that compared the memory performances of preschoolers and school-aged children using conceptual implicit tests (category production and word association). Conceptual priming effects rely on conceptual knowledge and conceptual processes (e.g., organization, semantic elaboration). Age-related improvements were found in both conceptual tests. This finding is interpreted in the context of a more elaborated knowledge base and enhanced processing abilities of older children. In contrast to the hypothesis that implicit memory is in general age-invariant, the results of this study suggest that at least conceptual implicit memory is influenced by developmental changes.
Falsche Erinnerungen sind eine Gedächtnisillusion und dadurch gekennzeichnet, dass Ereignisse oder Informationen erinnert werden, die gar nicht stattgefunden haben bzw. präsentiert wurden. In der vorliegenden Arbeit wurde in insgesamt fünf Experimenten anhand des Deese/Roediger-McDermott- (DRM) Paradigmas untersucht, ob Vorschulkinder empfänglicher für falsche Erinnerungen sind als ältere Grundschulkinder und junge Erwachsene. Ausgehend von dem Aktivierungs-Monitoring Ansatz wurde darüber hinaus geprüft, inwieweit etwaige alterskorrelierte Veränderungen in falschen Erinnerungen auf Unterschiede in den Fähigkeiten zur Quellenkontrolle und/oder auf Unterschiede in der Wahrscheinlichkeit der Aktivierung der kritischen Wörter zurückgehen. Im ersten Experiment wurden neben einem abschließenden Wiedererkennenstest zwei verschiedene implizite Testverfahren eingesetzt, die nur Aktivierung ohne Quellenkontrolle erfassen. Da sich aus den Ergebnissen von Experiment 1 keine eindeutigen Schlüsse über alterskorrelierte Veränderungen der Aktivierungsstärke ziehen ließen und ein Indikator für die Quellenkontrolle eingesetzt werden sollte, wurden in den folgenden drei Experimenten explizite Testverfahren verwendet (Experiment 2: Freie Reproduktion, Experiment 3A und Experiment 3B: Wiedererkennenstest). Um die Aktivierung der kritischen Items ohne entgegenwirkende Quellenkontrolle zu prüfen, wurden Inklusionsinstruktionen erteilt. Die Quellenkontrolle wurde separat durch Nachbefragungen erfasst. Zur Förderung der Aktivierung bei Kindern, wurden in Experiment 3B und 4 spezielle Lerninstruktionen erteilt, die eine semantisch-relationale (3B) bzw. eine itemspezifische und semantisch-relationale Verarbeitung der Wortlisten verlangten (4). Im letzten Experiment (4) sollte die Quellenkontrolle differenzierter untersucht werden, in dem ein Quellentest eingesetzt wurde, der nach beiden möglichen Quellen fragte. In allen Experimenten zeigte sich eine geringe alterskorrelierte Zunahme der Aktivierung kritischer Items, aber deutliche alterskorrelierte Verbesserungen der Quellenkontrolle. Die Befunde zu falschen Erinnerungen in den verschiedenen Experimenten waren je nach Lern- und Testbedingung unterschiedlich: Die Ergebnisse deuteten sowohl auf eine alterskorrelierte Zunahme als auch auf eine alterskorrelierte Abnahme hin.
Contents: I. History of the Korean Civil Code II. Background for Initiation of the Amendment of the Civil Code (Property Law) and their Progress III. Fundamental Direction of the Amendment of the Civil Code (Property Law) IV. Major Foreign Statutes Used as Reference for the Amendment of the Civil Code (Property Law) V. Major Details of the Amendment of the Civil Code (Property Law) VI. Concluding Remarks: Evaluation
This work addresses the algorithmic tractability of hard combinatorial problems. Basically, we are considering \NP-hard problems. For those problems we can not find a polynomial time algorithm. Several algorithmic approaches already exist which deal with this dilemma. Among them we find (randomized) approximation algorithms and heuristics. Even though in practice they often work in reasonable time they usually do not return an optimal solution. If we constrain optimality then there are only two methods which suffice for this purpose: exponential time algorithms and parameterized algorithms. In the first approach we seek to design algorithms consuming exponentially many steps who are more clever than some trivial algorithm (who simply enumerates all solution candidates). Typically, the naive enumerative approach yields an algorithm with run time $\Oh^*(2^n)$. So, the general task is to construct algorithms obeying a run time of the form $\Oh^*(c^n)$ where $c<2$. The second approach considers an additional parameter $k$ besides the input size $n$. This parameter should provide more information about the problem and cover a typical characteristic. The standard parameterization is to see $k$ as an upper (lower, resp.) bound on the solution size in case of a minimization (maximization, resp.) problem. Then a parameterized algorithm should solve the problem in time $f(k)\cdot n^\beta$ where $\beta$ is a constant and $f$ is independent of $n$. In principle this method aims to restrict the combinatorial difficulty of the problem to the parameter $k$ (if possible). The basic hypothesis is that $k$ is small with respect to the overall input size. In both fields a frequent standard technique is the design of branching algorithms. These algorithms solve the problem by traversing the solution space in a clever way. They frequently select an entity of the input and create two new subproblems, one where this entity is considered as part of the future solution and another one where it is excluded from it. Then in both cases by fixing this entity possibly other entities will be fixed. If so then the traversed number of possible solution is smaller than the whole solution space. The visited solutions can be arranged like a search tree. To estimate the run time of such algorithms there is need for a method to obtain tight upper bounds on the size of the search trees. In the field of exponential time algorithms a powerful technique called Measure&Conquer has been developed for this purpose. It has been applied successfully to many problems, especially to problems where other algorithmic attacks could not break the trivial run time upper bound. On the other hand in the field of parameterized algorithms Measure&Conquer is almost not known. This piece of work will present examples where this technique can be used in this field. It also will point out what differences have to be made in order to successfully apply the technique. Further, exponential time algorithms for hard problems where Measure&Conquer is applied are presented. Another aspect is that a formalization (and generalization) of the notion of a search tree is given. It is shown that for certain problems such a formalization is extremely useful.
Amphibian diversity in the Amazonian floating meadows: a Hanski core-satellite species system
(2021)
The Amazon catchment is the largest river basin on earth, and up to 30% of its waters flow across floodplains. In its open waters, floating plants known as floating meadows abound. They can act as vectors of dispersal for their associated fauna and, therefore, can be important for the spatial structure of communities. Here, we focus on amphibian diversity in the Amazonian floating meadows over large spatial scales. We recorded 50 amphibian species over 57 sites, covering around 7000 km along river courses. Using multi-site generalised dissimilarity modelling of zeta diversity, we tested Hanski's core-satellite hypothesis and identified the existence of two functional groups of species operating under different ecological processes in the floating meadows. ‘Core' species are associated with floating meadows, while ‘satellite' species are associated with adjacent environments, being only occasional or accidental occupants of the floating vegetation. At large scales, amphibian diversity in floating meadows is mostly determined by stochastic (i.e. random/neutral) processes, whereas at regional scales, climate and deterministic (i.e. niche-based) processes are central drivers. Compared with the turnover of ‘core' species, the turnover of ‘satellite' species increases much faster with distances and is also controlled by a wider range of climatic features. Distance is not a limiting factor for ‘core' species, suggesting that they have a stronger dispersal ability even over large distances. This is probably related to the existence of passive long-distance dispersal of individuals along rivers via vegetation rafts. In this sense, Amazonian rivers can facilitate dispersal, and this effect should be stronger for species associated with riverine habitats such as floating meadows.
Amphibien sind weltweit stark bedroht, was neben anderen Gründen auch durch Umweltverschmutzung bedingt scheint, wobei hier oft der vermehrte Einsatz von Agrochemikalien hervorgehoben wird. Obwohl landwirtschaftlich genutzte Gebiete meistens stark anthropogen verändert sind, beherbergen sie dennoch viele Amphibienpopulationen. Diese müssen hier oftmals persistieren, weil ihre ursprünglichen Lebensräume für die Landwirtschaft umgestaltet wurden und werden. Neben direkter Habitatzerstörung und "degradierung sowie mechanischen Bearbeitungsprozessen in der Landwirtschaft kann sich der Einsatz von Agrochemikalien, insbesondere von Pestiziden, stark negativ auf die dortigen Amphibien auswirken. Zwar sind aufgrund mangelnder Datenlage bisher keine kausalen Zusammenhänge zwischen Populationsrückgängen und Pestizideinsätzen nachgewiesen, jedoch können Amphibien über verschiedene direkte und indirekte Wege geschädigt werden. Eine Vielzahl von Studien zeigte bereits unterschiedlichste adverse Effekte auf der Individualebene. In der vorliegenden Arbeit wurden wichtige Fragestellungen zu diesem Themengebiet aufgegriffen. Der potenzielle Einfluss von Pestizideinsätzen auf Amphibien, besonders im Freiland, stellt ein komplexes Arbeitsfeld dar, so dass verschiedene methodische Ansätze angewendet wurden, um auf verschiedene Fragestellungen einzugehen. Im ersten Teil der vorliegenden Arbeit wurden zwei methodisch unterschiedliche Risikobewertungen durchgeführt. Es wurde auf die Fragestellung eingegangen, welche Effekte von glyphosatbasierten Herbiziden, welche weltweit den größten Absatz besitzen, auf Amphibien dokumentiert sind und welche Endpunkte am besten geeignet sind, um adverse Effekte nachzuweisen. Dazu wurde eine systematische Literaturübersicht und Meta-Analyse aller publizierten Studien durchgeführt. In einer zweiten Risikobewertung wurde ein GIS-basierter Ansatz angewendet, um das Expositionsrisiko der Amphibienarten des Anhangs II der europäischen Fauna-Flora-Habitat-Richtlinie (Arten von gemeinschaftlichem Interesse) gegenüber Pestiziden in ihren speziell ausgewiesenen Schutzgebieten abzuschätzen. Im zweiten Teil der vorliegenden Arbeit wurden Laborexperimente mit Embryonen und Larven zweier Anuren-Modellorganismen und einem, amphibientoxikologisch bisher noch nicht untersuchten und häufig angewendeten, Herbizid durchgeführt. Der dritte Teil der vorliegenden Arbeit beinhaltet die Ergebnisse zweier Freilandstudien. Es wurde überprüft, ob Anurenlarven aufgrund der Wahrscheinlichkeit der Ausbildung von Deformationen (was im Labor einen gut studierten Endpunkt darstellt) als Bioindikatoren für die Belastung von Kleingewässern mit Agrochemikalien geeignet sind. In der zweiten Freilandstudie wurde überprüft, ob drei einheimische Amphibienarten Kleinstgewässer meiden, welche mit umweltrelevanten Konzentrationen verschiedener Stoffe kontaminiert wurden. Im rechtswissenschaftlichen Teil der Arbeit wurde darauf eingegangen, wie hoch die unterschiedlichen Umsetzungsstandards der europäischen Wasserrahmenrichtlinie respektive des nationalen Wasserhaushaltsgesetzes in den Ländern bezüglich des Schutzes von Kleingewässern, welche fast alle heimischen Amphibienarten zur Reproduktion benötigen, durch Gewässerrandstreifenschutz ist.
For grape canopy pixels captured by an unmanned aerial vehicle (UAV) tilt-mounted RedEdge-M multispectral sensor in a sloped vineyard, an in situ Walthall model can be established with purely image-based methods. This was derived from RedEdge-M directional reflectance and a vineyard 3D surface model generated from the same imagery. The model was used to correct the angular effects in the reflectance images to form normalized difference vegetation index (NDVI)orthomosaics of different view angles. The results showed that the effect could be corrected to a certain scope, but not completely. There are three drawbacks that might restrict a successful angular model construction and correction: (1) the observable micro shadow variation on the canopy enabled by the high resolution; (2) the complexity of vine canopies that causes an inconsistency between reflectance and canopy geometry, including effects such as micro shadows and near-infrared (NIR) additive effects; and (3) the resolution limit of a 3D model to represent the accurate real-world optical geometry. The conclusion is that grape canopies might be too inhomogeneous for the tested method to perform the angular correction in high quality.
This study investigated correlative, factorial, and structural relationships between scores for ability emotional intelligence in the workplace (measured with the Geneva Emotional Competence Test), as well as fluid and crystallized abilities (measured with the Intelligence Structure Battery), carried out by a 188-participant student sample. Confirming existing research, recognition, understanding, and management of emotions were related primarily to crystallized ability tests measuring general knowledge, verbal fluency, and knowledge of word meaning. Meanwhile, emotion regulation was the least correlated with any other cognitive or emotional ability. In line with research on the trainability of emotional intelligence, these results may support the notion that emotional abilities are subject to acquired knowledge, where situational (i.e., workplace-specific) emotional intelligence may depend on accumulating relevant experiences.
The publication of statistical databases is subject to legal regulations, e.g. national statistical offices are only allowed to publish data if the data cannot be attributed to individuals. Achieving this privacy standard requires anonymizing the data prior to publication. However, data anonymization inevitably leads to a loss of information, which should be kept minimal. In this thesis, we analyze the anonymization method SAFE used in the German census in 2011 and we propose a novel integer programming-based anonymization method for nominal data.
In the first part of this thesis, we prove that a fundamental variant of the underlying SAFE optimization problem is NP-hard. This justifies the use of heuristic approaches for large data sets. In the second part, we propose a new anonymization method belonging to microaggregation methods, specifically designed for nominal data. This microaggregation method replaces rows in a microdata set with representative values to achieve k-anonymity, ensuring each data row is identical to at least k − 1 other rows. In addition to the overall dissimilarities of the data rows, the method accounts for errors in resulting frequency tables, which are of high interest for nominal data in practice. The method employs a typical two-step structure: initially partitioning the data set into clusters and subsequently replacing all cluster elements with representative values to achieve k-anonymity. For the partitioning step, we propose a column generation scheme followed by a heuristic to obtain an integer solution, which is based on the dual information. For the aggregation step, we present a mixed-integer problem formulation to find cluster representatives. To this end, we take errors in a subset of frequency tables into account. Furthermore, we show a reformulation of the problem to a minimum edge-weighted maximal clique problem in a multipartite graph, which allows for a different perspective on the problem. Moreover, we formulate a mixed-integer program, which combines the partitioning and the aggregation step and aims to minimize the sum of chi-squared errors in frequency tables.
Finally, an experimental study comparing the methods covered or developed in this work shows particularly strong results for the proposed method with respect to relative criteria, while SAFE shows its strength with respect to the maximum absolute error in frequency tables. We conclude that the inclusion of integer programming in the context of data anonymization is a promising direction to reduce the inevitable information loss inherent in anonymization, particularly for nominal data.
Diese Dissertation beschäftigt sich mit der Fragestellung, ob und wie Intersektionalität als analytische Perspektive für literarische Texte eine nützliche Ergänzung für ethnisch geordnete Literaturfelder darstellt. Diese Fragestellung wird anhand der Analyse dreier zeitgenössischer chinesisch-kanadischer Romane untersucht.
In der Einleitung wird die Relevanz der Themenbereiche Intersektionalität und asiatisch-kanadische Literatur erörtert. Das darauffolgende Kapitel bietet einen historischen Überblick über die chinesisch-kanadische Einwanderung und geht detailliert auf die literarischen Produktionen ein. Es wird aufgezeigt, dass, obwohl kulturelle Güter auch zur Artikulation von Ungleichheitsverhältnissen aufgrund von zugeschriebener ethnischer Zugehörigkeit entstehen, ein Diversifizierungsbestreben innerhalb der literarischen Gemeinschaft von chinesisch-kanadischen Autor:innen identifiziert werden kann. Das dritte Kapitel widmet sich dem Begriff „Intersektionalität“ und stellt, nach einer historischen Einordnung des Konzeptes mit seinen Ursprüngen im Black Feminism, Intersektionalität als bindendes Element zwischen Postkolonialismus, Diversität und Empowerment dar – Konzepte, die für die Analyse (kanadischer) Literatur in dieser Dissertation von besonderer Relevanz sind. Anschließend wird die Rolle von Intersektionalität in der Literaturwissenschaft aufgegriffen. Die darauffolgenden exemplarischen Analysen von Kim Fus For Today I Am a Boy, Wayson Choys The Jade Peony und Yan Lis Lily in the Snow veranschaulichen die vorangegangen methodischen Überlegungen. Allen drei Romanen vorangestellt ist die Kontextualisierung des jeweiligen Werkes als chinesisch-kanadisch, aber auch bisher vorgenommene Überlegungen, die diese Einordnung infrage stellen. Nach einer Zusammenfassung des Inhalts folgt eine intersektionale Analyse auf der inhaltlichen Ebene, die in den familiären und weiteren sozialen Bereich unterteilt ist, da sich die Hierarchiemechanismen innerhalb dieser Bereiche unterscheiden oder gegenseitig verstärken, wie aus den Analysen hervorgeht. Anschließend wird die formale Analyse mit einem intersektionalen Schwerpunkt in einem separaten Unterkapitel näher beleuchtet. Ein drittes Unterkapitel widmet sich einem dem jeweiligen Roman spezifischen Aspekt, der im Zusammenhang mit einer intersektionalen Analyse von besonderer Relevanz ist. Die Arbeit schließt mit einem übergreifenden Fazit, welches die wichtigsten Ergebnisse aus der Analyse zusammenfasst und mit weiteren Überlegungen zu den Implikationen dieser Dissertation, vor allem im Hinblick auf sogenannte kanadische „master narratives“, die eine weitreichende, kontextuelle Relevanz für das Arbeiten mit literarischen Texten aufweisen und durch einen intersektionalen literarischen Ansatz in Zukunft gegebenenfalls gewinnbringend ergänzt werden können.
A huge number of clinical studies and meta-analyses have shown that psychotherapy is effective on average. However, not every patient profits from psychotherapy and some patients even deteriorate in treatment. Due to this result and the restricted generalization of clinical studies to clinical practice, a more patient-focused research strategy has emerged. The question whether a particular treatment works for an individual case is the focus of this paradigm. The use of repeated assessments and the feedback of this information to therapists is a major ingredient of patient-focused research. Improving patient outcomes and reducing dropout rates by the use of psychometric feedback seems to be a promising path. Therapists seem to differ in the degree to which they make use of and profit from such feedback systems. This dissertation aims to better understand therapist differences in the context of patient-focused research and the impact of therapists on psychotherapy. Three different studies are included, which focus on different aspects within the field:
Study I (Chapter 5) investigated how therapists use psychometric feedback in their work with patients and how much therapists differ in their usage. Data from 72 therapists treating 648 patients were analyzed. It could be shown that therapists used the psychometric feedback for most of their patients. Substantial variance in the use of feedback (between 27% and 52%) was attributable to therapists. Therapists were more likely to use feedback when they reported being satisfied with the graphical information they received. The results therefore indicated that not only patient characteristics or treatment progress affected the use of feedback.
Study II (Chapter 6) picked up on the idea of analyzing systematic differences in therapists and applied it to the criterion of premature treatment termination (dropout). To answer the question whether therapist effects occur in terms of patients’ dropout rates, data from 707 patients treated by 66 therapists were investigated. It was shown that approximately six percent of variance in dropout rates could be attributed to therapists, even when initial impairment was controlled for. Other predictors of dropout were initial impairment, sex, education, personality styles, and treatment expectations.
Study III (Chapter 7) extends the dissertation by investigating the impact of a transfer from one therapist to another within ongoing treatments. Data from 124 patients who agreed to and experienced a transfer during their treatment were analyzed. A significant drop in patient-rated as well as therapist-rated alliance levels could be observed after a transfer. On average, there seemed to be no difficulties establishing a good therapeutic alliance with the new therapist, although differences between patients were observed. There was no increase in symptom severity due to therapy transfer. Various predictors of alliance and symptom development after transfer were investigated. Impacts on clinical practice were discussed.
Results of the three studies are discussed and general conclusions are drawn. Implications for future research as well as their utility for clinical practice and decision-making are presented.