Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (831)
- Wissenschaftlicher Artikel (219)
- Buch (Monographie) (113)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (108)
- Arbeitspapier (62)
- Teil eines Buches (Kapitel) (22)
- Ausgabe (Heft) zu einer Zeitschrift (22)
- Konferenzveröffentlichung (17)
- Sonstiges (16)
- Rezension (10)
Sprache
- Deutsch (840)
- Englisch (517)
- Französisch (75)
- Mehrsprachig (15)
- Russisch (1)
Schlagworte
- Deutschland (82)
- Luxemburg (52)
- Stress (40)
- Schule (37)
- Schüler (33)
- Politischer Unterricht (29)
- Modellierung (28)
- Fernerkundung (25)
- Geschichte (24)
- Demokratie (23)
Institut
- Raum- und Umweltwissenschaften (213)
- Psychologie (212)
- Politikwissenschaft (132)
- Universitätsbibliothek (82)
- Rechtswissenschaft (77)
- Wirtschaftswissenschaften (66)
- Mathematik (65)
- Fachbereich 4 (57)
- Medienwissenschaft (57)
- Fachbereich 6 (50)
- Geschichte, mittlere und neuere (45)
- Fachbereich 1 (36)
- Fachbereich 3 (34)
- Informatik (31)
- Germanistik (28)
- Fachbereich 2 (26)
- Kunstgeschichte (23)
- Anglistik (21)
- Soziologie (20)
- Computerlinguistik und Digital Humanities (10)
- Philosophie (10)
- Romanistik (9)
- Fachbereich 5 (6)
- Pädagogik (6)
- Allgemeine Sprach- und Literaturwissenschaft (5)
- Ethnologie (5)
- Geschichte, alte (5)
- Klassische Philologie (4)
- Sinologie (4)
- Japanologie (3)
- Archäologie (2)
- Phonetik (2)
- Servicezentrum eSciences (2)
- Forschungszentrum Europa (1)
- Pflegewissenschaft (1)
- Slavistik (1)
- Theologische Fakultät (1)
Low-level jets (LLJs) are climatological features in polar regions. It is well known that katabatic winds over the slopes of the Antarctic ice sheet are associated with strong LLJs. Barrier winds occurring, e.g., along the Antarctic Peninsula may also show LLJ structures. A few observational studies show that LLJs occur over sea ice regions. We present a model-based climatology of the wind field, of low-level inversions and of LLJs in the Weddell Sea region of the Antarctic for the period 2002–2016. The sensitivity of the LLJ detection on the selection of the wind speed maximum is investigated. The common criterion of an anomaly of at least 2 m/s is extended to a relative criterion of wind speed decrease above and below the LLJ. The frequencies of LLJs are sensitive to the choice of the relative criterion, i.e., if the value for the relative decrease exceeds 15%. The LLJs are evaluated with respect to the frequency distributions of height, speed, directional shear and stability for different regions. LLJs are most frequent in the katabatic wind regime over the ice sheet and in barrier wind regions. During winter, katabatic LLJs occur with frequencies of more than 70% in many areas. Katabatic LLJs show a narrow range of heights (mostly below 200 m) and speeds (typically 10–20 m/s), while LLJs over the sea ice cover a broad range of speeds and heights. LLJs are associated with surface inversions or low-level lifted inversions. LLJs in the katabatic wind and barrier wind regions can last several days during winter. The duration of LLJs is sensitive to the LLJ definition criteria. We propose to use only the absolute criterion for model studies.
The parameterization of ocean/sea-ice/atmosphere interaction processes is a challenge for regional climate models (RCMs) of the Arctic, particularly for wintertime conditions, when small fractions of thin ice or open water cause strong modifications of the boundary layer. Thus, the treatment of sea ice and sub-grid flux parameterizations in RCMs is of crucial importance. However, verification data sets over sea ice for wintertime conditions are rare. In the present paper, data of the ship-based experiment Transarktika 2019 during the end of the Arctic winter for thick one-year ice conditions are presented. The data are used for the verification of the regional climate model COSMO-CLM (CCLM). In addition, Moderate Resolution Imaging Spectroradiometer (MODIS) data are used for the comparison of ice surface temperature (IST) simulations of the CCLM sea ice model. CCLM is used in a forecast mode (nested in ERA5) for the Norwegian and Barents Seas with 5 km resolution and is run with different configurations of the sea ice model and sub-grid flux parameterizations. The use of a new set of parameterizations yields improved results for the comparisons with in-situ data. Comparisons with MODIS IST allow for a verification over large areas and show also a good performance of CCLM. The comparison with twice-daily radiosonde ascents during Transarktika 2019, hourly microwave water vapor measurements of first 5 km in the atmosphere and hourly temperature profiler data show a very good representation of the temperature, humidity and wind structure of the whole troposphere for CCLM.
Regional climate models are a valuable tool for the study of the climate processes and climate change in polar regions, but the performance of the models has to be evaluated using experimental data. The regional climate model CCLM was used for simulations for the MOSAiC period with a horizontal resolution of 14 km (whole Arctic). CCLM was used in a forecast mode (nested in ERA5) and used a thermodynamic sea ice model. Sea ice concentration was taken from AMSR2 data (C15 run) and from a high-resolution data set (1 km) derived from MODIS data (C15MOD0 run). The model was evaluated using radiosonde data and data of different profiling systems with a focus on the winter period (November–April). The comparison with radiosonde data showed very good agreement for temperature, humidity, and wind. A cold bias was present in the ABL for November and December, which was smaller for the C15MOD0 run. In contrast, there was a warm bias for lower levels in March and April, which was smaller for the C15 run. The effects of different sea ice parameterizations were limited to heights below 300 m. High-resolution lidar and radar wind profiles as well as temperature and integrated water vapor (IWV) data from microwave radiometers were used for the comparison with CCLM for case studies, which included low-level jets. LIDAR wind profiles have many gaps, but represent a valuable data set for model evaluation. Comparisons with IWV and temperature data of microwave radiometers show very good agreement.
Der vorliegende Artikel beschreibt die klimatische Situation des Naturparks Saar-Hunsrück. Neben der Einordnung der Region in die großskalige klimatische Zirkulation werden die wesentlichen Klimaelemente beschrieben. Da sich die Klimaelemente mit zunehmender Höhe verändern, bestimmt im unteren Saartal, im Saar-Nahe-Bergland und Hunsrück mit Osburger Hochwald, Schwarzwälder Hochwald und Idarwald die Höhenlage entscheidend die räumliche Struktur der einzelnen Klimaelemente. Die Niederschlagsverteilung zeigt deutlich den Luveffekt in den westlichen Teilen des Naturparks und die Abnahme der Niederschlagshöhen in nordöstlicher Richtung. Die räumlichen Muster der mittleren und maximalen Lufttemperatur folgen der Topographie, während Minimalwerte der Temperatur ein weniger differenziertes Bild zeigen. In den tiefer gelegenen Regionen des Naturparks treten 4-7 Hitzetage in langjährigen Mittel auf, in den Hochlagen des Hunsrücks werden nur noch 1-3 Tage / Jahr beobachtet. Oberhalb der 600 m-Höhenlinie ergeben sich im Mittel 110-130 Frosttage im Jahr, im südwestlichen Teil des Naturparks geht die Zahl auf 50 Tage / Jahr zurück. Die mittlere Anzahl der Tage mit Schneedecke liegt, bezogen auf das Areal des Naturparks, insgesamt zwischen 10 und 90 Tagen pro Jahr. Ihre Veränderung infolge des regionalen Klimawandels zeigt eine Abnahme zwischen 3-15 Tagen pro Jahr zwischen den Zeiträumen 1961-1990 und 1981-2010. Die aktuelle Sonnenscheindauer beträgt im westlichen Teil des Naturparks im Mittel 1500-1600 Sonnenscheinstunden pro Jahr, im südöstlichen Teil werden bis 1600 Stunden pro Jahr erreicht.
A satellite-based climatology of wind-induced surface temperature anomalies for the Antarctic
(2019)
It is well-known that katabatic winds can be detected as warm signatures in the surface temperature over the slopes of the Antarctic ice sheets. For appropriate synoptic forcing and/or topographic channeling, katabatic surges occur, which result in warm signatures also over adjacent ice shelves. Moderate Resolution Imaging Spectroradiometer (MODIS) ice surface temperature (IST) data are used to detect warm signatures over the Antarctic for the winter periods 2002–2017. In addition, high-resolution (5 km) regional climate model data is used for the years of 2002 to 2016. We present a case study and a climatology of wind-induced IST anomalies for the Ross Ice Shelf and the eastern Weddell Sea. The IST anomaly distributions show maxima around 10–15K for the slopes, but values of more than 25K are also found. Katabatic surges represent a strong climatological signal with a mean warm anomaly of more than 5K on more than 120 days per winter for the Byrd Glacier and the Nimrod Glacier on the Ross Ice Shelf. The mean anomaly for the Brunt Ice Shelf is weaker, and exceeds 5K on about 70 days per winter. Model simulations of the IST are compared to the MODIS IST, and show a very good agreement. The model data show that the near-surface stability is a better measure for the response to the wind than the IST itself.
In 2014/2015 a one-year field campaign at the Tiksi observatory in the Laptev Sea area was carried out using Sound Detection and Ranging/Radio Acoustic Sounding System (SODAR/RASS) measurements to investigate the atmospheric boundary layer (ABL) with a focus on low-level jets (LLJ) during the winter season. In addition to SODAR/RASS-derived vertical profiles of temperature, wind speed and direction, a suite of complementary measurements at the Tiksi observatory was available. Data of a regional atmospheric model were used to put the local data into the synoptic context. Two case studies of LLJ events are presented. The statistics of LLJs for six months show that in about 23% of all profiles LLJs were present with a mean jet speed and height of about 7 m/s and 240 m, respectively. In 3.4% of all profiles LLJs exceeding 10 m/s occurred. The main driving mechanism for LLJs seems to be the baroclinicity, since no inertial oscillations were found. LLJs with heights below 200 m are likely influenced by local topography.
Measurements of the atmospheric boundary layer (ABL) structure were performed for three years (October 2017–August 2020) at the Russian observatory “Ice Base Cape Baranova” (79.280° N, 101.620° E) using SODAR (Sound Detection And Ranging). These measurements were part of the YOPP (Year of Polar Prediction) project “Boundary layer measurements in the high Arctic” (CATS_BL) within the scope of a joint German–Russian project. In addition to SODAR-derived vertical profiles of wind speed and direction, a suite of complementary measurements at the observatory was available. ABL measurements were used for verification of the regional climate model COSMO-CLM (CCLM) with a 5 km resolution for 2017–2020. The CCLM was run with nesting in ERA5 data in a forecast mode for the measurement period. SODAR measurements were mostly limited to wind speeds <12 m/s since the signal was often lost for higher winds. The SODAR data showed a topographical channeling effect for the wind field in the lowest 100 m and some low-level jets (LLJs). The verification of the CCLM with near-surface data of the observatory showed good agreement for the wind and a negative bias for the 2 m temperature. The comparison with SODAR data showed a positive bias for the wind speed of about 1 m/s below 100 m, which increased to 1.5 m/s for higher levels. In contrast to the SODAR data, the CCLM data showed the frequent presence of LLJs associated with the topographic channeling in Shokalsky Strait. Although SODAR wind profiles are limited in range and have a lot of gaps, they represent a valuable data set for model verification. However, a full picture of the ABL structure and the climatology of channeling events could be obtained only with the model data. The climatological evaluation showed that the wind field at Cape Baranova was not only influenced by direct topographic channeling under conditions of southerly winds through the Shokalsky Strait but also by channeling through a mountain gap for westerly winds. LLJs were detected in 37% of all profiles and most LLJs were associated with channeling, particularly LLJs with a jet speed ≥ 15 m/s (which were 29% of all LLJs). The analysis of the simulated 10 m wind field showed that the 99%-tile of the wind speed reached 18 m/s and clearly showed a dipole structure of channeled wind at both exits of Shokalsky Strait. The climatology of channeling events showed that this dipole structure was caused by the frequent occurrence of channeling at both exits. Channeling events lasting at least 12 h occurred on about 62 days per year at both exits of Shokalsky Strait.
The parameterization of the boundary layer is a challenge for regional climate models of the Arctic. In particular, the stable boundary layer (SBL) over Greenland, being the main driver for substantial katabatic winds over the slopes, is simulated differently by different regional climate models or using different parameterizations of the same model. However, verification data sets with high-resolution profiles of the katabatic wind are rare. In the present paper, detailed aircraft measurements of profiles in the katabatic wind and automatic weather station data during the experiment KABEG (Katabatic wind and boundary-layer front experiment around Greenland) in April and May 1997 are used for the verification of the regional climate model COSMO-CLM (CCLM) nested in ERA-Interim reanalyses. CCLM is used in a forecast mode for the whole Arctic with 15 km resolution and is run in the standard configuration of SBL parameterization and with modified SBL parameterization. In the modified version, turbulent kinetic energy (TKE) production and the transfer coefficients for turbulent fluxes in the SBL are reduced, leading to higher stability of the SBL. This leads to a more realistic representation of the daily temperature cycle and of the SBL structure in terms of temperature and wind profiles for the lowest 200 m.
Das 9.Jahrhundert gilt vielfach als "Goldenes Zeitalter" der Juden in Europa. Die Arbeit prüft diese Einschätzung anhand der Attitüden von acht Theologen der "karolingischen Renaissance", wie sie in den Kommentaren zum Corpus Paulinum deutlich werden (Ps.-Beda, Smaragd von Saint-Mihiel, Alkuin von Tours, Claudius von Turin, Hrabanus Maurus, Haimo von Auxerre, Florus von Lyon und Sedulius Scotus). Nach einer Skizze zur Verbreitung von Juden im karolingischen Europa wird der Gehalt der Aussagen zu Juden in der Exegese der Zeit vorgestellt, der Stoff dabei nach Themengruppen gegliedert. Dazu zählen Deutungen zu Juden in Geschichte und Heilsgeschichte, "Gesetz" und Rechtfertigung, "Feindschaft" der Juden, Anmerkungen zur Prädestinationsdebatte, Juden im Endzeitdenken; ein eigenes Kapitel gilt dem zentralen Kapitel Röm. 11, bei dessen Deutung auffallend abweichende Ergebnisse zu verzeichnen sind. Obwohl die Autoren an Orten wirkten, in deren Umgegend keine oder nur geringe jüdische Präsenz nachzuweisen ist, wurden Juden und Judentum mit dem zweiten Viertel des neunten Jahrhunderts zu einem immer beherrschenderen Thema der Kommentare. Die Feinanalyse zentraler Kommentarstellen kann darlegen, daß die Kompilatoren eigene theologische Konzepte mitbrachten, die sie mittels wörtlicher Väterzitate, deren Verknüpfungen und gezielter Aus-lassungen abbildeten. Danach wird das Interesse für das Thema Juden in der karolingischen Theologie als Ausdruck immanent-christlicher, pastoraler Bedürfnisse verstanden.
In this thesis, we consider the solution of high-dimensional optimization problems with an underlying low-rank tensor structure. Due to the exponentially increasing computational complexity in the number of dimensions—the so-called curse of dimensionality—they present a considerable computational challenge and become infeasible even for moderate problem sizes.
Multilinear algebra and tensor numerical methods have a wide range of applications in the fields of data science and scientific computing. Due to the typically large problem sizes in practical settings, efficient methods, which exploit low-rank structures, are essential. In this thesis, we consider an application each in both of these fields.
Tensor completion, or imputation of unknown values in partially known multiway data is an important problem, which appears in statistics, mathematical imaging science and data science. Under the assumption of redundancy in the underlying data, this is a well-defined problem and methods of mathematical optimization can be applied to it.
Due to the fact that tensors of fixed rank form a Riemannian submanifold of the ambient high-dimensional tensor space, Riemannian optimization is a natural framework for these problems, which is both mathematically rigorous and computationally efficient.
We present a novel Riemannian trust-region scheme, which compares favourably with the state of the art on selected application cases and outperforms known methods on some test problems.
Optimization problems governed by partial differential equations form an area of scientific computing which has applications in a variety of areas, ranging from physics to financial mathematics. Due to the inherent high dimensionality of optimization problems arising from discretized differential equations, these problems present computational challenges, especially in the case of three or more dimensions. An even more challenging class of optimization problems has operators of integral instead of differential type in the constraint. These operators are nonlocal, and therefore lead to large, dense discrete systems of equations. We present a novel solution method, based on separation of spatial dimensions and provably low-rank approximation of the nonlocal operator. Our approach allows the solution of multidimensional problems with a complexity which is only slightly larger than linear in the univariate grid size; this improves the state of the art for a particular test problem problem by at least two orders of magnitude.
Die vorliegende Arbeit zielt auf die Erstellung eines Programmes, das zu Beginn des Studiums insbesondere den zu wenig bewegten Studierenden über den gesamten Ausbildungszeitraum an der Hochschule hinweg ein artgerechten Bewegungsverhalten vermittelt und dieses nachhaltig habitualisiert.
Im einleitenden Kapitel 1 werden die Kernfragen formuliert, die in den Kapiteln 2 bis 4 zu beantwortet sind, um Schlussfolgerungen für die Programmerstellung ziehen zu können. Daneben werden Begrifflichkeiten definiert, die zentral für die Arbeit sind. Neben der antipodischen Darstellung von ‚Körperlicher Aktivität‘ und ‚Körperlicher Inaktivität‘, denen sich schon kurz nach der Mitte des 20. Jahrhunderts die interdisziplinäre Sportwissenschaft zugewandt hat, wird auch eine Präzisierung der Begriffe Bewegung (in Abgrenzung zu Sport) und Fitness (vs. Gesundheit) vorgenommen, um im Folgenden ein operationalisierbares Instrumentarium vorweisen zu können. Ableitend aus den Erkenntnissen der Sportwissenschaft – insbesondere der Sportmedizin – werden in Anlehnung an die ‚Nationalen Empfehlungen zu Bewegung und Bewegungsförderung‘ Vorgaben formuliert, welche Inhalte, Umfänge und Intensitäten an Bewegung wöchentlich zu erfüllen sind, um von einer artgerechten Bewegung sprechen zu können.
Das Kapitel 2, das die sportmedizinischen Befunde zum Thema Bewegungsmangel in den Fokus rückt, stellt einerseits die Auswirkungen von Bewegungsmangel auf das Individuum in den Mittelpunkt und betrachtet andererseits die Effekte auf die Gesellschaft. Bezogen auf das Individuum wird festgehalten, dass Morbidität in sehr vielfältigen Formen durch Bewegungsmangel ansteigt und andererseits eine artgerechte Bewegung ein hohes Schutzpotential für körperliche und geistige Funktionsfähigkeit besitzt. Es wird gezeigt, dass Bewegungsmangel zurecht als Risikofaktor Anerkennung gefunden hat, da er alleine – sowie in Kombination mit Fehlernährung – zu Störungen im Stoffwechsel führen kann, die ihrerseits mannigfaltige negative Effekte auslösen, die zum Anstieg vieler Erkrankungen (z.B. Herz-Kreislauferkrankungen wie Hypertonie, Stoffwechselerkrankungen wie Diabetes mellitus Typ 2, Haltungsstörungen, psychische Störungen) führen, die die Lebensqualität senken und die Lebensspanne reduzieren können.
Neben der höheren Inzidenz von Erkrankungen kann Bewegungsmangel zu z.T. massiven Einschränkungen von Alltagsfunktionen führen. Exemplarisch – und mit Vorgriff auf die Pilotstudie, die im Kapitel 3 beschrieben wird – wird berichtet, wie stark die Cardiorespiratorische Fitness (CRF) unter Bewegungsmangel leidet. Es wird ein Modell vorgestellt, das zeigt, dass Menschen, die als Kind und als Erwachsene unter Bewegungsmangel leiden, eine stark verkürzte ‚Health Span‘ gegenüber durchweg bewegten Personen aufweisen.
Neben der Tatsache, dass die Funktionsfähigkeit eingeschränkt ist, wird darauf hingewiesen, dass mit den beschriebenen Prozessen auch eine Verringerung der Lebensqualität und einer Verkürzung der Lebensspanne insgesamt einhergehen können.
Dass diese Effekte nicht nur das einzelne Individuum betreffen, sondern gesamtgesellschaftliche Wirkung entfalten liegt auf der Hand und es wird dargestellt, dass weltweit an Programmen gearbeitet wird, um die ökonomischen und sozialen Folgen von Bewegungsmangel abzumildern, indem diese an der Wurzel bekämpft werden soll.
Es wird schlussgefolgert, dass die Erhöhung des Bewegungsausmaßes angestrebt werden muss, um physiologische und psychische Folgen die direkt oder indirekt auf Bewegungsmangel zurückzuführen sind, einzudämmen, damit die sowohl die ‚Life Span‘ als auch die ‚Health Span‘ verlängert werden.
Das Kapitel 3 nimmt unter Anwendung soziologischer Forschungsmethoden die Gruppe der Studierenden in den Fokus und klärt, wie sich die Zielgruppe hinsichtlich ihres Bewegungsverhaltens beschreiben lässt. Mit Blick auf die nationale Referenzstichprobe zum Gesundheitszustand und –verhalten von Studierenden werden zunächst die Ergebnisse einer eigenen Pilotstudie präsentiert. Diese basiert auf einem zweisemestrigen Lehr- und Forschungsprojekt, an dem eingangs 23 Studierende (15 weiblich, 8 männlich, Durchschnittsalter zu Beginn: 22.9 Jahre) teilnahmen. Diese wurden in einer Interventionsstudie ein- bzw. zweimal pro Woche in der Vorlesungszeit bewegt, wobei vor und nach dem Programm als auch vor und nach der Vorlesungszeit verschiedene physiologische und psychometrische Messungen durchgeführt wurden. Über den gesamten Beobachtungszeitraum hinweg trugen alle Probanden täglich (mit wenigen Ausnahmen) einen Fitnesstracker, der es ermöglichte das Bewegungsverhalten während der Wachzeit zu erfassen.
Neben der Tatsache, dass der Beobachtungszeitraum nicht ausreichte, um die Studierenden an das artgerechte Bewegungsverhalten, das über die Bewegungspraxiseinheiten in der Vorlesungszeit erreicht wurde, zu binden, zeigten sich Effekte, die für die Programmgestaltung von Bedeutung sind. Positiv entwickelten sich alle gemessenen physiologischen Parameter. So konnte ein Anstieg der Muskelmasse ebenso festgestellt werden wie die Verbesserung der Core-Muskulatur und der CRF. Andererseits führte der Bewegungsmangel in den Pausen nicht nur zum (fast vollständigen) Verlust dieser Gewinne, sondern es konnte auch ein Anstieg der Körperfettmasse identifiziert werden.
Die Beobachtung des Bewegungsverhaltens ergab ein Bild, das sich mit Ergebnissen der Referenzstudie deckt und zeigt, dass diese Gruppe sich ohne Anleitung deutlich unter dem zu fordernden Mindestmaß bewegt.
Dieses Ergebnis zeigte auch die Auswertung der Onlinebefragung, an der ca. 1000 Studierende teilgenommen hatten. Studierende, die regelmäßig Sport treiben, beklagen weit weniger häufig körperliche Beschwerden und psychische Belastungen als ihre Kommilitonen, die nur gelegentlich oder nie Sport treiben. Auch wenn diese Ergebnisse zu erwarten waren, überraschte die Häufigkeit des Auftretens bestimmter Beschwerden. So gaben fast 48% der Studierenden an, häufig unter Rückenbeschwerden zu leiden.
Erhellend war insbesondere das Ergebnis, dass das Spaßmotiv die wichtigste beeinflussbare Determinante ist, über die sich Studierende zu mehr Bewegung leiten lassen, wenn auch andere Barrieren niedrig gehalten werden.
Das Kapitel 4 beschäftigt sich mit den motivationalen und handlungsbezogenen Modellen zur Vorhersage des Bewegungsverhaltens und soll Erkenntnisse bündeln, wie junge unbewegte Menschen im Sinne der Zielstellung zu unterstützen sind. Der Blick in die Forschungsgeschichte und aktuelle Ansätze zeigt, dass eine Verhaltensmodifikation nur gelingen kann, wenn sowohl kognitive als auch emotionale Prozesse in den Blick genommen werden.
Ein strukturiertes Vorgehen, bei dem die unterschiedlichen Phasen des Verhaltenswechsels das Gerüst für Ansätze bietet, muss phasengerechte emotionale und kognitive Interventionen aufweisen, die passgenau die Situation des Betroffenen aufnehmen und ihm die benötigte Unterstützung anbieten. Im Sinne einer ‚tailored intervention‘ müssen die Kerndeterminanten, die sich aus den kognitiv-affektiven Kombinationsmodellen identifizieren lassen angewendet werden, um auf beiden Ebenen einen Wirkimpuls in die gleiche Richtung auszulösen. Im Mittelpunkt wird dabei die Verbesserung der Selbstwirksamkeit stehen, die auf beiden Ebenen angesprochen werden muss.
Nach einem kurzen Zwischenfazit in Kapitel 5, das die Schlussfolgerungen der Vorkapitel pointiert zusammenfasst, wird in Kapitel 6 das UiB-Konzept dargestellt. Im ersten Teil (Kapitel 6.1.) werden anhand der Phasenstruktur die Methoden und Strategien vorgestellt, die Studierende auf den Weg zu mehr Bewegung bringen und halten sollen. Das Herangehen besteht dabei darin, die Inhalte, die Didaktik und Methodik und die Formate vorzustellen und rückt dann die Aufgaben des einzusetzenden Personals in den Vordergrund. Diese Struktur wird erst in den letzten Unterkapiteln zugunsten einer Fokussierung auf die Inhalte und das Personal aufgegeben, um eine bessere Lesbarkeit ohne ein zu großes Maß an Redundanzen zu erzeugen. Für die Präkontemplationsphase werden Formate vorgestellt, die – eingepasst in den Semesterablauf der Erstsemesterstudierenden – von speziell ausgebildetem Lehrpersonal Ideen und Konzepte aus Kapitel 4 aufgreifen, um Studierende für die Problemstellung zu sensibilisieren. In der Kontemplationsphase, in der zum erstem Mal auch sogenannte Buddies, die ob ihrer eigenen Bewegungssozialisation und v.a. ihrer Nähe zur Peergroup, die Vertrauen schafft, in den Vordergrund treten, wird den interessierten Studierenden in eigens konzipierten Seminaren Wissen vermittelt, das sie in die Lage versetzt, zu entscheiden, ob das Programm einen Mehrwert für sie erbringen kann. Im Anschluss an diese Veranstaltungen (Präparationsphase) wird den Studierenden durch Buddies der Übergang in die Phase der Umsetzung aufgezeigt und mit ihnen eine Art Vertrag abgeschlossen, der schriftliches Zeugnis des Commitments ist, sich in die Phase der Umsetzung zu begeben. In der Phase der Handlungsaufnahme selbst werden die Teilnehmenden zu Buddygruppen zusammengeschlossen, die als Keimzelle des sozialen Miteinanders als wesentlicher Stützpfeiler des Programms dienen. Eine entscheidende Rolle zum Aufbau der Selbstwirksamkeit nehmen die Kursleiter ein, die den Bewegungsanfängern Zuversicht in ihre eigenen Möglichkeiten stärken sollen. Dabei agieren sie auf der Basis einer ausgearbeiteten Vermittlungs- und Inhaltsanleitung, die sehr feinschrittig für die beiden Kurstypen (Core-Kurs und Kurs Funktionales Ganzkörpertraining) ausgearbeitet wird. Exemplarisch wird dies im Kapitel 6.1.4 für den Core-Kurs dargestellt, wo beginnend mit dem Erstkontakt und dem initialen Fitnesstest ein Bogen bis hin zu dem Test im Anschluss an das Semester geschlagen wird. Schon in dieser Phase werden parallel zu den Bewegungskursen, initiiert durch die Buddies, Kontakte außerhalb des direkten Kursrahmens angeregt, die die Studierenden zu einer Gruppe formen, die als stabilisierendes Element fungiert und die Teilnehmer unterstützt im Programm zu bleiben. Diese Taktik ist auch die Kernstrategie der Phase der Aufrechterhaltung, in der die Studierenden weiter in Buddygruppen zusammengehalten werden. Neben neuen Inhalten in den Kursen, die trainingstheoretisch begründet benötigt werden, um Trainingsgewinne zu sichern, dienen diese auch dazu für Abwechslung zu sorgen und so zum Bleiben zu motivieren. Die Aktivitäten in den Gruppen werden zudem in übergreifenden Maßnahmen gebündelt, in den die Studierenden ein Selbstverständnis entwickeln sollen, Teil einer großen Gemeinschaft zu sein. Um die Fortschritte, die sich aus der Bewegung ergeben zu dokumentieren, und so den Teilnehmern zu zeigen, dass sich ihr Einsatz lohnt, werden regelmäßig Testungen durchgeführt, deren Ergebnisse mit denen der Eingangstests verglichen werden können.
Im zweiten Teil des Kapitels werden die prominenten Rollen des Kernpersonal (Übungsleiter und Buddies) beschrieben und dargelegt, wie die ausgewählt und geschult werden. Auch diese Funktionen sind den Ansätzen aus den Vorkapiteln entliehen. Einerseits zeigte die Onlinebefragung, dass viele unbewegte Studierende einen Partner vermissen, der sie beim Bewegen begleitet, andererseits zeigt der Blick in die psychologischen Modelle, dass diese Personen evident für den Aufbau einer Selbstwirksamkeit und so dem Wandel der Verhaltensmuster hin zum bewegten Menschen sind.
Der abschließende dritte Teil dieses Kapitel greift in Kürze die Idee auf, begleitend zu den Bewegungskursen Theoriekurse anzubieten und stellt deren Inhalte dar.
Im Kapitel Diskussion und Ausblick wird auf die Limitationen des Programms eingegangen, die v.a. darin besteht, dass die Buddy-Forschung noch recht jung ist und so die Wirkweise und -konsitenz noch schwer abzusehen ist. Andererseits wird auch kritisch betrachtet, wie stark die Rolle der äußeren Faktoren sein kann und eine Unterstützung der universitären Strukturen vonnöten ist, um Erfolg zu haben. Abschließend wird ins Auge gefasst, den Umsetzungsprozess umfänglich zu evaluieren, um Ansatzmöglichkeiten für Verbesserungen zu finden, und so im jungen Feld der ‚Fitnesswissenschaft‘ Kompetenz in der Vermittlung eines artgerechten Bewegungsverhaltens mehren zu können.
Allergische Kontaktdermatitis ist eine zellvermittelte verzögerte Überempfindlichkeitsreaktion auf niedermolekulare Substanzen, die häufig Hautreaktionen hervorrufen und dadurch sowohl persönliche als auch berufliche Probleme verursachen. Chemikalien wie para-Phenylendiamin (PPD) und andere verwandte para-Aminobenzole werden häufig in Farben eingesetzt und erlangen aufgrund ihrer starken Allergenität eine immer größere Aufmerksamkeit. Bis jetzt ist das Wissen über zelluläre Immunantworten auf PPD nur begrenzt verstanden. In dieser Studie haben wir das immunmodulatorische Potential vonrnPPD untersucht, vor allem hinsichtlich der Fragestellung, ob PPD selber naive T-Zellen sensibilisieren kann oder ob PPD letztendlich nur ein Allergen ist. In Anbetracht der Tatsache das dendritische Zellen (DZ) eine vorherrschende Rolle bei der allergischen Kontaktdermatitis spielen, haben wir untersucht, in wie weit PPD in der Lage ist, funktionelle Reifung zu modulieren. Um abschätzen zu können, welcher Anteil an PPD nach der Stimulation zur potentiellen Aktivierung tatsächlich zur Verfügung steht, haben wir die metabolische Kompetenz von "monocyte derived dendritic cells" (MoDC) untersucht, PPD zurnacetylieren. Dazu haben wir die N-Acetyltransferase 1 (NAT-1) und N-Acetyltransferase 2(NAT-2) mRNA Expression charakterisiert und weitergehend die metabolische Aktivität von NAT-1 Enzym bestimmt. Mit diesen Versuchen konnten wir zeigen, dass MoDC von 9 aus 10 Spendern das NAT-1 Enzym exprimieren und konnten in 4 von 6 Spendern acetyliertes PPD in Extrakten aus Zellkulturüberständen detektieren. In Anbetracht der Tatsache, dassrnacetyliertes PPD nicht in der Lage ist, MoDC zu aktivieren, können wir davon ausgehen,dass der Anteil an acetyliertem PPD zur DC Aktivierung nicht zur Verfügung steht. Um das sensibilisierende Potential von PPD herauszufinden, haben wir nach Stimulation mit verschiedenen PPD Konzentrationen die Expression von Oberflächenmolekülen, die für die Antigenpräsentation, Co-Stimulation, späte Migration und dendritische Zell-/T-Zell-Wechselwirkung entscheidend sind, zu verschiedenen Zeitpunkten mittels Durchflusszytometrie Messungen (FACS) gemessen. Zusammengefasst konnten wir zeigen,dass PPD signifikant die "chemokine receptor 7" (CCR7) Expression und nicht signifikant die "human leukocyte antigen " DR" HLA-DR, "DC-specific C-type lectin intercellular adhesion molecule-3-grabbing nonintegrin" (DC-SIGN) und "cluster domain" 11c (CD11c) Expression erhöht. Die erhöhte CCR7 Expression ermutigte uns, weiter nachzuforschen, ob PPD trotz der Tatsache, dass es keine traditionelle CD80 und CD86 Expression induzieren kann, fähig ist, DCs zu aktivieren. Ausgiebige Zytokinkinetikmessungen konnten diese Hypothese bestätigen. Mit Cytometric Beat Array (CBA) Messungen konnten wir gleichzeitig Mediatoren wie "Interleukin -1ß" (IL-1ß), "tumor necrosis factor-alpha" (TNF-α), IL-8, IL-6, IL-12P70 undrnIL-10 messen und damit demonstrieren, dass PPD in der Lage ist, bei allen Spendern "Danger Signals" zu induzieren. Zudem konnten wir zeigen, dass die PPD induzierte Zytokinausschüttung interindividuell schwankte und zu unterschiedlichen Zeitpunkten erfolgte. Überraschenderweise war die qualitative Zusammensetzung der Zytokine vergleichbar. Während in 3 von 4 Spendern die Zytokinexpression eher schwach erhöht war und von kurzer Dauer, haben wir in einem Spender vor allem mit den Konzentrationen von 10μM und 50μM PPD verblüffend hohe Zytokinausschüttungen gemessen. Dieser Spenderrnscheint eine Person zu repräsetieren, die empfänglicher für eine PPD Sensibilisierung ist als andere. Unabhängig davon, hat uns die Tatsache, dass PPD in allen Spendern "Danger Signals", aber keine gesteigerte Expressionsrate von traditionellen Reifungsmarkern (mit Ausnahme von CCR7) induzierte, veranlasst zu untersuchen, ob PPD anderweitig fähig ist,in MoDC Immunantworten zu modulieren. Daraufhin haben wir den Einfluss von PPD aufrnaktivierte DCs gemessen und die Ergebnisse bestätigten die Annahme. Weiterhin konnten wir zeigen, dass PPD immunogenes Potential aufweist. Aufgrund der Tatsache, dass die LPS induzierten Signaltransduktionswege in MoDC gut charakterisiert sind, konnten wir mit dieser Studie zusätzlich Hinweise über die PPD induzierte Signalgebung liefern.
Die Wechselwirkungen zwischen Atmosphäre und Schnee sind für die Simulation der Grenzschicht (BL) über Schneedecken von Bedeutung. Um diese Wechselwirkungen zu untersuchen, wird das mesoskalige Lokalmodell (LM) des Deutschen Wetterdienstes (DWD) mit einer horizontalen Auflösung von etwa 14 km und einer hohen vertikalen Auflösung in der Grenzschicht für Simulationen über Grönland verwendet. Weil die Verwendung des Bodenmodells des LM zu unrealistischen Ergebnissen führt, wurden dessen Schneeeigenschaften angepasst. Die Simulationen werden für zehn Tage im Juli 2002 durchgeführt, währenddessen ein Feldexperiment an der Station Summit stattfand. Zur Validation des LM wurden die Simulationsergebnisse mit diesen Messungen verglichen. Der Vergleich ergibt Defizite bei der bodennahen Temperatur sowie bei Turbulenzgrößen. Die Turbulenzparametrisierung des LM weist bei stabiler Schichtung Defizite auf. Daher wurde ein lokaler Mischungswegansatz und eine skalare Rauhigkeitslänge über Eis und Schnee implementiert und ihr Einfluss untersucht. Beide Parametrisierungen zeigen eine Verbesserung der turbulenten kinetischen Energie und des fühlbaren Wärmeflusses. Um die Schneedrift und ihren Einfluss auf die Schneeakkumulation zu untersuchen, wurde das eindimensionale Schneemodell SNOWPACK mit PARCA-Messungen und LM-Ergebnissen angetrieben, sowie eine gekoppelte Version LM/SNOWPACK verwendet. SNOWPACK hat eine realistischere Darstellung des Schnees als das LM-Bodenmodell und ermöglicht die Simulation der mikrophysikalischen Schneeigenschaften. Die mit PARCA-Messungen angetriebenen Simulationen ergeben einen Zusammenhang zwischen Schneedrift und Neuschnee sowie hohen Windgeschwindigkeiten, diese Faktoren sind jedoch nicht die alleinigen Mechanismen. Während die Eigenschaften des Schneefeldes von den Anfangsbedingungen abhängen, ist der Einfluss des Anfangsfeldes auf die Schneedrift gering. Die Simulationen mit dem LM ergeben eine Verbesserung der bodennahen Temperaturen durch die Kopplung. Die Schneedrift ist in erster Linie in den Randgebieten des grönländischen Eisschildes zu finden. Dort ist die Schneeakkumulation durch Schneedrift von gleicher Größenordnung wie Evaporation/Sublimation von Schnee.
The present study covers the period from the late-ninth to the early-sixteenth centuries. Within this period, the late-thirteenth to mid-fourteenth centuries marked the decisive turning point, shaped more by attitudes and actions among the Christian majority than among Jewish agents. Our findings indicate an intensification of anti-Jewish tendencies, rooted in religious developments in Western Christendom. According to circumstances, however, these tendencies had a very varying impact across time and space. The frequent religious and ecclesiastical reform movements of Western Europe offer cases in point. In the 'German' Empire north of the Alps the monastic reforms of Saint Maximin and Gorze were by no means confined to the realm of monasticism; they were essential for shaping the historical circumstances in which the foundations of Ashkenazic Judaism were laid in the tenth and early-eleventh centuries. The concept of 'honor' was used by leading ecclesiastics such as bishop Rudiger of Speyer in 1084 to justify the settlement of Jews, but also by civic authorities such as those of Regensburg later on. It is significant for the long-term tendency, therefore, that the late-medieval expulsions from cities like Trier, Cologne, and Regensburg were eventually also legitimized by reference to the idea of honor.
In der Arbeit wird untersucht, wie die EU mit Diversität umgeht, wie sich entsprechende Maßnahmen in der Personalpolitik der verschiedenen europäischen Behörden niederschlägt und welche Auswirkungen dies hat. Es wird herausgearbeitet, dass die EU als Institution einige Spezifika aufweist, die diese Frage beeinflussen und die bei einer Beurteilung Berücksichtigung finden müssen. So ist die EU verpflichtet, die Vielfalt der Mitgliedstaaten in den eigenen Institutionen abzubilden. Eine Besonderheit ist auch, dass die Effizienz der Organisation " und damit auch der mögliche Wert von Diversity Management (DiM) " mangels marktinduzierter Kriterien schwer zu bestimmen ist. Die Arbeit gliedert sich in vier Teile. Nach einer überblickartigen Einführung (Teil A) werden in Teil B der Anspruch von DiM und dessen Vor- und Nachteile dargestellt. Als Bezugspunkt für erfolgreiches DiM werden einige Beispiele aus deutschen Großunternehmen angeführt, wo DiM eine relativ bedeutende Rolle spielt. Die Einschätzung, was diese Erfahrungen für die EU bedeuten könnten, schließt den Teil B ab. Dabei werden die Besonderheiten einer Behörde, die durch starke rechtliche Regelungen gebunden ist und für die es kaum eindeutige Effizienzkriterien gibt, besonders hervorgehoben. Der Teil C enthält die empirischen Recherchen, die angestellt wurden. Dazu werden zunächst das Weißbuch des Kinnock Reports und das Statut für die Beamten der Europäischen Gemeinschaften von 2004 ausführlich dargestellt und anschließend gewürdigt. Es stellt sich heraus, dass bei einzelnen Personalmaßnahmen bereits weitgehende Öffnungen und Flexibilitäten vorgesehen sind, die sich unmittelbar zur Implementierung von DiM anbieten. Im Weiteren wurde ein leitender Mitarbeiter des Europäischen Parlaments zu dem Statut ausführlich interviewt. Die Ergebnisse verleihen den vorher geschilderten Regelungen des Statuts Farbe und vermitteln dem Außenstehenden ein lebendiges Bild vom Innenleben einer solchen Behörde. Die Einschätzung der neuen Regelungen durch den Interviewten ist zwar differenziert, aber insgesamt ergibt sich doch ein positives Bild der personalpolitischen Maßnahmen im Hinblick auf die mögliche Implementierung von DiM. Die zweite wesentliche empirische Quelle der Arbeit sind Publikationen der EU selbst zu Problemen der Diversität, Diskriminierung und verwandten Themen. Die dazu erschienenen Broschüren geben Auskunft darüber, welche Ansichten die Mitarbeiter zu Bestrebungen um Diversität und Chancengleichheit äußern, welche Aktionen die EU plant und welche Erfolge man sich erhofft. Die Prüfung dieser Unterlagen ergibt, dass in einer solchen Organisation die Integration von Minderheiten weit fortgeschritten ist und Vorurteile und offene Diskriminierungen weitgehend fehlen. Jedoch werden Umsetzungsprobleme der Maßnahmen zur Chancengleichheit der Geschlechter, zur work-life balance, zur Respektierung von Behinderungen oder sexuellen Orientierungen konstatiert. Um die geschilderten Maßnahmen zu beurteilen, werden sie mit entsprechenden Entwicklungen der im zweiten Teil der Arbeit beschriebenen privatwirtschaftlichen Organisationen, die als Vorreiter des DiM in Europa angesehen werden können, verglichen. In einem weiteren Schritt sollten die Einschätzung der Mitarbeiter zu Diversität und zu den vorher beschriebenen Maßnahmen ergründet werden. Die ins Auge gefasste repräsentative Befragung konnte trotz anfänglicher Ermutigung in einer Behörde der EU, dem Europäischen Parlament (EP), nicht durchgeführt werden, da die EU-Behörden eine offizielle Unterstützung der Untersuchung und damit den Zugang zu anderen Interviewpartnern nicht zustimmten. Daher beschränkte sich die Befragung auf Mitarbeiter, die sich nach Ansprache durch einige leitende Beamte zur Beantwortung gleichsam als Privatpersonen zur Ausfüllung des Fragebogens bereit erklärten. Die Befragung hat also keinerlei repräsentativen, sondern rein explorativen Charakter. Im Teil D der Arbeit wird eine Gesamtbewertung der Recherchen abgegeben. Es wird konstatiert, dass zwar eine Menge an Einzelinitiativen und -maßnahmen in den Behörden der EU zu finden ist, dass aber mit einem übergreifenden Konzept des DiM diese Aktionen koordiniert und in ihrem Nutzen verstärkt werden könnten.
Broadcast media such as television have spread rapidly worldwide in the last century. They provide viewers with access to new information and also represent a source of entertainment that unconsciously exposes them to different social norms and moral values. Although the potential impact of exposure to television content have been studied intensively in economic research in recent years, studies examining the long-term causal effects of media exposure are still rare. Therefore, Chapters 2 to 4 of this thesis contribute to the better understanding of long-term effects of television exposure.
Chapter 2 empirically investigates whether access to reliable environmental information through television can influence individuals' environmental awareness and pro-environmental behavior. Analyzing exogenous variation in Western television reception in the German Democratic Republic shows that access to objective reporting on environmental pollution can enhance concerns regarding pollution and affect the likelihood of being active in environmental interest groups.
Chapter 3 utilizes the same natural experiment and explores the relationship between exposure to foreign mass media content and xenophobia. In contrast to the state television broadcaster in the German Democratic Republic, West German television regularly confronted its viewers with foreign (non-German) broadcasts. By applying multiple measures for xenophobic attitudes, our findings indicate a persistent mitigating impact of foreign media content on xenophobia.
Chapter 4 deals with another unique feature of West German television. In contrast to East German media, Western television programs regularly exposed their audience to unmarried and childless characters. The results suggest that exposure to different gender stereotypes contained in television programs can affect marriage, divorce, and birth rates. However, our findings indicate that mainly women were affected by the exposure to unmarried and childless characters.
Chapter 5 examines the influence of social media marketing on crowd participation in equity crowdfunding. By analyzing 26,883 investment decisions on three German equity crowdfunding platforms, our results show that startups can influence the success of their equity crowdfunding campaign through social media posts on Facebook and Twitter.
In Chapter 6, we incorporate the concept of habit formation into the theoretical literature on trade unions and contribute to a better understanding of how internal habit preferences influence trade union behavior. The results reveal that such internal reference points lead trade unions to raise wages over time, which in turn reduces employment. Conducting a numerical example illustrates that the wage effects and the decline in employment can be substantial.
Erlebnisgenese im Tourismus
(2021)
Das Thema des Erlebnisses steht bereits seit langem im Fokus von Anbietern von Dienstleistungen. Dies gilt insbesondere für den Tourismus, einer Branche, deren Produkte zu einem signifikanten Teil aus solchen bestehen. Entsprechend der Prominenz des Themas, vor allem in den Bereichen touristischer Produktentwicklung und Marketing, ist dieses bereits breit in der Forschung diskutiert worden.
Trotz ausgiebiger Publikationsaktivitäten ist der tatsächliche Wissensstand in diesem Thema dennoch auffällig gering. Ein wichtiges Problem liegt darin begründet, dass die Terminologie im Bereich von Erlebnissen noch nicht allgemein akzeptiert und scharf abgegrenzt ist. So muss zwischen Erlebnissen und Erfahrungen unterschieden werden. Erstere treten während des Prozesses der Wahrnehmung einer touristischen Dienstleistung auf und bilden die Basis für Erfahrungen, welche prägend hinsichtlich der Wahrnehmung wirken und im Gesamtkontext der Reise betrachtet werden. Dieser Unterscheidung wird nicht nur in der englischsprachigen Literatur, in der beide Begriffe mit dem Begriff Experience beschrieben werden, sondern auch in der deutschsprachigen Literatur zumeist zu wenig Rechnung getragen, was dazu führt, dass häufig zu Erlebnissen publiziert wird, obwohl eigentlich Erfahrungen beschrieben werden. Problematisch ist dies vor allem, weil damit ein Phänomen untersucht wird, dessen Basis nahezu gänzlich unbekannt ist. Wichtige Fragen, welche zum Verständnis von Erlebnissen und damit auch von Erfahrungen bleiben unbeantwortet:
1) Welche Faktoren werden in der Genese von Erlebnissen wirksam?
2) Wie wirken diese zusammen?
3) Wie wird die Stärke eines Erlebnisses determiniert?
4) Wie werden Erlebnisse stark genug um den Konsum einer touristischen Dienstleistung zu prägen und damit gegebenenfalls zu Erfahrungen zu werden?
In der vorliegenden Arbeit wurden diese Fragen beantwortet, womit ein erster Schritt in Richtung der Füllung einer für die Tourismuswissenschaft nicht unbedeutenden Forschungslücke gelungen ist.
Um Erlebnisse, den Prozess der Genese dieser und deren Bewertung durch den Gast verstehen zu können, wurde ein triangulierter, zweistufiger Forschungsprozess ersonnen und in einem naturtouristischen Setting im Nationalpark Vorpommersche Boddenlandschaft zur Anwendung gebracht. Es handelt sich dabei um einen Mixed-Methods-Ansatz:
1) Induktive-qualitative Studie auf Basis der Grounded Theory
a. Ziel: Identifikation von Wirkkomponenten und deren Zusammenspiel und Generierung eines Modells
b. Methoden: Verdeckte Beobachtung und narrative Interviews
c. Ergebnisse: Modelle der Genese punktueller Erlebnisse und prägender Erlebnisse
2) Deduktive-quantitative Studie
a. Ziel: Überprüfung und Konkretisierung der in 1) generierten Modelle
b. Methoden: Fragebogengestützte, quantitative Befragung und Auswertung mittels multivariater Verfahren
c. Ergebnisse: Zusammenfassung der beiden Modelle zu einem finalen Modell der Erlebnis- und Erfahrungsgenese
Das Ergebnis des Vorgehens ist ein empirisch erarbeitetes und validiertes, detailliertes Modell der Genese von Erlebnissen und der Bewertung dieser durch den Erlebenden in Bezug auf deren Fähigkeit zu Erfahrungen zu werden.
Neben der Aufarbeitung und Konkretisierung dieses Prozesses konnte zusätzlich die in viele Richtungen diskutierte Bedeutung von Erwartungen und Produktzufriedenheit mit Blick auf die Bewertung von Erlebnissen geklärt werden. So konnte empirisch nachgewiesen werden, dass Erlebnisse, die auf Überraschungen, dem Unerwarteten, basierten besonders resistent gegenüber Störfaktoren waren und positive Erlebnisse zwar durchaus im Zusammenhang mit Produktzufriedenheit stehen aber sich vor allem durch eine zumindest temporär gesteigerte Lebenszufriedenheit manifestieren. Damit konnte das Hauptkriterium für die Bewertung von Erlebnissen mit Blick auf ihre Tauglichkeit zu Erfahrungen identifiziert werden.
Für die weitere Forschung kann die vorliegende Arbeit mit dem finalen Modell der Erlebnis- und Erfahrungsgenese einen soliden Ausgangspunkt bilden. So bieten zahlreiche Faktoren im Modell die Möglichkeit zur weiteren Forschung. Auch sollten die Ergebnisse in weiteren touristischen Kontexten überprüft werden.
Für die touristische Praxis kann die vorliegende Arbeit zahlreiche Hinweise geben. So bedeutet die Generierung von Erlebnissen im touristischen Kontext mehr als nur die Erfüllung von Erwartungen. Die widerstandsfähigsten Erlebnisse sind jene, die den Gast zu überraschen vermögen. Ein qualitativ hochwertiges, den Gast zufriedenstellendes Produkt ist dabei nicht mehr als ein Basisfaktor. Wirklich erfolgreich ist ein erlebnisbasierender Ansatz nur dann, wenn dieser es vermag die Lebenszufriedenheit des Gastes zu steigern.
Untersucht wird die Geschichte des Führerkorps des nationalsozialistischen Reichsarbeitsdienstes von seinen Anfängen im Freiwilligen Arbeitsdienst der Weimarer Republik bis zu den Traditionsverbänden der ehemaligen Führer in der Gegenwart. Der Schwerpunkt der Arbeit liegt auf der Sozial- und Institutionsgeschichte des Führerkorps, die um alltags- und mentalitätsgeschichtliche Aspekte ergänzt werden. Auf der Grundlage einer statistischen Auswertung von 1000 Personalakten werden die Zusammensetzung und die Sozialstruktur des Führerkorps, seine "Gleichschaltung" sowie seine Beziehungen zu Militär, Nationalsozialismus und Kirche analysiert. Als Folie für die Interpretation dient der Vergleich mit anderen Berufsgruppen sowie den Führerkorps anderer NS-Organisationen. Aufbauend auf dieser prosopographischen Untersuchung wird anhand von zeitgenössischen und autobiographischen Äußerungen von Arbeitsdienstführern erklärt, warum der Arbeitsdienst so positiv erlebt wurde, daß er Teil der Identität vieler Führer wurde, und welche Faktoren zur Entstehung einer Gemeinschaft unter den Führern beitrugen, die bis in die jüngste Vergangenheit hinein bestand. Das primäre Interesse gilt hierbei den Mechanismen, mit denen der totalitäre NS-Staat bei den Angehörigen seiner unteren und mittleren Führungs- und Trägerschichten Loyalität erzeugte und erhielt. Schließlich wird die Rolle der Führer im Lageralltag und in der Lagererziehung des Reichsarbeitsdienstes betrachtet. Die Strukturen der Lager und die zu konstatierende Diskrepanz zwischen Anspruch und Realität der Lagererziehung lassen dabei Schlüsse auf Charakter und Funktion des Arbeitsdienstes im "Dritten Reich" zu.
With two-thirds to three-quarters of all companies, family firms are the most common firm type worldwide and employ around 60 percent of all employees, making them of considerable importance for almost all economies. Despite this high practical relevance, academic research took notice of family firms as intriguing research subjects comparatively late. However, the field of family business research has grown eminently over the past two decades and has established itself as a mature research field with a broad thematic scope. In addition to questions relating to corporate governance, family firm succession and the consideration of entrepreneurial families themselves, researchers mainly focused on the impact of family involvement in firms on their financial performance and firm strategy. This dissertation examines the financial performance and capital structure of family firms in various meta-analytical studies. Meta-analysis is a suitable method for summarizing existing empirical findings of a research field as well as identifying relevant moderators of a relationship of interest.
First, the dissertation examines the question whether family firms show better financial performance than non-family firms. A replication and extension of the study by O’Boyle et al. (2012) based on 1,095 primary studies reveals a slightly better performance of family firms compared to non-family firms. Investigating the moderating impact of methodological choices in primary studies, the results show that outperformance holds mainly for large and publicly listed firms and with regard to accounting-based performance measures. Concerning country culture, family firms show better performance in individualistic countries and countries with a low power distance.
Furthermore, this dissertation investigates the sensitivity of family firm performance with regard to business cycle fluctuations. Family firms show a pro-cyclical performance pattern, i.e. their relative financial performance compared to non-family firms is better in economically good times. This effect is particularly pronounced in Anglo-American countries and emerging markets.
In the next step, a meta-analytic structural equation model (MASEM) is used to examine the market valuation of public family firms. In this model, profitability and firm strategic choices are used as mediators. On the one hand, family firm status itself does not have an impact on firms‘ market value. On the other hand, this study finds a positive indirect effect via higher profitability levels and a negative indirect effect via lower R&D intensity. A split consideration of family ownership and management shows that these two effects are mainly driven by family ownership, while family management results in less diversification and internationalization.
Finally, the dissertation examines the capital structure of public family firms. Univariate meta-analyses indicate on average lower leverage ratios in family firms compared to non-family firms. However, there is significant heterogeneity in mean effect sizes across the 45 countries included in the study. The results of a meta-regression reveal that family firms use leverage strategically to secure their controlling position in the firm. While strong creditor protection leads to lower leverage ratios in family firms, strong shareholder protection has the opposite effect.
Diese Arbeit gibt einen Überblick über Open Source-basierte Bibliotheksverwaltungssysteme (Stand Mai 2005). Deren Entwicklungsstand und Leistungsfähigkeit wurden untersucht und bewertet. Ein wichtiger Vergleichspunkt sind die Kosten bei einem Einsatz kommerzieller Systeme (Vergleichsmaßstab ALEPH 500) und einem Einsatz von Open Source-basierten Systemen und deren Weiterentwicklung.
Das Intranet als Forum der innerbetrieblichen Kommunikation in wissenschaftlichen Bibliotheken
(2005)
Das Intranet als Kommunikationsmittel in wissenschaftlichen Bibliotheken wird hier hinsichtlich der Einsatzmöglichkeiten, der Vor- und Nachteile beleuchtet und aus der Sicht der Leitung und Führung bewertet. Als ein Anwendungsbeispiel wird das Intranet der Universitätsbibliothek Trier auf dem Stand November 2005 vorgestellt.
The allergic contact dermatitis (ACD) to small molecular weight compounds is a common inflammatory skin reaction. ACD is restricted to industrialized countries, has an enormous sociomedical and socioeconomic impact. About 2,800 compounds from the six million chemicals known in our environment are believed to have allergic, and to a lesser degree also contact-sensitizing or immunogenic properties causing allergic contact dermatitis. ACD results from T cell responses to harmless, low molecular weight chemicals (haptens) applied to the skin. Haptens are not directly recognized by the cells of the immune system. They need to be presented by subsets of antigen presenting cells to the cells of the immune system. In this regard, epidermal Langerhans cells (LC) and the cells into which they mature (dendritic cells) are believed to play a pivotal role in the sensitization process for ACD. LC are able to bind the haptens, internalize them, and present them to naive T cells and induce thereby the development of effector T cells. They are so-called professional antigen presenting cells. This process is initiated and maintained by the release of several mediators, which are released by various cells after their contact with the haptens. One of the first proteins secreted into the environment is interleukin (IL)-1ß. This cytokine is produced and secreted minutes after an antigen enters the cell. It is commonly believed that the large amounts of this protein and other cytokines such as granulocyte-colony stimulation factor (GM-CSF) and tumor necrosis factor alpha (TNF-ï¡) needed for the initiation and activation of ACD are coming first from other cells residing in the skin, e.g., keratinocytes, monocytes and macrophages. These cytokines provide the danger signals needed for the activation of the Langerhans cell (LC), which then produce via a positive feedback loop various cytokines themselves. In addition, other proteins such as chemokines influence the generation of danger signals, migration, homing of T cells in the local lymph nodes as well as the recruitment of T cells into the skin. Thus, a small molecular compounds or hapten needs to be able to induce danger signals in order to become immunogenic. In this study, we investigated whether para-phenylenediamine (PPD), an arylamine and common contact allergen, is able to induce danger signals and likely provide the signals needed for an initiation of an immune response[162, 163]. PPD is used as an antioxidant, an ingredient of hair dyes, intermediate of dyestuff, and PPD is found in chemicals used for photographic processing. But up to date, it has not been clearly demonstrated if PPD itself is a sensitizing agent. Thus, this study aimed on the potential of PPD to provide the danger signals by studying IL-1β, TNF-ï¡, and monocyte chemoattractant proteins (MCP-1) in human monocytes, peripheral blood mononuclear cells (PBMC) from healthy volunteers, and also in two human monocyte cell lines namely U937, and THP-1. This study found that PPD decreased dose- and time-dependently the expression and release of three relevant mediators involved in the generation of danger signals. Namely, PPD reduced the mRNA and protein levels for IL-1ß, TNF-ï¡, and MCP-1 in primary human monocytes from various donors. These findings were extended and validated by investigations using the cell line U937. The data were highly specific for PPD, and no such results were gained for its known auto oxidation product called Bandrowski- base or for meta-phenylenediamine (MPD), and ortho-phenylenediamine (OPD). Therefore, we can speculate that this effect is likely to be dependent on the para-substitution. Based on these results we conclude that PPD itself is not able to mount a cascade for the induction of danger signals. It should be mentioned that it is still possible that PPD induces danger signals for sensitization by other unknown processes. Therefore, more research is still needed focusing on this subject especially in professional antigen presenting cells in order to solve the still open question whether PPD itself sensitizes naive T cells or if PPD is solely an allergen. Independently we found unexpectedly that PPD as well as other haptens such as 2, 4-Dinitrochlorobenzene, nickelsulfate, as well as some terpenoide increased clearly the expression of CC chemokin receptor 2 (CCR2), the receptor for the chemokine MCP-1. Up to date, the main importance for the CCR2 receptor comes from results demonstrating that CCR2 is critical for the migration of monocytes after encounter with bacterial lipopolysaccharides. Under these circumstances the receptor disappears from the cell surface and is down regulated. An up regulation of CCR2 has not been reported for haptens, and deserves further investigations.
Medienpolitische Verflechtungen in Italien seit 1945 - Entwicklungslinien, Akteure, Konfliktfelder
(2007)
Der Schwerpunkt der Arbeit basiert auf einer retrospektiven Betrachtung des seit Jahrzehnten in Italien etablierten komplexen Beziehungsnetzwerkes zwischen Medien und Politik. Von seinen Anfängen im 19. Jh. bis einschließlich Mitte September 2006 werden die Konsequenzen dieser medienpolitischen Interdependenzen analysiert und kritisch hinterfragt. Ein weiterer Forschungsschwerpunkt liegt dabei auf der seit dem letzten Jahrzehnt virulent geführten Debatte über den Einfluss des italienischen Medienmoguls und Spitzenpolitikers Silvio Berlusconi auf die mediale Politikberichterstattung Italiens. Die vorhandenen Sprachbarrieren machen es allerdings oft nicht leicht, die Komplexität der italienischen Medien- und Politiklandschaft zu verstehen. Bei oberflächlicher Betrachtung kann dies rasch zu Fehleinschätzungen und -interpretationen führen, die in der gegenwärtigen Studie korrigiert werden. Neben einer fundierten Analyse der existierenden Fachliteratur zur Entwicklung der italienischen Massenmedien gründet die Studie auf einer detaillierten Berücksichtigung journalistischer Publikationen unterschiedlicher italienischer Tageszeitungen. Bei diesem literature review werden insgesamt 335 italienischsprachige Quellen berücksichtigt, von denen 128 Fachpublikationen sind. Mehrheitlich handelt es sich um soziologische, politik- und kommunikationswissenschaftliche Veröffentlichungen aus den vergangenen 15 Jahren. In Form eines chronologisch-deskriptiven Überblicks wird vor allem die Entwicklung des italienischen Fernsehsektors seit seiner Einführung 1954 bis zur Gegenwart nachgezeichnet. In diesem Kontext wird der Aufstieg Berlusconis zum Medienmogul und zum zweimaligen Ministerpräsidenten Italiens vor dem gesellschaftspolitischen Hintergrund skizziert und mit Interpretationen der italienischen Vergangenheit und Gegenwart abgeglichen. Dies erklärt letztlich auch die Herausbildung des Medienmonopols von Silvio Berlusconi und dessen Instrumentalisierungsversuche der Medien für seine politischen Zwecke. Die Arbeit gliedert sich in zwei Teile. Der erste Teil beinhaltet eine historisch-deskriptive Darstellung der seit Jahrzehnten bestehenden symbiotischen Verquickung von Medien und Politik in Italien (Kap. 1 bis 7). Hierbei finden politische, ökonomische, soziale und rechtliche Aspekte Berücksichtigung. Zudem stehen die unterschiedlichen Akteure des Mediensektors wie politische Parteien, Politiker, Journalisten, Medienunternehmen, Wähler sowie die katholische Kirche im Zentrum der Arbeit. Zum besseren Verständnis werden sie nicht isoliert, sondern in ihren vielfältigen Wechselwirkungen betrachtet. Da Berlusconi in den vergangenen vier italienischen Parlamentswahlen stets der Anwärter auf das Präsidentschaftsamt des Mitte-Rechts-Lagers war, werden die relevanten medienpolitischen Aspekte aller vier Wahlen zusammengefasst und erstmalig zueinander in Beziehung gesetzt. Im zweiten Teil werden Perspektiven für ein zukünftiges Forschungsvorhaben präsentiert, um die Qualität italienischer Hauptabendnachrichten in Bezug auf ihren tendenziösen Charakter zum Vor- bzw. Nachteil politischer Akteure bestimmen zu können (Kap. 8). Auf Basis des identifizierten Forschungsdefizits italienischer Studien wird ein idealtypisches Analysekonzept für künftige Studien entwickelt, das auf der empirischen Methode der Inhaltsanalyse beruht. Ein exemplarisch vorgestelltes Forschungsdesign soll dazu beitragen, zukünftig Erkenntnisse über die Qualität der politischen Fernsehberichterstattung in Italien gewinnen zu können. Dies erfolgt unter Rückgriff auf die kommunikationswissenschaftlichen Theorien: gatekeeper-, agendasetting-, framing-, bias-Ansatz und instrumentelle Aktualisierung. Das Ziel der Arbeit ist es, das Wechselspiel und die Einflussversuche unterschiedlicher Akteure des italienischen Mediensektors in ihrem historischen Kontext darzustellen. Hierbei interessieren vor allem die zentralen Konfliktfelder und Entwicklungslinien, die im Rahmen der medienpolitischen Verflechtungen Italiens zu konstatieren sind. Mittels eines umfassenden reviews der italienischen Literatur sollen die vorhandenen Sprachbarrieren überwunden und der deutschsprachigen Leserschaft gezielt soziopolitische Zusammenhänge des modernen italienischen Journalismus und seiner historischen Entwicklung zugänglich gemacht werden. Ein weiteres Ziel besteht darin, den Kenntnisstand über italienische Studien zum engen Netzwerk aus Medien und Politik zu erhöhen. Insgesamt wird eine systematische Aufarbeitung der medienpolitischen Charakteristika Italiens sowohl aus inländischer als auch aus ausländischer Sicht geliefert.
Der Radtourismus hat in den letzten 15 bis 20 Jahren eine dynamische Entwicklung genommen, die ihn zu einer wichtigen Tourismusart für viele Regionen in vor allem ländlich geprägten Regionen werden ließ. Die Konsequenz war und ist ein erheblicher Ausbau der radtouristischen Infrastruktur, die hauptsächlich aus öffentlichen Mitteln finanziert wurde. Die radtouristische Nachfrage umfasst in Deutschland - je nach zu Grunde gelegten Daten - zwischen 4,2 und 7,9 Mio. Bundesbürger. Dabei ist die Entwicklung dieser Nachfrage in den letzten Jahren eher stagnierend verlaufen, trotzdem steht ihr ein weiter wachsendes radtouristisches Angebot gegenüber. Die Frage, ob sich diese Investitionen über die durch den Radtourismus ausgelösten regionalwirtschaftlichen Effekte bezahlt machen, steht im Zentrum dieser Arbeit und wurde mit Hilfe einer empirischen Erhebung untersucht. Für das Bundesland Rheinland-Pfalz insgesamt konnte eine Spannweite von 4,2 bis 7,7 Mio. Radtouristen pro Jahr ermittelt werden, wovon zwischen 2,9 und 6,0 Mio. Tagesgäste sind. Auf Grund der während der Radurlaube getätigten Ausgaben lassen sich die durch den Radtourismus induzierten regionalwirtschaftlichen Effekte in einer Größenordnung von 275 Mio. € bis 327 Mio. € bestimmen, was rund 10% der gesamttouristischen Wertschöpfung in Rheinland-Pfalz entspricht. Werden die Investitionskosten für die vier untersuchten Radwege " Mosel-Radweg, Nahe-Radweg, Maare-Mosel-Radweg und Kraut und Rüben-Radweg " der jährlich auf diesen Wegen erzielten Wertschöpfung in Höhe von ca. 62 Mio. € gegenübergestellt, muss festgestellt werden, dass sich die Investitionen schon nach kurzer Zeit über die positiven, indirekten wirtschaftlichen Effekte in den Regionen bezahlt gemacht haben. Insgesamt gesehen stellt sich somit der Radtourismus als attraktives, wirtschaftlich tragfähiges touristisches Segment dar, welches in der Lage ist, auch in peripheren Regionen touristische Wertschöpfung zu erzeugen. Voraussetzung hierfür ist aber die Beachtung der dargestellten Anforderungen, welche die Nachfrage an das Produkt Radtourismus stellt und die Einhaltung von verschiedenen Qualitätsanforderungen. Erst wenn Radtourismus als Qualitätsprodukt verstanden wird, hinter dem auch die touristischen Leistungsträger einer Region stehen, kann Radtourismus zu einem wichtigen Wirtschaftsfaktor innerhalb einer Region entwickelt werden.
Weibliches Publikum, Programmgestaltung und Rezeptionshaltung im frühen deutschen Kino (1906-1918)
(2009)
Die vorliegende Dissertation analysiert die wechselseitigen Einflussnahmen von weiblichem Publikum und der Kino-Programmgestaltung in der Zeit von der Gründung erster ortsfester Kinos um 1906 bis zum Ende des 1. Weltkrieges. Dabei bilden der Kinobesuch von Frauen, die Konstruktion von Geschlechteridentität im und durch das Kinoprogramm und der wechselseitige Einfluss von weiblichem Publikum und Programmgestaltung, sowie die Veränderung von Filmgenres und -längen und die Veränderung des Rezeptionsverhaltens das Paradigma der Analyse. Der Fokus auf das weibliche Publikum ist bewusst gewählt, da Frauen auch zu Beginn des 20. Jahrhunderts einen großen Anteil am Kino-Publikum ausmachten. Dies ist besonders bemerkenswert unter der Prämisse, dass Frauen traditionell aufgrund der bürgerlichen Trennung zwischen privater und öffentlicher Sphäre nicht Teil eines öffentlichen Publikums waren. Daher liegt es nahe zu vermuten, dass das Auftreten dieses völlig neuen Publikumssegments nicht spurlos am Kino vorbeigegangen ist. Es hat Einfluss genommen auf die Filme, aber auch auf das Kino als Ort und die Programmierung seiner Filme. Das Aufkommen eines weiblichen Publikums bewirkte, so die Leitthese der vorliegenden Dissertation, eine Veränderung der Kinoprogrammstruktur weg vom diversen Nummerprogramm des "cinema of attractions", das kürzere Slapstick-Filme, Trickfilme sowie kurze Filme mit Spielhandlungen mit dokumentarischem Material verband hin zu einem Programm, dessen Hauptattraktion ein, oder maximal zwei lange Filme mit fiktionalem Inhalt waren. Auf der Grundlage zweier Lokalstudien zum Kinoprogramm zweier mittelgroßer deutscher Städte analysiert die vorliegende Arbeit den Prozess, in dem das von klassen- und geschlechtsspezifischer sowie kultureller Diversität geprägte frühe Kino, dem Heide Schlüpmann eine heimliche Komplizenschaft mit der weiblichen Emanzipationsbewegung des Wilhelminischen Deutschlands zuspricht, abgelöst wird durch ein stabilisiertes, institutionalisiertes, nationalisiertes deutsches Kino. Eingeführt und ergänzt wird die tiefergehende Analyse der Kinoprogramme der untersuchten Städte durch eine auf historischen Quellen beruhende Untersuchung der Struktur und Wahrnehmung des weiblichen Publikums und der Programm- und Aufführungsmodalitäten in der Zeit zwischen 1906 und 1913 sowie während des Ersten Weltkriegs.
Cinema programming, the composition of films to make a specific "show," remains a neglected way to research the relation between audiences and film form. As a mode of exhibition " advertised, promoted, and circulating in the public sphere even before an audience is gathered " the program can be seen as an active social relation between cinema managers and their audiences. Changes in the composition of film programs, in my case the years before the First World War in Mannheim, Germany, are thus not taken as part of a teleological evolution of film form, but instead reveal emerging practices of cinema-going, a changing relation among showmen, distributors, audiences, and the city they are all part of. The category of "the audience" becomes a compliment to narrative, economic and technical influences. Selecting the city of Mannheim further allows me to draw upon the pioneering German sociological study of cinema audiences, conducted there by Emilie Altenloh in 1911 and 1912. Thus, I am able to compare her survey data to the film programs that were actually advertised and offered to the public at the time, and also include knowledge of the social history of the city, to approximate a description of the historical audiences she studied. Here I follow the findings of Miriam Hansen and Heide Schlüpmann, who both stress the importance of the female audience in Imperial Germany. I account for a reciprocal relation between female spectators and the film industry- local programming practice to describe the transitional period from the short film programme of the "cinema of attractions" to the dominance of the long feature film, i.e. from 1906-1918. Looking closely at the advertised programmes of Mannheim I show that almost all of the first multiple-reel feature films deal with women- topics, i.e. with the fate and fortune of women, concluding that the presence of women in the audience helped established the long feature as central to the institutionalized cinema program. The film program and the specific feature films represented female identity on the screen, responding to the perceived wishes and needs of the women who gathered as audiences. Taking this "program analysis" approach, because it provides a synopsis of the social relation between audience, industry, and film form, is a valuable tool for comparing the social place of film comparatively, across many films, and potentially across regions, countries, and cultures.
In my paper I will talk about the mutual influences between the female spectators and the programming practices of Imperial Germany- cinema. I will focus on the period of the transition from the short film programme of the "cinema of attractions" to the dominance of the long feature film, i.e. from 1906-1918. I will ask questions how the presence of women in the cinema (the place where they first entered the public sphere) influenced the practice of programming. So I will deal with the relatively new topic of the programme (and its structural changes) as a mode of exhibition and I will try to connect this to the role the female audience played in shaping this format: how does the female audience affect the changes of the programme patterns, the modification of genres and their meaning within the structure of the programme and does it finally bring about a change in the mode of reception. And on the other hand how does the cinematographical programme represent and influence the female identity, and women- wishes and needs. One must ask for the reasons why the early cinema, that was characterised by diversity concerning class, gender and cultural issues and that built a kind of alternative public sphere, was displaced by an institutionalised, state monitored and nationalised German cinema. Taking into account that this change of film forms was not a teleological evolution, "gender" might be a more useful and insightful category than "class" is to explain the changes of the programme and the essence of early cinema. First I am going to present the main ideas of my project, then I"ll talk about the composition of the audience and the relation between audience and program, after that I"ll make some remarks on the reform movement and what the reformers thought about women in the cinema and about the programming practices, and as a last part, we"ll have a look at what actually happened in the cinema and at the program of the year 1911/1912 and how this program catered to the interests of the female audience. I"ll conclude with a short outlook on the changes that occurred during WW I.
Evaluative conditioning (EC) refers to changes in liking that are due to the pairing of stimuli, and is one of the effects studied in order to understand the processes of attitude formation. Initially, EC had been conceived of as driven by processes that are unique to the formation of attitudes, and that occur independent of whether or not individuals engage in conscious and effortful propositional processes. However, propositional processes have gained considerable popularity as an explanatory concept for the boundary conditions observed in EC studies, with some authors going as far as to suggest that the evidence implies that EC is driven primarily by propositional processes. In this monograph I present research which questions the validity of this claim, and I discuss theoretical challenges and avenues for future EC research.
Die Dissertation beschäftigt sich mit der Wahrnehmung ländlicher Armut als räumlichem Phänomen und untersucht die Maßnahmen der Agrar-, Sozial- und Raumordnungspolitik, die als strukturpolitisch wirksam zur Bekämpfung sowie Vermeidung ländlicher Armut in den zeitgenössischen Diskursen angenommen wurden. Im Mittelpunkt der Analyse stehen dabei die traditionell landwirtschaftlich geprägten Bundesländer Rheinland-Pfalz und Baden-Württemberg. Untersucht wird, wie das ländliche Armutsproblem in Aussagen von Agrar- und Sozialpolitikern sowie Experten definiert und beschrieben wurde und welche Maßnahmen aufgrund dieser Annahmen als geeignet erschienen, Armut in den agrarwirtschaftlich geprägten Regionen zu bekämpfen. Die Forschungsarbeit basiert auf der Analyse und Bewertung von Förderprogrammen und Förderungshilfen von Bund, Ländern und Kommunen und untersucht diese auf ihre Wirksamkeit hinsichtlich der Existenzsicherung landwirtschaftlicher Betriebe im südwestdeutschen Raum zwischen 1949 und 1974. Ländliche Armut wird so als vor allem bäuerliche Armut beschrieben, die in den zeitgenössischen Diskursen als räumlich abgrenzbare Existenzgefährdung in sogenannten "strukturschwachen" Räumen konstruiert wurde. Im Zusammenhang mit der Untersuchung wirtschaftspolitischer Debatten werden die sozialpolitischen Probleme diskutiert, gesetzliche Durchführungsbestimmungen der Sozialpolitik auf ihre konkreten Ziele hinsichtlich Armutsbekämpfung auf dem Land untersucht sowie die Verflechtungen von Wirtschafts- und Sozialpolitik analysiert.
In der vorliegenden Dissertation wurde Belohnungssensitivität mit Spielverhalten und elektrophysiologischen Korrelaten wie dem Ruhe-EEG und ereigniskorrelierten Potenzialen auf Feedback-Reize in Verbindung gebracht. Belohnungssensitivität ist nach der zugrundeliegenden Definition als Konstrukt mit mehreren Facetten zu verstehen, die eng mit Extraversion, positiver Affektivität, dem Behavioral Activation System, Novelty Seeking, Belohnungsabhängigkeit und Selbstwirksamkeit assoziiert sind. Bei der Untersuchung einer spezifischen Spielsituation, in der 48 gesunde Studentinnen durch eigene Entscheidungen Belohnungen erhalten konnten, zeigte sich, dass das Spielverhalten mit den während des Spiels erfassten ereigniskorrelierten Potentialen (hier: FRN (feedback related negativity)und P300) auf die Belohnungssignale in Form eines Feedbacks korreliert. Belohnungssensitive Personen zeigen tendenziell nach einem Gewinn-Feedback eine weniger negative FRN-Amplitude, die wiederum positiv mit der gewählten Einsatzhöhe assoziiert ist. Auch die Amplitude der P300 scheint mit dem Spielverhalten zusammenzuhängen. So zeigte sich ein positiver Zusammenhang zwischen typisch belohnungssensitivem Verhalten und der mittleren Amplitude der P300: Gewinne gehen mit einer größeren P300-Positivierung und schnelleren Entscheidungen im Spiel einher. Dagegen konnte weder das Spielverhalten noch die über diverse Fragebögen erfasste Ausprägung der Belohnungssensitivität in der kortikalen Grundaktivierung im Ruhezustand einer Person abgebildet werden. Die vorliegenden Ergebnisse deuten darauf hin, dass Belohnungssensitivität ein Persönlichkeitsmerkmal ist, das sich sowohl im Verhalten, als auch in der elektrokortikalen Aktivität in belohnungsrelevanten Situationen widerspiegelt.
Many people are aware of the negative consequences of plastic use on the environment. Nevertheless, they use plastic due to its functionality. In the present paper, we hypothesized that this leads to the experience of ambivalence—the simultaneous existence of positive and negative evaluations of plastic. In two studies, we found that participants showed greater ambivalence toward plastic packed food than unpacked food. Moreover, they rated plastic packed food less favorably than unpacked food in response evaluations. In Study 2, we tested whether one-sided (only positive vs. only negative) information interventions could effectively influence ambivalence. Results showed that ambivalence is resistant to (social) influence. Directions for future research were discussed.
When humans encounter attitude objects (e.g., other people, objects, or constructs), they evaluate them. Often, these evaluations are based on attitudes. Whereas most research focuses on univalent (i.e., only positive or only negative) attitude formation, little research exists on ambivalent (i.e., simultaneously positive and negative) attitude formation. Following a general introduction into ambivalence, I present three original manuscripts investigating ambivalent attitude formation. The first manuscript addresses ambivalent attitude formation from previously univalent attitudes. The results indicate that responding to a univalent attitude object incongruently leads to ambivalence measured via mouse tracking but not ambivalence measured via self-report. The second manuscript addresses whether the same number of positive and negative statements presented block-wise in an impression formation task leads to ambivalence. The third manuscript also used an impression formation task and addresses the question of whether randomly presenting the same number of positive and negative statements leads to ambivalence. Additionally, the effect of block size of the same valent statements is investigated. The results of the last two manuscripts indicate that presenting all statements of one valence and then all statements of the opposite valence leads to ambivalence measured via self-report and mouse tracking. Finally, I discuss implications for attitude theory and research as well as future research directions.
Due to the breath-taking growth of the World Wide Web (WWW), the need for fast and efficient web applications becomes more and more urgent. In this doctoral thesis, the emphasis will be on two concrete tasks for improving Internet applications. On the one hand, a major problem of many of today's Internet applications may be described as the performance of the Client/Server-communication: servers often take a long time to respond to a client's request. There are several strategies to overcome this problem of high user-perceived latencies; one of them is to predict future user-requests. This way, time-consuming calculations on the server's side can be performed even before the corresponding request is being made. Furthermore, in certain situations, also the pre-fetching or the pre-sending of data might be appropriate. Those ideas will be discussed in detail in the second part of this work. On the other hand, a focus will be placed on the problem of proposing hyperlinks to improve the quality of rapid written texts, at first glance, an entirely different problem to predicting client requests. Ultra-modern online authoring systems that provide possibilities to check link-consistencies and administrate link management should also propose links in order to improve the usefulness of the produced HTML-documents. In the third part of this elaboration, we will describe a possibility to build a hyperlink-proposal module based on statistical information retrieval from hypertexts. These two problem categories do not seem to have much in common. It is one aim of this work to show that there are certain, similar solution strategies to look after both problems. A closer comparison and an abstraction of both methodologies will lead to interesting synergetic effects. For example, advanced strategies to foresee future user-requests by modeling time and document aging can be used to improve the quality of hyperlink-proposals too.
Formen direkter Demokratie tragen über schulrechtlich verankerte Mitbestimmungsmöglichkeiten von Schüler*innen und Lehrer*innen hinaus dazu bei, eine unmittelbare Teilhabe an schulischen und gesellschaftlichen Entscheidungs- und Entwicklungsprozessen zu verwirklichen. Sie eröffnen Perspektiven, unabhängig von Mandat oder Funktion Schulkultur zu gestalten und Selbstwirksamkeit zu ermöglichen. Traditionelle Hierarchien in der Institution Schule können progressiv reflektiert und direkte Teilhabe als individuelle und institutionelle Entwicklungschance erfahren werden. Just Community und Aushandlungsprozesse sind inspirierende Bauformen, die Entwicklung der Schule insgesamt und gemeinsam direktdemokratisch zu gestalten sowie Empowerment zu fördern.
Les formes de démocratie directe contribuent à mettre en oeuvre des processus de décision et de développement scolaires et sociaux au-delà des possibilités de participation directe des élèves et des enseignant·e·s ancrées dans le droit scolaire. Elles ouvrent des perspectives pour façonner la culture de l’école et favoriser l’auto-efficacité indépendamment du mandat ou de la fonction. Les élèves peuvent discuter progressivement des hiérarchies traditionnelles de l’école en tant qu’institution et vivre la participation directe comme une opportunité de développement individuel et institutionnel. Le concept de la Just Community et les processus de négociation sont des méthodes d’éducation inspirantes qui permettent de façonner le développement de l’école dans son ensemble par un processus de démocratie directe commun et de promouvoir l’autonomisation.
The fragmentation of landscapes has an important impact on the conservation of biodiversity. The genetic diversity is an important factor for a population- viability, influenced by the landscape structure. However, different species with differing ecological demands react rather differently on the same landscape pattern. To address this feature, we studied ten xerothermophilous butterfly species with differing habitat requirements (habitat specialists with low dispersal power in contrast to habitat generalists with low dispersal power and habitat generalists with higher dispersal power). We analysed allozyme loci for about 10 populations (Ã 40 individuals) of each species in a western German study region with adjoining areas in Luxemburg and north-eastern France. The genetic diversity and genetic differentiation between local populations was discussed under conservation genetic aspects. For generalists we detected a more or less panmictic structure and for species with lower abundance and sedentarily behaviour the effect of isolation by distance. On the other hand, the isolation of specialists was mostly reflected by strong genetic differentiation patterns between the investigated populations. Parameters of genetic diversity were mostly significantly higher in generalists, compared to specialists. Substructures within populations as an answer of low intrapatch migration, low population densities and high population fluctuations could be shown as well. Aspects of landscape history (the historical distribution of habitats resulting of the presence of limestone areas) and the changes of extensive sheep pasturing and the loss of potential habitats in the last few decades (recent fragmentation) are discussed against the gained genetic data-set of the ten butterflies.
The main goal of this publication is the development and application of an empirical method, which allows to forecast the transport of radionuclides in soils ad sediments. The calculations are based on data published in the literature. 10 case studies, comprising 30 time series, deal with the transport of Cs-134, Cs-137, Sr-85, Sr-90, and Ru-106. Transport in undisturbed soils and experimental systems like lysimeters and columns in laboratories are dealt with. The soils involved cover a large range of soils, e. g. podsols, cambisols (FAO), and peaty soils. Different speciations are covered, namely ions, aerosols, and fuel particles. Time series analysis centres around the Weibull-distribution. All theoretical models failed to forecast the transport of radionuclides. It can be shown that the parameters D and v, the dispersion coefficient and the advection velocity, appearing in solutions of the advection-dispersion equation (ADE), have no real physical meaning. They are just fitting parameters. The calculation of primary photon fluence rates, caused by Cs-137 in the soil, stresses the unreliability of forecasts based on theoretical models.
Das israelische Religionsrecht ist gegenwärtig trotz des jüdischen Charakters des Staates Israel grundsätzlich als System der Trennung von Staat und Religion bei gleichzeitiger Kooperation des Staates mit den Religionen beziehungsweise Religionsgemeinschaften zu charakterisieren. Mit Blick auf den aktuellen Verfassungsentwurf des israelischen Parlaments stellt sich die Frage, welche Konsequenzen seine Annahme für das Religionsrecht haben würde: Würde Israel Züge eines religiösen Staates annehmen, oder bildet das Regelungswerk lediglich den Ist-Zustand ab? Die Beantwortung dieser Frage hängt zum einen von dem Charakter der neuen Regelungen ab, die der Entwurf enthält, und zum anderen davon, ob die bestehende Rechtssubstanz durch die Transponierung in eine formelle Verfassung ihr Wesen verändern würde.
Die Arbeit beschäftigt sich mit der Interaktion zwischen den Juden des Regnum Teutonicum und den verschiedenen Herrschaftsträgern, mit denen die Juden in Kontakt kamen. Dies waren neben dem König auch geistliche und weltliche Landes- und Stadtherren. Chronologisch an vier Herrschaftsphasen Rudolfs ausgerichtet, analysiert die Studie sämtliche überlieferte schriftliche Zeugnisse, um insbesondere der Frage nach der Bedeutung der Kammerknechtschaft im Reich nachzugehen. Diese stellt sich als höchst ambivalente und keinesfalls nur negative Beziehungsform heraus, die zudem nur in einem europäischen Kontext verständlich wird.
By means of complex interaction-processes sea ice not only modifies the regional climate in the ocean-atmosphere-sea-ice system but also the general circulation of the atmosphere and the ocean's circulation. Besides a strong interannual variability sea-ice extent shows an arcticwide significant negative trend during the last two decades with maximum rates in spring and summer. These are often linked to (small-scale) processes in the Siberian Arctic and the Laptev Sea, respectively. The objective of this thesis is the expansion of the understanding of the processes concerning atmosphere-sea-ice interactions on the regional scale during the summer from 1979 to 2002 in the Arctic with a special emphasis on the Laptev Sea. To achieve this, numerical simulations of the regional climate model HIRHAM4 are used in conjunction with ground- and satellite-based observational data. A precondition for the numerical experiments and the realistic reproduction of atmospheric processes is an improved lower boundary forcing dataset for HIRHAM4 based on observational datasets, which is developed, validated and described. To investigate the effects of the sea-ice distribution, its properties and small-scale features on the atmosphere, HIRHAM4 is used in sensitivity studies systematically with different model settings, each of which incorporates the lower boundary forcing data in a different manner. Even little changes in the lower boundary forcing fields, while retaining the lateral boundary forcing, are sufficient to cause the model to produce significantly different atmospheric circulation patterns relative to the control simulations which use standard forcings and settings. Cyclone activity, which is a special focus of this study, is also altered. The mean atmospheric circulation patterns and the near-surface air temperature distribution can be reproduced more realistically with the new forcing dataset, which is shown by validation experiments with observational data. The biggest relative impact, besides an altered sea-ice coverage and distribution, can be reached by using sea-ice concentrations instead of a binary sea-ice mask. By utilizing sea-ice drift data, dynamic and thermodynamic processes can be partially separated from each other to investigate the development of sea-ice anomalies in the Laptev Sea. They depend on a time-critical succession of atmospheric conditions and the properties of sea ice during May and August. Positive air temperature anomalies are identified to be the key driving factors for the development of negative sea-ice anomalies. They are found to be a result of enhanced short-wave radiation balances, which are coupled to high pressure areas and intermediate anticyclones. The polynyas during early summer seem to have an important influence too. Because of lower process rates, the wind-induced sea-ice drift is enhancing and damping the development of the sea-ice area anomalies, but it cannot cause an anomaly all by itself. A precise separation of the effectiveness of the sea-ice transport and the melting rates is not possible due to the available data.
In dieser Arbeit wird ein Middlewaremodell für Anwendungen in mobilen ad-hoc Netzwerken vorgestellt. Der primäre Fokus liegt dabei auf Netzen, die auf Basis von mobilen Endbenutzergeräten wie PDAs, PocketPCs oder Smartphones gebildet werden und die über eine drahtlose Kommunikationstechnik wie WLAN oder Bluetooth verfügen. Zur Identifizierung der Ansprüche an eine Middleware in diesen Netzen wurden Anwendungen aus dem universitären Umfeld untersucht. Da die Kommunikation in drahtlosen Netzen nicht immer so transparent wie in drahtgebundenen Infrastrukturnetzen erfolgen kann, enthält die Middleware ein Kommunikationsframework, welches die Adaption und auch die Kombination von Kommunikationsmechanismen ermöglicht. Neben der direkten Auslieferung von Nachrichten werden auch Mechanismen zur sukzessiven Weitergabe von Nachrichten, die so genannte Store-and-Forward Kommunikation, angeboten. Hier steht insbesondere die Weitergabe von Informationen im Vorbeigehen (En-Passant) im Vordergrund. Die Komponenten der Middleware und darauf basierenden Applikationen werden als interagierende mobile Objekte modelliert. Die Interaktion dieser Objekte erfolgt aufgrund der Dynamik der mobilen ad-hoc Netze ereignisorientiert. Sowohl die Interaktion, als auch die Adaption und Wahl von Kommunikationsmechanismen erfolgt auf Basis von Informationen über das direkte Umfeld, Applikationswissen über das Netzwerk und Erfahrungen aus der Vergangenheit. Diese Informationen, die von Objekten verbreitet und gesammelt werden können, werden als Spuren bezeichnet. Da eine Aufhebung der Transparenz der Middlewarekomponenten einen höheren Entwicklungsaufwand bedeutet, wird eine Realisierung der Objektinteraktion in Objektrepräsentanten vorgeschlagen. Objektrepräsentanten ermöglichen die Kommunikation mit entfernten Objekten, das lokale Verwalten von Informationen über diese Objekte und schließlich die Repräsentierung von Objekten ohne reale Objektinstanz. Objekte ohne Objektinstanz werden verwendet, um Gerätegruppen mit bestimmten Eigenschaften zusammenzufassen, beispielsweise Objekte an einem bestimmten geographischen Ort. Somit ist auch das Wissen über geographische Orte und deren Identifizierung ein wichtiger Aspekt des Modells. Aufgrund der Anwendungsuntersuchungen ist sukzessive ein Middlewareprototyp entstanden, der in eine Simulationsumgebung für mobile ad-hoc Netze integriert ist. Die Umgebung erlaubt neben der reinen Simulation mobiler ad-hoc Netze und der zu untersuchenden Anwendung auch die Integration realer Geräte und die Ausführung der Anwendungen auf realen Geräten. Somit konnte, neben einer simulativen Untersuchung, auch eine praktische Evaluation der Anwendungen in Feldversuchen durchgeführt werden.
Die Arbeit verteidigt zwei Thesen: 1. Der Realismus ist eine semantische These; 2. Religiöse Sprache muß realistisch interpretiert werden. Der erste Teil von Kapitel 1 bis 4 widmet sich der ersten These, der zweite Teil in Kapitel 5 und 6 der zweiten. Zuerst wird ein Überblick über die Problematik von Realismus und Antirealismus in der Philosophie überhaupt geben und erläutert, was das Kernproblem dieser Debatten ist, das eine adäquate Interpretation der realistischen These lösen muß. Dann wird eine Lösung mit Michael Dummetts Theorie des semantischen Realismus entwickelt, so daß sich die metaphysischen Probleme in sprachphilosophische übersetzen lassen und eine semantische Formulierung des Realismus möglich wird. Danach werden verschiedene Einwände gegen diese Theorie diskutiert, um in der Folge eine eigene, verbesserte Formulierung des semantischen Realismus zu entwickeln, die fähig ist, der Kritik standzuhalten. Schließlich werden zwei von Dummett selbst vorgebrachte Argumente gegen den Realismus behandelt und widerlegt. Mit diesen sprachphilosophischen Werkzeugen wird dann gezeigt, wie sich die religionsphilosophischen Debatten mit den Mitteln des semantischen Realismus beschreiben und klassifizieren lassen und wie sich anhand semantischer Kriterien Klarheit schaffen läßt, was genau einen religiösen Antirealismus charakterisiert und was nicht. Abschließend werden die bisher in der Debatte für und wider den religiösen Antirealismus vorgebrachten Argumente analysiert und dann auf der Basis der semantischen Interpretation des Realismus einige eigene Argumente entwickelt, um die Unmöglichkeit eines religiösen Antirealismus nachzuweisen.
High-resolution projections of the future climate are required to assess climate change realistically at a regional scale. This is in particular important for climate change impact studies since global projections are much too coarse to represent local conditions adequately. A major concern is thereby the change of extreme values in a warming climate due to their severe impact on the natural environment, socio-economical systems and the human health. Regional climate models (RCMs) are, however, able to reproduce much of those local features. Current horizontal resolutions are about 18-25km, which is still too coarse to directly resolve small-scale processes such as deep-convection. For this reason, projections of a possible future climate were simulated in this study with the regional climate model COSMO-CLM at horizontal resolutions of 4.5km and 1.3km for the region of Saarland-Lorraine-Luxemburg and Rhineland-Palatinate for the first time. At a horizontal scale of about 1km deep-convection is treated explicitly, which is expected to improve particularly the simulation of convective summer precipitation and a better resolved orography is expected to improve near surface fields such as 2m temperature. These simulations were performed as 10-year long time-slice experiments for the present climate (1991"2000), the near future (2041"2050) and the end of the century (2091"2100). The climate change signals of the annual and seasonal means and the change of extremes are analysed with respect to precipitation and 2m temperature and a possible added value due to the increased resolution is investigated. To assess changes in extremes, extreme indices have been applied and 10- and 20-year return levels were estimated by "peak-over-threshold" models. Since it is generally known that model output of RCMs should not directly be used for climate change impact studies, the precipitation and temperature fields were bias-corrected with several quantile-matching methods. Among them is a new developed parametric method which includes an extension for extreme values and is hence expected to improve the correction. In addition, the impact of the bias-correction on the climate change signals and on the extreme value statistics was investigated. The results reveal a significant warming of the annual mean by about +1.7 -°C until 2041"2050 and +3.7 -°C until 2091"2100, but considerably stronger signals of up to +5 -°C in summer in the Rhine Valley. Furthermore, the daily variability increases by about +0.8 -°C in summer but decreases by about -0.8 -°C in winter. Consequently, hot extremes increase moderately until the mid of the century but strongly thereafter, in particular in the Rhine Valley. Cold extremes warm continuously in the complete domain in the next 100 years but strongest in mountainous areas. The change signals with regard to annual precipitation are of the order -±10% but not significant. Significant, however, are a predicted increase of +32% of the seasonal precipitation in autumn until 2041"2050 and a decrease of -28% in summer until 2091-2100. No significant changes were found for days with intensities > 20 mm/day, but the results indicate that extremes with return periods ≤2 years increase as well as the frequency and duration of dry periods. The bias-corrections amplified positive signals but dampened negative signals and considerably reduced the power of detection. Moreover, absolute values and frequencies of extremes were altered by the correction but change signals remained approximately constant. The new method outperformed other parametric methods, in particular with regard to extreme value correction and related extreme indices and return levels. Although the bias correction removed systematic errors, it should be treated as an additional layer of uncertainty in climate change studies. Finally, the increased resolution of 1.3km improved predominantly the representation of temperature fields and extremes in terms of spatial heterogeneity. The benefits for summer precipitation were not as clear due to a severe dry-bias in summer, but it could be shown that in principle the onset and intensity of convection improves. This work demonstrates that climate change will have severe impacts in this investigation area and that in particular extremes may change considerably. An increased resolution provides thereby an added value to the results. These findings encourage further investigations, for other variables as for example near-surface wind, which will be more feasible with growing computing resources. These analyses should, however, be repeated with longer time series, different RCMs and anthropogenic scenarios to determine the robustness and uncertainty of these results more extensively.
In diesem Band sind einige der Beiträge zusammengefasst, die im Rahmen und in der Folge der chinesisch-deutschen Fachkonferenz zu Aspekten der Studienvorbereitung und Studienbegleitung entstanden sind, die vom 21. bis 22. Mai 2007 mit Unterstützung des Deutschen Akademischen Austauschdienstes (DAAD) am Deutschkolleg - Zentrum zur Studienvorbereitung der Tongji-Universität in Shanghai veranstaltet wurde. Schwerpunkte bilden die Bereiche: Wissenschaftskommunikation, Interkulturelle Kommunikation / Landeskundekonzepte und " als Ausblick " Fachsprache. Der Band enthält Beiträge von: Gutjahr, Jacqueline / Yu, Xuemei (S. 1-4 = Dokument 1); Gutjahr, Jacqueline / Porsche, Sabine / Yu, Xuemei (S. 5-22 = Dokument 2); Bärenfänger, Olaf (S. 23-43 = Dokument 3); Li, Yuan (S. 44-56 = Dokument 4); Yu, Xuemei (S. 57-67 = Dokument 5); Burkhardt, Armin (S. 68-87 = Dokument 6); Dahlhaus, Barbara (S. 88-106 = Dokument 7); Freudenberg-Findeisen, Renate / Schröder, Jörg (S. 107-134 = Dokument 8); Dege, Christopher P. / Timmermann, Waltraud (S. 135-151 = Dokument 9); Brandl, Heike (S. 152-167 = Dokument 10) und Liu, Fang (S. 168-178 = Dokument 11).
Die vorliegende Dissertation "Wortwahl, Grammatik und Aussage. Eine strukturelle Analyse der Dramen Три ÑеÑтры, Вишневый Ñад und ВлаÑÑ‚ÑŒ тьмы" befaßt sich mit einer Analyse dieser ausgewählten Dramen von ÄŒechov und Tolstoj. Ausgehend von Fragestellungen, die im Å’uvre der Dichter implizit und explizit problematisiert werden, sind diejenigen Themenbereiche abgeleitet worden, die sich aus Inhalt und Gestaltung der literarischen Werke ergeben. Auf der Grundlage bestimmter Einteilungskriterien, die aus den Disziplinen der Psychologie, Soziologie, Medizin, Theologie und Philosophie übernommen wurden, wird in der Untersuchung eine Subsumierung der Dramenlexik unter bestimmte Oberbegriffe bzw. Sinnbereiche (Emotionen, Alltag, Leben und Tod, Folklore, Volks- und Aberglauben, Religion, menschlicher Körper, physiologische Phänomene und Krankheit) vorgenommen. Vor diesem Hintergrund wird - ausgehend vom literaturwissenschaftlichen Begriff des russischen Realismus - der Fragestellung nachgegangen, inwieweit eine Literaturströmung sich in der vom Autoren verwendeten Lexik widerspiegelt. Insofern lotet die Studie am Beispiel von Dramentexten die Möglichkeit aus, mit Hilfe eines linguistischen Instrumentariums (Grammatik, Semantik, Pragmatik, Morphologie) einen Beitrag für eine literaturwissenschaftliche Untersuchung zu liefern, um damit einen die literaturwissenschaftlichen Interpretationszugänge ergänzenden methodischen Zugang unter linguistischem Blickwinkel vorzustellen. Jost Trier als Begründer der Wortfeldtheorie hat die methodologische Grundlage dafür geschaffen, daß auch die Literaturwissenschaft durch die Verbindung von Wort und Vorstellung (Sinnbezirke) Aussagen über den semantischen Kern und Umfang treffen kann. Diesem Ansatz ist nicht nur Elisabeth Weis, die sich mit Sinnbereichen der Freude und Traurigkeit im Bereich der deutschen und französischen Sprache beschäftigt hat, sondern auch Henning Bergenholtz, der das Wortfeld Angst aus lexikographischer Sicht untersucht, verpflichtet. Auch die vorliegende Dissertation folgt diesen Überlegungen. Die Beschäftigung mit literarischen Texten und der besonderen Form des Dramas macht es notwendig, über die genannten Forschungsansätze insofern hinauszugehen, als Literatur eine eigene Welt mit eigenen Vorstellungen schafft, die durch die Betrachtung einzelner Sinnbereiche nicht umfassend erschlossen werden kann. Um der ästhetischen Rezeption poetischer Werke umfassend Rechnung zu tragen und eine Beurteilungsgrundlage eines literarischen Kunstwerkes vorzuschlagen, zeigt die vorliegende Untersuchung Begriffsnetze auf, durch die die Funktionsweise eines literarischen Textes im Rezipienten deutlich gemacht wird. Die in der Untersuchung vorgeschlagene Methode unterstützt das Erkennen der rezipienteneigenen Vorstellungswelt durch eine werkimmanente, lexikgestützte Konstruktion der Weltinterpretation der Autoren ÄŒechovs und Tolstojs.
This work is concerned with two kinds of objects: regular expressions and finite automata. These formalisms describe regular languages, i.e., sets of strings that share a comparatively simple structure. Such languages - and, in turn, expressions and automata - are used in the description of textual patterns, workflow and dependence modeling, or formal verification. Testing words for membership in any given such language can be implemented using a fixed - i.e., finite - amount of memory, which is conveyed by the phrasing finite-automaton. In this aspect they differ from more general classes, which require potentially unbound memory, but have the potential to model less regular, i.e., more involved, objects. Other than expressions and automata, there are several further formalisms to describe regular languages. These formalisms are all equivalent and conversions among them are well-known.However, expressions and automata are arguably the notions which are used most frequently: regular expressions come natural to humans in order to express patterns, while finite automata translate immediately to efficient data structures. This raises the interest in methods to translate among the two notions efficiently. In particular,the direction from expressions to automata, or from human input to machine representation, is of great practical relevance. Probably the most frequent application that involves regular expressions and finite automata is pattern matching in static text and streaming data. Common tools to locate instances of a pattern in a text are the grep application or its (many) derivatives, as well as awk, sed and lex. Notice that these programs accept slightly more general patterns, namely ''POSIX expressions''. Concerning streaming data, regular expressions are nowadays used to specify filter rules in routing hardware.These applications have in common that an input pattern is specified in form a regular expression while the execution applies a regular automaton. As it turns out, the effort that is necessary to describe a regular language, i.e., the size of the descriptor,varies with the chosen representation. For example, in the case of regular expressions and finite automata, it is rather easy to see that any regular expression can be converted to a finite automaton whose size is linear in that of the expression. For the converse direction, however, it is known that there are regular languages for which the size of the smallest describing expression is exponential in the size of the smallest describing automaton.This brings us to the subject at the core of the present work: we investigate conversions between expressions and automata and take a closer look at the properties that exert an influence on the relative sizes of these objects.We refer to the aspects involved with these consideration under the titular term of Relative Descriptional Complexity.
Properties Evaluation of Composite Materials Based on Gypsum Plaster and Posidonia Oceanica Fibers
(2023)
Estimating the amount of material without significant losses at the end of hybrid casting is a problem addressed in this study. To minimize manufacturing costs and improve the accuracy of results, a correction factor (CF) was used in the formula to estimate the volume percent of the material in order to reduce material losses during the sample manufacturing stage, allowing for greater confidence between the approved blending plan and the results obtained. In this context, three material mixing schemes of different sizes and shapes (gypsum plaster, sand (0/2), gravel (2/4), and Posidonia oceanica fibers (PO)) were created to verify the efficiency of CF and more precisely study the physico-mechanical effects on the samples. The results show that the use of a CF can reduce mixing loss to almost 0%. The optimal compressive strength of the sample (S1B) with the lowest mixing loss was 7.50 MPa. Under optimal conditions, the addition of PO improves mix volume percent correction (negligible), flexural strength (5.45%), density (18%), and porosity (3.70%) compared with S1B. On the other hand, the addition of PO thermo-chemical treatment by NaOH increases the compressive strength (3.97%) compared with PO due to the removal of impurities on the fiber surface, as shown by scanning electron microscopy. We then determined the optimal mixture ratio (PO divided by a mixture of plaster, sand, and gravel), which equals 0.0321 because Tunisian gypsum contains small amounts of bassanite and calcite, as shown by the X-ray diffraction results.
Addition of Phosphogypsum to Fire-Resistant Plaster Panels:
A Physic–Mechanical Investigation
(2023)
Gypsum (GPS) has great potential for structural fire protection and is increasingly used in construction due to its high-water retention and purity. However, many researchers aim to improve its physical and mechanical properties by adding other organic or inorganic materials such as fibers, recycled GPS, and waste residues. This study used a novel method to add non-natural GPS from factory waste (phosphogypsum (PG)) as a secondary material for GPS. This paper proposes to mix these two materials to properly study the effect of PG on the physico-mechanical properties and fire performance of two Tunisian GPSs (GPS1 and GPS2). PG initially replaced GPS at 10, 20, 30, 40, and 50% weight percentage (mixing plan A). The PGs were then washed with distilled water several times. Two more mixing plans were run when the pH of the PG was equal to 2.4 (mixing plan B), and the pH was equal to 5 (mixing plan C). Finally, a comparative study was conducted on the compressive strength, flexural strength, density, water retention, and mass loss levels after 90 days of drying, before/after incineration of samples at 15, 30, 45, and 60 min. The results show that the mixture of GPS1 and 30% PG (mixing plan B) obtained the highest compressive strength (41.31%) and flexural strength (35.03%) compared to the reference sample. The addition of 10% PG to GPS1 (mixing plan A) improved fire resistance (33.33%) and the mass loss (17.10%) of the samples exposed to flame for 60 min compared to GPS2. Therefore, PG can be considered an excellent insulating material, which can increase physico-mechanical properties and fire resistance time of plaster under certain conditions.
Umweltschutz wird in dieser Arbeit als Soziales Dilemma betrachtet. Es wird mittels eines experimentellen Online-Spiels (N = 182) primär überprüft, inwieweit unkooperatives Verhalten von Akteuren zu genuinem Ungerechtigkeitserleben bei anderen Personen führt und ob diese in Folge u. a. das eigene kooperative Verhalten reduzieren. Somit wird im Gegensatz zu Erklärungen der Rational-Choice-Theorien angenommen, dass ein Teil des phänotypisch unkooperativen, umweltschädigenden Verhaltens nicht auf Egoismus, sondern auf einem genuinen Gerechtigkeitsmotiv beruht. Zur Erhöhung der internen Validität wird ebenfalls der moderierende Einfluss der Persönlichkeitseigenschaften "Eigeninteresse" und "Gerechtigkeitszentralität" untersucht. Die Hypothesentestungen zeigen, dass unkooperatives Verhalten anderer Akteure in Sozialen Dilemmata bei vielen Personen Ungerechtigkeitserleben auslöst, was sich u. a. in Emotionen der Empörung, Ungerechtigkeitskognitionen, Bestrafungsverhalten und einer Reduktion des eigenen kooperativen Verhaltens niederschlägt. Hierbei spielen interindividuelle Unterschiede hinsichtlich der Stärke des Gerechtigkeitsmotivs bei etlichen gefundenen Effekte eine moderierende Rolle. Es wird somit ein motivpluralistischer Ansatz bestätigt, der die Rolle des Gerechtigkeitsmotivs bei der Vorhersage und Veränderung von Verhalten in Sozialen Dilemmata hervorhebt. Implikationen in Hinblick auf Theorie, zukünftige Forschung und Interventionen in Sozialen-Dilemma-Situationen werden erörtert.
Background: The growing production and use of engineered AgNP in industry and private households make increasing concentrations of AgNP in the environment unavoidable. Although we already know the harmful effects of AgNP on pivotal bacterial driven soil functions, information about the impact of silver nanoparticles (AgNP) on the soil bacterial community structure is rare. Hence, the aim of this study was to reveal the long-term effects of AgNP on major soil bacterial phyla in a loamy soil. The study was conducted as a laboratory incubation experiment over a period of 1 year using a loamy soil and AgNP concentrations ranging from 0.01 to 1 mg AgNP/kg soil. Effects were quantified using the taxon-specific 16S rRNA qPCR.
Results: The short-term exposure of AgNP at environmentally relevant concentration of 0.01 mg AgNP/kg caused significant positive effects on Acidobacteria (44.0%), Actinobacteria (21.1%) and Bacteroidetes (14.6%), whereas beta-Proteobacteria population was minimized by 14.2% relative to the control (p ≤ 0.05). After 1 year of exposure to 0.01 mg AgNP/kg diminished Acidobacteria (p = 0.007), Bacteroidetes (p = 0.005) and beta-Proteobacteria (p = 0.000) by 14.5, 10.1 and 13.9%, respectively. Actino- and alpha-Proteobacteria were statistically unaffected by AgNP treatments after 1-year exposure. Furthermore, a statistically significant regression and correlation analysis between silver toxicity and exposure time confirmed loamy soils as a sink for silver nanoparticles and their concomitant silver ions.
Conclusions: Even very low concentrations of AgNP may cause disadvantages for the autotrophic ammonia oxidation (nitrification), the organic carbon transformation and the chitin degradation in soils by exerting harmful effects on the liable bacterial phyla.
Reconstructing invisible deviating events: A conformance checking approach for recurring events
(2022)
Conformance checking enables organizations to determine whether their executed processes are compliant with the intended process. However, if the processes contain recurring activities, state-of-the-art approaches unfortunately have difficulties calculating the conformance. The occurrence of complex temporal rules can further increase the complexity of the problem. Identifying this limitation, this paper presents a novel approach towards dealing with recurring activities in conformance checking. The core idea of the approach is to reconstruct the missing events in the event log using defined rules while incorporating specified temporal event characteristics. This approach then enables the use of native conformance checking algorithms. The paper illustrates the algorithmic approach and defines the required temporal event characteristics. Furthermore, the approach is applied and evaluated in a case study on an event log for melanoma surveillance.
Due to the transition towards climate neutrality, energy markets are rapidly evolving. New technologies are developed that allow electricity from renewable energy sources to be stored or to be converted into other energy commodities. As a consequence, new players enter the markets and existing players gain more importance. Market equilibrium problems are capable of capturing these changes and therefore enable us to answer contemporary research questions with regard to energy market design and climate policy.
This cumulative dissertation is devoted to the study of different market equilibrium problems that address such emerging aspects in liberalized energy markets. In the first part, we review a well-studied competitive equilibrium model for energy commodity markets and extend this model by sector coupling, by temporal coupling, and by a more detailed representation of physical laws and technical requirements. Moreover, we summarize our main contributions of the last years with respect to analyzing the market equilibria of the resulting equilibrium problems.
For the extension regarding sector coupling, we derive sufficient conditions for ensuring uniqueness of the short-run equilibrium a priori and for verifying uniqueness of the long-run equilibrium a posteriori. Furthermore, we present illustrative examples that each of the derived conditions is indeed necessary to guarantee uniqueness in general.
For the extension regarding temporal coupling, we provide sufficient conditions for ensuring uniqueness of demand and production a priori. These conditions also imply uniqueness of the short-run equilibrium in case of a single storage operator. However, in case of multiple storage operators, examples illustrate that charging and discharging decisions are not unique in general. We conclude the equilibrium analysis with an a posteriori criterion for verifying uniqueness of a given short-run equilibrium. Since the computation of equilibria is much more challenging due to the temporal coupling, we shortly review why a tailored parallel and distributed alternating direction method of multipliers enables to efficiently compute market equilibria.
For the extension regarding physical laws and technical requirements, we show that, in nonconvex settings, existence of an equilibrium is not guaranteed and that the fundamental welfare theorems therefore fail to hold. In addition, we argue that the welfare theorems can be re-established in a market design in which the system operator is committed to a welfare objective. For the case of a profit-maximizing system operator, we propose an algorithm that indicates existence of an equilibrium and that computes an equilibrium in the case of existence. Based on well-known instances from the literature on the gas and electricity sector, we demonstrate the broad applicability of our algorithm. Our computational results suggest that an equilibrium often exists for an application involving nonconvex but continuous stationary gas physics. In turn, integralities introduced due to the switchability of DC lines in DC electricity networks lead to many instances without an equilibrium. Finally, we state sufficient conditions under which the gas application has a unique equilibrium and the line switching application has finitely many.
In the second part, all preprints belonging to this cumulative dissertation are provided. These preprints, as well as two journal articles to which the author of this thesis contributed, are referenced within the extended summary in the first part and contain more details.
Traditional workflow management systems support process participants in fulfilling business tasks through guidance along a predefined workflow model.
Flexibility has gained a lot of attention in recent decades through a shift from mass production to customization. Various approaches to workflow flexibility exist that either require extensive knowledge acquisition and modelling effort or an active intervention during execution and re-modelling of deviating behaviour. The pursuit of flexibility by deviation is to compensate both of these disadvantages through allowing alternative unforeseen execution paths at run time without demanding the process participant to adapt the workflow model. However, the implementation of this approach has been little researched so far.
This work proposes a novel approach to flexibility by deviation. The approach aims at supporting process participants during the execution of a workflow through suggesting work items based on predefined strategies or experiential knowledge even in case of deviations. The developed concepts combine two renowned methods from the field of artificial intelligence - constraint satisfaction problem solving with process-oriented case-based reasoning. This mainly consists of a constraint-based workflow engine in combination with a case-based deviation management. The declarative representation of workflows through constraints allows for implicit flexibility and a simple possibility to restore consistency in case of deviations. Furthermore, the combined model, integrating procedural with declarative structures through a transformation function, increases the capabilities for flexibility. For an adequate handling of deviations the methodology of case-based reasoning fits perfectly, through its approach that similar problems have similar solutions. Thus, previous made experiences are transferred to currently regarded problems, under the assumption that a similar deviation has been handled successfully in the past.
Necessary foundations from the field of workflow management with a focus on flexibility are presented first.
As formal foundation, a constraint-based workflow model was developed that allows for a declarative specification of foremost sequential dependencies of tasks. Procedural and declarative models can be combined in the approach, as a transformation function was specified that converts procedural workflow models to declarative constraints.
One main component of the approach is the constraint-based workflow engine that utilizes this declarative model as input for a constraint solving algorithm. This algorithm computes the worklist, which is proposed to the process participant during workflow execution. With predefined deviation handling strategies that determine how the constraint model is modified in order to restore consistency, the support is continuous even in case of deviations.
The second major component of the proposed approach constitutes the case-based deviation management, which aims at improving the support of process participants on the basis of experiential knowledge. For the retrieve phase, a sophisticated similarity measure was developed that integrates specific characteristics of deviating workflows and combines several sequence similarity measures. Two alternative methods for the reuse phase were developed, a null adaptation and a generative adaptation. The null adaptation simply proposes tasks from the most similar workflow as work items, whereas the generative adaptation modifies the constraint-based workflow model based on the most similar workflow in order to re-enable the constraint-based workflow engine to suggest work items.
The experimental evaluation of the approach consisted of a simulation of several types of process participants in the exemplary domain of deficiency management in construction. The results showed high utility values and a promising potential for an investigation of the transfer on other domains and the applicability in practice, which is part of future work.
Concluding, the contributions are summarized and research perspectives are pointed out.
Currently, new business models created in the sharing economy differ considerably and they differ in the formation of trust as well. If and how trust can be created is shown by a comparison of two examples which diverge in their founding philosophy. The chosen example of community-based economy, Community Supported Agriculture (CSA), no longer trusts the capitalist system and therefore distances itself and creates its own environment including a new business model. It is implemented within rather small groups where trust is created by personal relations and face-to-face communication. On the contrary, the example of a platform economy, the accommodation-provider company Airbnb, shows trust in the system and pushes technological innovations through the use of platform applications. It promotes trust and confidence in the progress of technology. For the conceptual analysis, the distinction between personal trust and system trust defined by Niklas Luhmann is adopted. The analysis describes two different modes of trust formation and how they push distrust or improve trust. Grounded on these analyses, assumptions on the process of trust formation within varying models of the sharing economy are formulated as well as a hypothesis about possible developments is introduced for further research.
This thesis is divided into three main parts: The description of the calibration problem, the numerical solution of this problem and the connection to optimal stochastic control problems. Fitting model prices to given market prices leads to an abstract least squares formulation as calibration problem. The corresponding option price can be computed by solving a stochastic differential equation via the Monte-Carlo method which seems to be preferred by most practitioners. Due to the fact that the Monte-Carlo method is expensive in terms of computational effort and requires memory, more sophisticated stochastic predictor-corrector schemes are established in this thesis. The numerical advantage of these predictor-corrector schemes ispresented and discussed. The adjoint method is applied to the calibration. The theoretical advantage of the adjoint method is discussed in detail. It is shown that the computational effort of gradient calculation via the adjoint method is independent of the number of calibration parameters. Numerical results confirm the theoretical results and summarize the computational advantage of the adjoint method. Furthermore, provides the connection to optimal stochastic control problems is proven in this thesis.
Die in einem Einzugsgebiet herrschende räumliche Inhomogenität wird im Wasserhaushaltsmodell LARSIM (Large Area Runoff Simulation Modell) in den einzelnen Modellkomponenten unterschiedlich stark berücksichtigt. Insbesondere die räumliche Verteilung der Abflussprozesse wurde bisher nicht berücksichtigt, weil keine flächenhaft verfügbare Information über eben diese Verteilung vorlag. Für das Einzugsgebiet der Nahe liegt nun seit dem Jahr 2007 eine Bodenhydrologische Karte vor, die flächenhaft den bei ausreichenden Niederschlägen zu erwartenden Abflussprozess ausweist. In der vorliegenden Dissertation wird die Nutzung dieser Prozessinformation bei der Parametrisierung des Bodenmoduls von LARSIM beschrieben: Für drei Prozessgruppen " gesättigter Oberflächenabfluss, Abfluss im Boden, Tiefenversickerung " werden mittels zweier neuer Parameter P_Bilanz und P_Dämpfung inhomogene Parametersätze aus empirisch ermittelten Kennfeldern gewählt, um die Prozessinformation bei der Abflussbildung im Modell zu berücksichtigen. Für die Abbildung der Prozessintensitäten in den Gebietsspeichern werden zwei unterschiedliche Ansätze vorgestellt, die sich in ihrer Komplexität unterscheiden. In der ersten Variante werden fünf Oberflächenabflussspeicher für unterschiedlich schnell reagierende Prozessgruppen eingeführt, in der zweiten Variante wird der erste Ansatz mit dem ursprünglichen Schwellenwert zur Aufteilung in schnelle und langsame Oberflächenabflusskomponenten kombiniert. Es wird gezeigt, dass die Parametrisierung mit den beiden neuen Parametern P_Bilanz und P_Dämpfung einfacher, effektiver und effizienter ist, da beide Parameter minimale Interaktionen aufweisen und in ihrer Wirkungsweise leicht verständlich sind, was auf die ursprünglichen Bodenparameter nicht zutrifft. Es wird ein Arbeitsfluss vorgestellt, in dem die neuen Parameter in Kombination mit Signature Measures und unterschiedlichen Darstellungen der Abflussdauerlinie gemeinsam genutzt werden können, um in wenigen Arbeitsschritten eine Anpassung des Modells in neuen Einzugsgebieten vorzunehmen. Die Methode wurde durch Anwendung in drei Gebieten validiert. In den drei Gebieten konnte in wenigen Kalibrierungsschritten die Simulationsgüte der ursprünglichen Version erreicht und " je nach Zielsetzung " übertroffen werden. Hinsichtlich der Gütemaße zeigte sich bei der Variante, in der die Gebietsspeicher nicht modifiziert wurden, aber kein eindeutiges Bild, ob die ursprüngliche Parametrisierung oder die neue grundsätzlich überlegen ist. Neben der Auswertung der Validierungszeiträume wurden dabei auch die simulierten Ganglinien in geschachtelten Gebieten betrachtet. Die Version, in der die Gebietsspeicher modifiziert wurden, zeigt hingegen vor allem im Validierungszeitraum tendenziell bessere Simulationsergebnisse. Hinsichtlich der Abbildung der Abflussprozesse ist das neue Verfahren dem alten deutlich überlegen: Es resultiert in plausiblen Anteilen von Abflusskomponenten, deren Verteilung und Abhängigkeit von Speicherkapazitäten, Landnutzungen und Eingangsdaten systematisch ausgewertet wurden. Es zeigte sich, dass vor allem die Speicherkapazität des Bodens einen signifikanten Einfluss hat, der aber im hydrologischen Sinn richtig und hinsichtlich der Modellannahmen plausibel ist. Es wird deutlich gemacht, dass die Einschränkungen, die sich ergeben haben, aufgrund der Modellannahmen zustande kommen, und dass ohne die Änderung dieser Annahmen keine bessere Abbildung möglich ist. Für die Zukunft werden Möglichkeiten aufgezeigt, wie die Annahmen modifiziert werden können, um eine bessere Abbildung zu erzielen, indem der bereits bestehende Infiltrationsansatz in die Methode integriert wird.
A matrix A is called completely positive if there exists an entrywise nonnegative matrix B such that A = BB^T. These matrices can be used to obtain convex reformulations of for example nonconvex quadratic or combinatorial problems. One of the main problems with completely positive matrices is checking whether a given matrix is completely positive. This is known to be NP-hard in general. rnrnFor a given matrix completely positive matrix A, it is nontrivial to find a cp-factorization A=BB^T with nonnegative B since this factorization would provide a certificate for the matrix to be completely positive. But this factorization is not only important for the membership to the completely positive cone, it can also be used to recover the solution of the underlying quadratic or combinatorial problem. In addition, it is not a priori known how many columns are necessary to generate a cp-factorization for the given matrix. The minimal possible number of columns is called the cp-rank of A and so far it is still an open question how to derive the cp-rank for a given matrix. Some facts on completely positive matrices and the cp-rank will be given in Chapter 2. Moreover, in Chapter 6, we will see a factorization algorithm, which, for a given completely positive matrix A and a suitable starting point, computes the nonnegative factorization A=BB^T. The algorithm therefore returns a certificate for the matrix to be completely positive. As introduced in Chapter 3, the fundamental idea of the factorization algorithm is to start from an initial square factorization which is not necessarily entrywise nonnegative, and extend this factorization to a matrix for which the number of columns is greater than or equal to the cp-rank of A. Then it is the goal to transform this generated factorization into a cp-factorization. This problem can be formulated as a nonconvex feasibility problem, as shown in Section 4.1, and solved by a method which is based on alternating projections, as proven in Chapter 6. On the topic of alternating projections, a survey will be given in Chapter 5. Here we will see how to apply this technique to several types of sets like subspaces, convex sets, manifolds and semialgebraic sets. Furthermore, we will see some known facts on the convergence rate for alternating projections between these types of sets. Considering more than two sets yields the so called cyclic projections approach. Here some known facts for subspaces and convex sets will be shown. Moreover, we will see a new convergence result on cyclic projections among a sequence of manifolds in Section 5.4. In the context of cp-factorizations, a local convergence result for the introduced algorithm will be given. This result is based on the known convergence for alternating projections between semialgebraic sets. To obtain cp-facrorizations with this first method, it is necessary to solve a second order cone problem in every projection step, which is very costly. Therefore, in Section 6.2, we will see an additional heuristic extension, which improves the numerical performance of the algorithm. Extensive numerical tests in Chapter 7 will show that the factorization method is very fast in most instances. In addition, we will see how to derive a certificate for the matrix to be an element of the interior of the completely positive cone. As a further application, this method can be extended to find a symmetric nonnegative matrix factorization, where we consider an additional low-rank constraint. Here again, the method to derive factorizations for completely positive matrices can be used, albeit with some further adjustments, introduced in Section 8.1. Moreover, we will see that even for the general case of deriving a nonnegative matrix factorization for a given rectangular matrix A, the key aspects of the completely positive factorization approach can be used. To this end, it becomes necessary to extend the idea of finding a completely positive factorization such that it can be used for rectangular matrices. This yields an applicable algorithm for nonnegative matrix factorization in Section 8.2. Numerical results for this approach will suggest that the presented algorithms and techniques to obtain completely positive matrix factorizations can be extended to general nonnegative factorization problems.
Ziegel waren im 19. und 20. Jahrhundert der bevorzugte Baustoff. Sie wurden für den Ausbau der Städte in heute kaum noch vorstellbaren Mengen nachgefragt, da sie preiswert und in Massen verfügbar waren. Das stabile Baumaterial erwies sich zudem in Form, Farbe und Ornamentik als vielseitig einsetzbar. Die Bedeutung des Ziegels lässt sich besonders gut an den Fassaden der gründerzeitlichen Berliner Stadtquartiere able-sen. Im Rahmen der vorliegenden Arbeit wird die städtebauliche Entwicklung Berlins einführend dargestellt, um aufzuzeigen, welche Auswirkungen sich daraus für das bran-denburgische Umland ergaben. Das an der oberen Havel in Nordbrandenburg gelegene Zehdenicker Revier profitierte von dieser Entwicklung und nahm als Standort der Ziegelindustrie im Deutschen Reich eine besondere Stellung ein. Handwerkliche Verfahren der Ziegelherstellung waren Ende des 19. Jahrhunderts zunehmend durch industrielle Massenproduktion abgelöst worden. 1887 wurden nördlich der Kleinstadt Zehdenick zufällig reichhaltige Tonlagerstätten an der Havel entdeckt. Die neugeborene Industriestadt stieg innerhalb weniger Jahre zum Zentrum der Märkischen Ziegelindustrie auf. Bis 1913 wurden 63 Hoffmannsche Ring-öfen nördlich von Zehdenick errichtet, mit denen bis zu 500 Millionen Ziegel pro Jahr gebrannt werden konnten. Nach dem Zweiten Weltkrieg entwickelte sich der VEB Zie-gelwerke Zehdenick zum bedeutendsten Ziegelhersteller in der DDR. Noch bis 1990 be-stimmten historische Ringofenziegeleien das Landschaftsbild im Revier. Die Ziegelferti-gung endete mit der Wiedervereinigung Deutschlands. Untersuchungsgegenstand der Dissertation ist das Erbe der Zehdenicker Ziegelindustrie und die von ihr geprägte Kulturlandschaft, die nicht nur erhebliche geschichtliche Bedeu-tung für den Aufbau Berlins vor 1945 sondern auch für die Baustoffindustrie in der der DDR hat. Bislang wurde dieses Kulturgut kaum erforscht. Aus diesem Grund erfolgte zunächst eine grundlegende Inventarisierung der persistenten Relikte, die erfasst, be-schrieben, in ihrer Erscheinung erklärt und hinsichtlich ihrer touristischen Verwendbarkeit bewertet wurden. Es konnte dadurch festgestellt werden, dass derzeit noch ein reichhal-tiges bauliches Erbe der Ziegelindustrie im Untersuchungsraum existiert. Dieses bedeutende Erbe wird bislang erst in Ansätzen durch den Tourismus genutzt, zumal in den westlichen Industrieländern nur noch wenige Hoffmannsche Ringöfen erhal-ten geblieben sind. Die Arbeit zeigt auf, dass die mittlerweile vollständig gefluteten Ton-tagebauten und Teile der historischen Kulturlandschaft mit ihrem Formenschatz - Relikte der Aufbereitung, der Freilufttrocknung, Produktions- und Wohngebäude oder Häfen - eine hohe Relevanz für den Erholungs- und Kulturtourismus aufweisen. Kulturtouristisch erschlossen wurde bislang einzig der Ziegeleipark Mildenberg, der pro Jahr etwa 40.000 Besucher zählt. Sein besucherorientiertes Angebot wurde im Rahmen der Dissertation analysiert und bewertet. Er stellt bislang eine inselartige Erschließung dar, die den histo-rischen Dimensionen des Reviers mit seinen vielen Standorten nicht entspricht. Die Arbeit liefert wesentliche Grundlagen für die Konzeption einer kulturtouristischen Erschließung der gesamten Zehdenicker Tonstichlandschaft unter Nutzung und Wahrung ihrer authentischen Relikte und regionalen Spezifik. Sie schließt mit konkreten Vorschlä-gen für eine gezielte Erhaltung und Pflege dieses Erbes unter besonderer Berücksichti-gung des Kulturtourismus. Dabei fließen Erfolgsmuster tourismusrelevanter Nutzungs-formen vergleichbarer Standorte in Deutschland und in Belgien, die durch eigene Re-cherchen und Expertengespräche mit Vertretern bedeutender Ziegeleimuseen ermittelt wurden, mit ein. Noch wäre es möglich, den seit 1990 fortschreitenden Verfall dieses Kulturgutes aufzu-halten, vor weiterer Zerstörung zu schützen und die wertvolle Substanz der industriellen Vergangenheit inwertzusetzen.
Preisvergleiche zwischen verschiedenen Regionen spielen in zahlreichen wirtschaftlichen und politischen Zusammenhängen eine wichtige Rolle. Unabhängig davon, ob es darum geht, die Wirtschaftskraft von Regionen oder Ländern gegenüber zu stellen, die Lebensverhältnisse innerhalb eines Landes zu vergleichen, oder aber die Wirkungsweise sozial- und lohnpolitischer Entscheidungen einzuschätzen: Interregionale Preisvergleiche dienen in erster Linie als Instrument, um gesamtwirtschaftliche und ökonomische Größen zwischen verschiedenen Regionen oder Ländern real vergleichbar zu machen. Interregionale Preisvergleiche sind allgemeinhin besser bekannt als sogenannte Kaufkraftparitäten. Die enorme Bedeutung von Kaufkraftparitäten wurde in der Vergangenheit lange unterschätzt. Insbesondere bei Preisvergleichen innerhalb eines Landes mangelt es oftmals an einer soliden Datenbasis, sodass verlässliche Schätzungen regionaler Preisniveauunterschiede häufig nicht möglich sind. Die vorliegende Arbeit zeigt allerdings, dass ein breites Angebot verschiedener multilateraler Aggregationsmethoden bereit. Im Mittelpunkt des ersten Teils Arbeit steht die methodische Ausarbeitung verschiedener Aggregationsverfahren, mit deren Hilfe sich erhobene Daten zu verlässlichen und aussagekräftigen Preisvergleichskennzahlen aggregieren lassen. Im Unterschied zu intertemporalen Vergleichen sind gewöhnliche bilaterale Preisindizes für diesen Zweck nur begrenzt einsetzbar. Vielmehr sind spezielle multilaterale methodische Instrumente nötig, die den speziellen Anforderungen regionaler Preisvergleiche gerecht zu werden. Im Rahmen der Arbeit werden die verschiedenen multilateralen Aggregationsverfahren unterschiedlichen Berechnungsansätzen zugeordnet, wobei jeder dieser Ansätze durch bestimmte Eigenschaften charakterisiert ist. Neben den Mitgliedern der Klasse des Gini-Eltetö-Köves-Szulc (GEKS) und Minimum Spannning Tree (MST) Ansatzes sowie des Regressionsansatzes, widmet sich diese Arbeit schwerpunktmäßig den unterschiedlichen Verfahren des sogenannten Standardisierungsansatzes. Es stellt sich heraus, dass der Standardisierungsansatz grundsätzlich sehr dem Konstruktionsprinzip bilateraler Durchschnittswertindizes (GUV-Indizes) ähnelt, weshalb sich die Mitglieder dieser Klasse auch als multilaterale GUV-Indizes auffassen lassen. Darüber hinaus wird eine neue Unterklasse des Standardisierungsansatzes definiert, deren Mitglieder die breite Palette bereits existierender Verfahren ergänzen. Allerdings wird den Aggregationsverfahren des Standardisierungsansatzes nachgesagt, unter den Auswirkungen des sogenannten Gerschenkron-Effekts zu leiden und im Gegensatz zu anderen Aggregationsverfahren häufig verzerrte Preisvergleiche hervorzubringen. Der zweite Teil der Arbeit ist einem empirischen Vergleich der zuvor erörterten Aggregationsverfahren vorbehalten. Grundlage für die Berechnungen (auf und unterhalb der elementaren Güterebene) sind Daten des Europäischen Vergleichsprogramms (EVP). Eine wichtige Erkenntnis des empirischen Teils der Arbeit ist, dass viele der unterschiedlichen Aggregationsmethoden für die Berechnungen auf der Elementarebene sehr ähnliche Ergebnisse für die Preisvergleiche zwischen den Ländern im EVP generieren. Die Sorge verzerrter Preisvergleiche infolge der Auswirkungen des Gerschenkron-Effektes lässt sich auf Grundlage der empirischen Untersuchungen nicht (zweifelsfrei) bestätigen. Ferner zeigen die empirischen Untersuchungen, dass weitaus größere Schwierigkeiten bei der Berechnung von Preisvergleichen unterhalb der Elementarebene bestehen. Die Berechnungen offenbaren, dass die häufig in der Praxis eingesetzten Verfahren der GEKS-Methode in Situationen, in denen nur wenige Daten vorhanden sind, keine plausiblen Ergebnisse liefern. Es stellt sich heraus, dass in diesen Fällen die Verfahren des Regressionsansatzes eine unkompliziertere und verlässlichere Berechnung von Preisvergleichen erlauben. Nichtsdestotrotz decken die Ergebnisse schonungslos die Probleme und Schwächen interregionaler Preisvergleiche auf. Trotz intensiver Anstrengungen der internationalen statistischen Organisationen, eine vergleichbare und fundierte Datenbasis zu schaffen, sind die Dateninformationen einiger Regionen bzw. Länder nach wie vor sehr lückenhaft. Da verlässliche und aussagekräftige Preisvergleiche im Wesentlichen von der Verfügbarkeit und der Qualität der Daten abhängig sind, sollte der Forschungsschwerpunkt zukünftig daher mehr an der Bereitstellung eines soliden Datenfundaments ausgerichtet werden.
Die Versuche, das Funktionieren von Sprache zu beschreiben oder gar zu erklären, sind zahlreich und vielfältig. Das ist hinlänglich bekannt. Tatsächlich mangelt es jedoch erheblich an solchen Beschreibungen, die nicht nur Symbol und Referenz, sondern auch Kontext und Gelingensbedingungen erfassen und in einen historischen Vergleich stellen. So soll folgende Fragestellung diese Untersuchung prägen: "Wie?" wird "Was?" genannt und "Wann?" geschieht dies "Wo?" mit welchem Erfolg? Im Fall der Liebe ist die erste Frage diejenige nach dem "Was?": Welche Referenz wird hier überhaupt verhandelt? Und wenn es keine Referenz gibt, über was reden wir, wenn wir Symbole wie "Liebe" oder ähnliche Zeichen verwenden? "Wie?" und "Wo?" sind nur ausschnitthaft zu beschreiben, das liegt in der Natur der Sache. Aus verschiedenen Gründen erschien das Format Doku-Soap in diesem Zusammenhang geeignet. Immerhin handelt es sich hier um eine Textsorte, die sich seit kurzer Zeit stets wachsender Beliebtheit beim Fernsehpublikum erfreut, und deren Funktionsweisen sich stark von anderen unterscheidet. Außerdem lässt sich die Frage nach dem Erfolg in der Doku-Soap gut erfassen: Wie in kaum einer anderen Textsorte werden hier im Fall des Misserfolges Sanktionen verhängt in Form von Nominierung und Abwahl. Um Schlüsse über die gegenwärtige Symbolverwendung ziehen zu können wird immer wieder die Frage nach dem "Wann?" zu stellen sein: Nur wenn Entwicklungen mit Tendenzen und Richtungen beschrieben werden können lassen sich Aussagen über die gegenwärtige Konfiguration dieser Linien machen. Nur wenn ein historischer Vergleich gezogen wird lässt sich die Gegenwart ansatzweise einordnen.
Die Arbeit versucht einen Beitrag zum besseren Verständnis von Identitifikations- und Migrationsprozessen von Russlandddeutschen zu leisten. Dabei werden die folgenden zentralen Froschungsfragen behandelt:rnGibt es die Gruppe der Russlanddeutschen aus einer Binnenperspektive? Was führt dazu, dass sich jemand als Mitglied der Gemeinschaft der Russlanddeutschen fühlt? Welche Parameter üben entscheidenden Einfluss auf Migrationsprozesse aus? Welchen Einfluss üben Identitätskonstrukte auf soziale Handlungen, wie Migration aus?
Rotary, Kiwanis, Lions, Zonta, Soroptimist und Round Table. Bereits seit 100 Jahren setzen sich Service Clubs mit den verschiedensten Service-Projekten weltweit für sozialen Frieden und Menschenrechte ein. Heute gibt es unzählige Service Clubs mit unterschiedlichen Entstehungsgeschichten und Denkweisen. Obwohl Service Clubs insbesondere auf der Gemeinde-Ebene durch soziales und ökonomisches Engagement, aber auch über die Nutzung sozialer Netzwerke wichtigen Einfluss ausüben, sind sie bislang, zumindest in Europa, kaum wissenschaftlich untersucht worden. Dieses Defizit versucht Sebastian Gradinger im Rahmen einer Studie auszuräumen. Die Studie stellt vor diesem Hintergrund die historische Entstehung der traditionellen Service Clubs dar und widmet sich der Frage nach der Funktion von Service Clubs für unterschiedliche Ebenen der Gesellschaft wie auch für ihre individuellen Mitglieder. Schließlich wird die Zukunftsperspektive der Clubs in einer gewandelten Gesellschaft diskutiert.
Tagungsband des DAAD-Fachseminars 2005 in Bordeaux zum Thema "Mehrsprachigkeit". Themengebiete: "Mehrsprachigkeit und Literatur", "Mehrsprachigkeit und Sprachdidaktik", "Mehrsprachigkeit und Spracherwerb". Mit Texten von: Eva Kastenhuber & Daniel Grabis (S. 3-6 = Dokument 1); Nicole Pelletier (S. 7-16 = Dokument 2); Yoko Tawada (S. 17-20 = Dokument 3); Jacqueline Gutjahr (S. 21-42 = Dokument 4); Rolf Ehnert (S. 43-58 = Dokument 5); Myriam Geiser (S. 59-92 = Dokument 6); Karl-Richard Bausch (S. 93-98 = Dokument 7); Frank Günther-Spohr (S. 99-124 = Dokument 8); Jeannine Gerbault (S. 125-150 = Dokument 9); Jean-Claude Quentel (S. 151-180 = Dokument 10); Michael Herrmann (S. 181-204 = Dokument 11); Dirk Deissler (S. 205-224 = Dokument 12); Christian Tremmel (S. 225-248 = Dokument 13)
"Ärztenetzwerke" als Reformmodell für den ambulanten Sektor? Diese Frage steht im Mit-telpunkt der vorliegenden Arbeit. Ausgangspunkt der Untersuchung ist die Feststel-lung, daß die institutionelle Fragmentierung des ambulanten Sektors, die aus einer organisato-rischen, rechtlichen und finanziellen Trennung zwischen hausärztlicher und fachärztlicher Versorgung resultiert, zu erheblichen Qualitätseinbußen und Kostensteigerungen in der Gesundheits-versorgung führt. Als Antwort auf diese institutionellen Schwachstellen werden in der derzeitigen Reformdebatte zwei konkurrierende Modelle diskutiert: Ärztenetzwerke und integrierte Versorgungsformen nach Vorbild der amerikanischen Health Maintenance Organizations (HMO's). Vor diesem Hintergrund sind zwei Fragestellungen Gegenstand der folgenden Untersu-chung. Zum einen wird näher analysiert, ob Ärztenetzwerke aus ökonomischer Perspektive geeignet sind, die Fragmentierung der Versorgungsstrukturen im ambulanten Sektor zu beheben. Wenn Ärztenetzwerke als Alternative zur derzeitigen Organisation der ambulanten Versorgung zu empfehlen sind, so wird zum anderen die Frage des effizienten Netzwerkaufbaus und -arrangements beantwortet. Da keine umfassenden theoretischen oder empirischen Studien über Gesundheitsnetzwerke vorliegen, ist das Vorgehen in dieser Arbeit weitestgehend explorativ. Inwiefern Netzwerke zur Verringerung der institutionellen Schwachstellen im ambulanten Sektor beitragen können, ist abhängig von den konkreten Ursachen der Leistungsver-schlechterungen. Daher erfolgt zunächst eine eingehende Darstellung des ambulanten Sektors und eine Ursachenanalyse. Hierauf aufbauend wird aus theoretischer Perspektive näher untersucht, inwiefern Netzwerke zu einer Verringerung dieser Leistungsverschlechterungen beitragen können. Zu diesem Zweck wird die netzwerkliche Organisationsform aus zwei Gründen der marktlichen sowie der hierarchischen bzw. inte-grierten Organisation gegenübergestellt. Auf der einen Seite stellen Netzwerke aus institutio-nenökonomischer Sicht eine Synthese der beiden "Idealtypen" Markt und Hierarchie bzw. Integration dar, so daß über eine netzwerkliche Organisation theoretisch jene Elemente der beiden Systeme miteinander kombiniert werden können, die für die Organisation der Gesund-heitsversorgung als besonders effizient angesehen werden können. Auf der anderen Seite erfolgt ein Vergleich der Effizienz von Netzwerken und integrierten Versor-gungsformen, da diese in der aktuellen Reformdiskussion als Alternative zum derzeitigen System präferiert werden. Bei der Gegenüberstellung der beiden "Idealtypen" stehen vor allem fünf Strukturmerkmale im Vordergrund: die räumliche Organisation der Leistungserstellung, die Koordinations- und Kontrollmechanismen, die Verteilung der Eigentums--rechte und die Kosten der Vertragsausgestaltung zwischen Versicherern und Anbietern. Hieran anschließend wird dargestellt, daß über eine netz-werkliche Organisation die Vorteile der beiden idealtypischen Formen kombiniert werden können. Unter der Annahme, daß das Netzwerkarrangement, das sich aus verschiedenen Netzwerk-regelungen und der Netzwerkstruktur zusammensetzt, Einfluß auf den Anreiz zur Einhaltung der Netzwerkverpflichtungen und die Wahrscheinlichkeit opportunistischen Verhaltens ausüben können, steht im weiteren Verlauf der Arbeit die Frage des effizienten Arrangements im Mittelpunkt. Im Gegensatz zur ersten Fragestellung wird diese sowohl theoretisch als auch empirisch untersucht werden. Unter Berücksichtigung ver-schiedener soziologischer sowie institutionenökonomischer Theorieansätze werden Hypo-thesen über einen optimalen Netzwerk--aufbau abgeleitet. Diese theoretischen Ableitungen werden anhand von Gesundheitsnetzwerken in der Schweiz näher überprüft.
Debatten führen nicht immer zu einem Konsens. Selbst die Vorlage von Beweisen bewirkt nicht immer eine Überzeugung der Gegenseite. Dies zeigt sich nicht nur in der Geschichte der Wissenschaften (vgl. Ludwik Fleck, Bruno Latour), sondern auch in der in unterschiedlichen Disziplinen geführten zeitgenössischen Debatte unter dem Label ‚science wars‘ zwischen einem Realismus und Konstruktivismus beziehungsweise Relativismus. Unterschiede in ihren Legitimierungen zeigen systematisch verschiedene Wirklichkeits- und Wahrheitsverständnisse, die sich aus den vom Seinsstandort der Perspektive abhängigen Grundannahmen konstituieren. Über einen wissenssoziologischen Zugriff wird es möglich die (sozio-)strukturlogische Konstitution von Perspektivität zu analysieren, die eine epistemologisch vorstrukturierte Revolvierung untereinander inkommensurabler Beiträge in der Debatte aufdeckt, was als Erklärung für ungelöste Debatten in Wissenschaft, Politik und Alltag überhaupt fungieren kann.
Die vorliegende Arbeit orientiert sich in ihrem Vorgehen an dem von Paul Boghossian veröffentlichten Werk ‚Angst vor der Wahrheit‘ als zeitgenössischen Vertreter eines Neuen Realismus. Hierbei werden zum einen den direkten Bezügen von Boghossian die Aussagen der kritisierten Perspektiven (v.a. Latour und Goodman) gegenübergestellt, als auch zum anderen weitere Spielarten eines Konstruktivismus (kognitionstheoretischer Konstruktivismus nach Maturana und Varela, soziologischer Konstruktivismus nach Berger und Luckmann, Wissenschaftssoziologie am Beispiel von Bloor und Latour, die Systemtheorie von Luhmann sowie postkonstruktivistische Positionen) in den Dimensionen ‚Wissensverständnis‘, ‚Subjektrelevanz‘ und ‚Einstellung zu einer naturalistischen Grundlage‘ vorgestellt. Es wird eine systematische und beidseitige Fehlinterpretation in der Debatte zwischen Realismus und Konstruktivismus sichtbar. Diese wird auf die Seinsgebundenheit von Perspektiven nach dem Verständnis einer mannheimschen Wissenssoziologie zurückgeführt. Anhand einer Rekonstruktion der Erkenntnistheorie des frühen Mannheims (1922: ‚Strukturanalyse der Erkenntnistheorie‘) wird die (sozio-)strukturlogische Konstitution erkenntnistheoretischer Elemente von Grundwissenschaften herausgearbeitet, wodurch denkstilgemäße Objektivierungen (und damit Wahrheitsverständnisse) unterschieden werden können. Diese Unterschiede erklären nicht nur die Inkommensurabilität von heterogenen Perspektiven in Debatten, sondern zeigen auf, dass das Aufeinandertreffen der Debattierenden vorstrukturiert sind. Der Ablauf einer Debatte ist soziostrukturell determiniert. Abschließend wird in der vorliegenden Arbeit diskutiert, inwiefern der verfahrenen Situation einer Debatte entgegengewirkt werden kann und auf welche Weise eine wissenssoziologische Analyse zu einem gegenseitigen Verständnis zwischen debattierenden Parteien beitragen kann.
Betriebswirtschaftlich ausgerichtete Reformen zur Verbesserung der Effizienz und Effektivität werden zunehmend auch in der Rechtsprechung eingesetzt. Dort stoßen sie vor dem Hintergrund der Gewährleistung der richterlichen Unabhängigkeit zum Teil auf erhebliche Vorbehalte. Bei richtigem Verständnis der Reformmaßnahmen ist dies aber unbegründet. Die Maßnahmen erstrecken sich insbesondere auf Modelle zur Erfolgsmessung, auf die Gestaltung der Geschäftsprozesse sowie auf betriebswirtschaftliche Instrumente (Balanced Scorecard und Kosten- und Leistungsrechnung). Sie müssen nicht nur auf die speziellen Bedingungen der Rechtsprechung abgestimmt sein. Zu den Faktoren für eine erfolgreiche Anwendung gehört vor allen Dingen die Vermittlung betriebswirtschaftlichen Wissens in der Aus- und Fortbildung der Mitarbeiter.
For grape canopy pixels captured by an unmanned aerial vehicle (UAV) tilt-mounted RedEdge-M multispectral sensor in a sloped vineyard, an in situ Walthall model can be established with purely image-based methods. This was derived from RedEdge-M directional reflectance and a vineyard 3D surface model generated from the same imagery. The model was used to correct the angular effects in the reflectance images to form normalized difference vegetation index (NDVI)orthomosaics of different view angles. The results showed that the effect could be corrected to a certain scope, but not completely. There are three drawbacks that might restrict a successful angular model construction and correction: (1) the observable micro shadow variation on the canopy enabled by the high resolution; (2) the complexity of vine canopies that causes an inconsistency between reflectance and canopy geometry, including effects such as micro shadows and near-infrared (NIR) additive effects; and (3) the resolution limit of a 3D model to represent the accurate real-world optical geometry. The conclusion is that grape canopies might be too inhomogeneous for the tested method to perform the angular correction in high quality.
Thema der vorliegenden Arbeit ist eine Analyse alltäglicher Rachereaktionen und rachebezogener Reaktionen unter gerechtigkeitspsychologischen Aspekten. Rache wird als eine Bewältigungsreaktion verstanden, welche mit Hilfe eines handlungstheoretischen Rahmenmodells beschrieben werden kann. Diese Konzeption will sich bewusst von jenen (vor allem in der Rechtsphilosophie vertretenen) Ansätzen, nach denen Rache eine destruktive, affektgesteuerte, irrationale Form der Vergeltung sei, abgrenzen. Besonderes Augenmerk wird auf die Frage gelegt, wo und wie sich der Einfluss gerechtigkeitsbezogener Persönlichkeitseigenschaften (Glaube an eine gerechte Welt, Sensibilität für widerfahrene Ungerechtigkeit, Soziale Verantwortung) sowie gerechtigkeitsbezogener Kognitionen und Emotionen im Prozessmodell einer Rachehandlung verorten lässt. Es wird erstens argumentiert, dass gerechtigkeitsbezogene Persönlichkeitseigenschaften (a) auf die subjektive Bedeutsamkeit gerechtigkeitsbezogener Ziele, (b) auf die Wahrscheinlichkeit, mit der von einer verfügbaren Racheaktion Gebrauch gemacht wird, (c) auf den Einsatz sekundärer Bewältigungsstrategien sowie (d) auf die Bewertung rachebezogener Ereignisse Einfluss nehmen. Zweitens wird argumentiert, dass Racheaktionen zumindest begrenzt rational in dem Sinne sind, als ihnen (im Sinne von "Erwartung-´Wert-Theorien") spezifische Kosten-Nutzen-Überlegungen zugrunde liegen. Drittens wird untersucht, inwiefern die Beobachtung eines Schicksalsschlages zu Lasten des "Täters" aus der Perspektive des "Opfers" ebenso funktional sein (d.h. aversive Emotionen reduzieren und zum Erleben von Genugtuung, Zufriedenheit und wiederhergestellter Gerechtigkeit beitragen) kann wie eine erfolgreich ausgeführte Racheaktion. Es werden vier Studien beschrieben, die die im theoretischen Teil der Arbeit entwickelten Hypothesen konsekutiv prüfen. Bei zwei Studien wird mit Vignetten gearbeitet, bei den beiden anderen handelt es sich um laborexperimentelle Untersuchungen. Die Ergebnisse dieser vier Studien zeigen, dass Rachereaktionen zumindest zu einem gewissen Anteil durch antizipatorische Kognitionen sowie durch gerechtigkeitsbezogene Persönlichkeitseigenschaften vorhergesagt werden können. Ebenso kann der Einfluss gerechtigkeitsbezogener Persönlichkeitseigenschaften auf die subjektive Bedeutsamkeit gerechtigkeitsbezogener Ziele sowie auf sekundäre Bewältigungsstrategien nachgewiesen werden. Ein beobachteter Schicksalsschlag zu Lasten des "Täters" kann zwar Ärger und Frustration auf Seiten des "Opfers" dämpfen, nicht aber Zufriedenheit, Genugtuung und die Wahrnehmung wiederhergestellter Gerechtigkeit signifikant erhöhen. Die Befunde werden vor dem Hintergrund aggressions-, gerechtigkeits- und bewältigungspsychologischer Konzepte diskutiert. Aus einer vertieften methodischen Diskussion der verwendeten Untersuchungsansätze ergeben sich darüber hinaus konkrete Vorschläge dahingehend, wie Racheaktionen und rachebezogene Reaktionen in zukünftigen Studien untersucht werden sollten.
Seit Beginn der Wirtschaftsreformen hat sich in der Volksrepublik China ein tiefgreifender Wandel vollzogen, der alle Bereiche des gesellschaftlichen, wirtschaftlichen und politischen Lebens erfasst zu haben scheint. Infolgedessen ist der Staat - mittlerweile Mitglied der Welthandelsorganisation - zu einem global player geworden, dessen Entwicklung im Westen besonders aufgrund sprunghaft ansteigender Wachstumszahlen im wirtschaftlichen Bereich mit großem Interesse verfolgt wird. Daraus resultierend wird die Volksrepublik in den ausländischen Medien zunehmend - und nicht nur in ökonomischer Hinsicht - als ein Land der Superlative dargestellt. Mit großer Euphorie wird auch das Wachstum des chinesischen Internetsektors beobachtet. Dies gilt insbesondere für den rasanten Anstieg der Nutzerzahlen und die damit verbundenen steigenden Einnahmen nationaler Internetunternehmen. So liest man einerseits häufig von einem Telekommunikations- und Internet-Boom in der Volksrepublik. Andererseits wird die westliche Metadebatte seit Beginn der privaten Internetnutzung in China vom Thema der staatlichen Zensur und Kontrolle des Mediums dominiert. Aufgrund der Dominanz dieser beiden Themenblöcke wird in gewisser Weise der Eindruck vermittelt, die Besonderheiten des Internet in China seien auf enorme Wachstumszahlen und staatliche Restriktion reduzierbar. So widmet sich auch ein Großteil der bisher erschienenen wissenschaftlichen Arbeiten zum Thema "Internet und China" schwerpunktmäßig diesen beiden Aspekten. Unter Berücksichtigung der gesellschaftlichen und institutionellen Realitäten, in deren direktem Zusammenhang Internetnutzung und -angebot in der Volksrepublik stehen, scheint diese eingeschränkte Sichtweise jedoch äußerst fragwürdig. Ziel dieser Arbeit ist es daher, unter Berücksichtigung einer ganzheitlichen Perspektive der Frage nachzugehen, wie sich regionale Ausprägung oder "Chineseness" im chinesischen Internet abzeichnet. Hauptfragestellungen: (1) Was ist unter regionaler Ausprägung des Internet in der Volksrepublik China zu verstehen? (2) Wie und auf welchen Ebenen kann regionale Ausprägung untersucht und bewertet werden? Schlagwörter: China, Internet, Telekommunikation, Reformpolitik, Metadebatte, Chineseness, Jugendkultur, Portale, Zensur, Sprache, Online-Games, Sina, Sohu, Netease, Internetnutzer
Ein gut funktionierendes Umweltmanagementsystem strebt im Allgemeinen nach einer kontinuierlichen Verbesserung der Umweltleistung. Diese kontinuierliche Verbesserung setzt bei den beteiligten Unternehmen einmal die Identifizierung der Umweltaspekte voraus. Die Umweltaspekte beziehen sich vor allem auf den Produktionsprozess und somit auf die Umwelteinwirkungen und - auswirkungen des Produktionsstandortes. Das Potential für kontinuierliche Verbesserung ist nicht immer offensichtlich, wie auch Schwachstellen nicht immer sofort erkannt werden. Beides äußert sich in der Umweltleistung eines Unternehmens. Das vorliegende Bewertungssystem ermöglicht es nun, diese Umweltleistung zu messen und im Sinne des Benchmarking die daraus erlangten Kenntnisse zu nutzen. In dieser Arbeit wird dargestellt, wo die Darstellung der Umweltleistung mit Kennzahlen seine Grenzen hat. Für den operativen Bereich werden daraufhin neue operative Umweltleistungskriterien entwickelt, und es wird gezeigt, wie die Killerargumente gegen einen Vergleich "unterschiedliche Fertigungstiefen und unterschiedlicher Produktoutput" ausgeschaltet werden können. Das Ergebnis sind operative Umweltleistungskriterien, die zwar mit Fehlern belastet sind, aber sie wurden analysiert und auf ein Minimum reduziert. Parallel dazu wird ein Katalog qualitativer Kriterien für den Managementbereich vorgestellt. Hiermit soll der organisatorische Teil, also die "Soft Skills" des Umweltmanagementsystems, abgedeckt werden. Zunächst wurde versucht, diesen Katalog von managementbezogenen Umweltleistungskriterien durch eine Delphi-Befragung zusammenzustellen. Nach einer Analyse der bestehenden Checklisten und Literatur musste dieser jedoch ergänzt werden. Nach dem betriebswirtschaftlichen Grundsatz: "What you cannot measure, you cannot manage." gibt der vorliegende Ansatz die Möglichkeit, durch die Vergabe von Zielerfüllungsgraden auch hier quantitative Aussagen zu machen. Dann wurde der Versuch, unternommen beide Umweltleistungskriterienpakete in einem naturwissenschaftlichen Bewertungsverfahren zu einem Bewertungssystem für Umweltmanagementsysteme zu vereinen. Dieser Versuch mündet in einem praktikablen Ansatz der Umweltleistungsbewertung zugeschnitten, auf die Automobilindustrie. Allerdings wird darauf verzichtet, eine Gesamt- Umweltleistungskennzahl über alle Kriterien zu kreieren, da die Aussage für den Anwender nicht detailliert genug wäre und eine so starke Aggregierung aus bewertungstheoretischer Sicht sehr problematisch ist.
Even though in most cases time is a good metric to measure costs of algorithms, there are cases where theoretical worst-case time and experimental running time do not match. Since modern CPUs feature an innate memory hierarchy, the location of data is another factor to consider. When most operations of an algorithm are executed on data which is already in the CPU cache, the running time is significantly faster than algorithms where most operations have to load the data from the memory. The topic of this thesis is a new metric to measure costs of algorithms called memory distance—which can be seen as an abstraction of the just mentioned aspect. We will show that there are simple algorithms which show a discrepancy between measured running time and theoretical time but not between measured time and memory distance. Moreover we will show that in some cases it is sufficient to optimize the input of an algorithm with regard to memory distance (while treating the algorithm as a black box) to improve running times. Further we show the relation between worst-case time, memory distance and space and sketch how to define "the usual" memory distance complexity classes.
Die sich entwickelnden mittelalterlichen Städte waren Triebfedern für vielfältige sprachliche Entwicklungen. Der in dieser Arbeit gewählte Untersuchungszeitraum von 1388 bis 1500 beleuchtet eine Zeit, in der sich in vielen Städten ein völlig neues System der Namengebung entwickelte. Dies wurde nötig, weil es in einer heterogenen Gesellschaft zunehmend schwieriger wurde, Individuen über ihren Rufnamen eindeutig zu identifizieren, was vor allem im Bereich des Rechts und der Verwaltung zu Problemen führte. Somit mussten neue Wege gefunden werden, um einen Namen in einem schriftlich verfassten und rechtsgültigen Dokument eindeutig einer Person zuordnen zu können. Basis dieser Untersuchung sind die Rechnungsbücher der Stadt Luxemburg, die in jährlichen Berichten penibel die Einnahmen und Ausgaben der Stadt verzeichnen. Tätigkeiten im Dienst der Stadtgemeinschaft wurde entlohnt und die Kosten für jeden einzelnen Arbeiter in den Büchern vermerkt. Somit sind Rechnungsbücher ein reicher Fundus für namenkundliche Analysen. Sie werfen ein Licht auf eine Zeit, in der sich im Bereich der Personennamen ein grundlegend neues System der Namengebung beginnt herauszubilden, dessen Auswirkungen uns bis heute prägen. Die Arbeit besteht aus einem nach verschiedenen Gesichtspunkten gegliederten und kommentierten Namenbuch sowie einer onomastischen Analyse des Bestands.
Die vorliegende Dissertation befasst sich mit der Bildung der Modelle der Komposita in der englischen Sprache.Um eine linguistische Theorie richtig zu bilden, stellen wir 7 Hypothesen auf, die auf umfangreiches englisches Sprachmaterial basieren. Wir schaffen den Regelkreis, der die Möglichkeiten für weitere Untersuchungen in diesem Bereich gibt. In unserem Fall ist diese Untersuchung ein begrenzter Bereich, der als die Bereicherung des Regelkreises von Köhler (2005) gilt (synergetisch-linguistische Modellierung).
Dargestellt werden die Ergebnisse einer Studie zur Raucherprävention bei Schülerinnen und Schülern der 6. Jahrgangsstufe an Gymnasien. Das durchgeführte Programm wird in Manualform genau beschrieben. Es besteht aus einem medizinischen Teil mit den Themen Ernährung, Herz-, Kreislauf- und Lungenfunktion und Sport und Gesundheit sowie einem psychologischen Teil mit den Unterrichtseinheiten Gründe für und gegen das Rauchen, Widerstand gegen das Rauchen und Werbung und Wirklichkeit. Die Ergebnisse einer anonymisiert durchgeführten Begleitstudie beschreiben die Prävalenz des Zigaretten- und Alkoholkonsums vor Beginn und fünf Monate nach der Durchführung des Präventionsprogramms und geben erste Hinweise auf die Effekte des Programms.
Auf der Mikroebene einer durch verwandtschaftliche Kohäsion verbundenen Personengruppe werden in einer prosopographischen Fallstudie Konsistenz und Persistenz sozialer Rangbildung im rheinisch-maasländischen Adel des späten Mittelalters untersucht. Ausgehend von dem wohl berühmtesten Vertreter der Familie von Schönau/von Schönforst, Reinhard von Schönau (ca. 1305-1376), dessen Karriere bereits in der zeitgenössischen Chronistik in Anbetracht seiner sozialen und wirtschaftlichen Ausgangsbedingungen als außergewöhnlich qualifiziert wurde, greift die Themenstellung sowohl auf dessen genealogische Aszendenz wie auch auf seine Deszendenz aus, um in mehr als 35 Biogrammen aus dem Zeitraum von ca. 1250 bis ca. 1450 in einem Längsschnitt über acht Generationen hinweg das überaus disparate Quellenmaterial für die einzelnen Familienmitglieder zusammenzutragen und in seinem historischen Kontext darzustellen. Der innerhalb verschiedener Stratifikationsdimensionen " wirtschaftliche Stellung, politische Position, Konnubium, administrative Funktionen in den miteinander konkurrierenden Landesherrschaften im Westen des Reiches sowie Selbst- und Fremdbezeichnungen " differenziert evaluierte soziale Status der einzelnen Familienmitglieder jenseits einer schematischen Zuweisung in 'hohen' und 'niederen' Adel erlaubt es, strukturelle von individuellen statusbildenden Faktoren zu unterscheiden und deren unterschiedliche Bedeutung für die Persistenz sozialen Ranges darzustellen. Diese Analyse mündet in die These, daß sich die Weitergabe sozialen Ranges in der Generationenabfolge im Rahmen eines Modells hierarchisierter statusbildender Faktoren beschreiben läßt. Dieses Modell ist nicht nur auf andere genealogisch definierte Personengruppen übertragbar, sondern kann im Ergebnis auch Gültigkeit über die Familie von Schönau/von Schönforst und den Rhein-Maas-Raum hinaus beanspruchen.
Im Mittelpunkt der Arbeit steht der spätgotische Kirchenbau der 2. Hälfte des 15. Jahrhunderts im alten Erzbistum Trier. Dabei soll besonderes Augenmerk auf die unter Erzbischof und Kurfürst Johann II. von Baden (1456-1503) neu entstandenen und/oder umgebauten bzw. "modernisierten" Kirchen gelegt werden. Diese wurden in der bisherigen Forschung, bis auf Einzelmonographien, nicht in einer Zusammenschau betrachtet. Auch auf die Bau- und Stiftungspolitik Johanns II. von Baden, der scheinbar sämtliche in seiner Regierungszeit entstandenen Baumaßnahmen durch sein Wappen kennzeichnete, und deren Hintergründe, soll näher eingegangen werden. Neben den bekannteren Bauten in den Zentren des Erzstiftes Trier " Trier und Koblenz - entstanden in der 2. Hälfte des 15. Jahrhunderts im gesamten Erzbistum bedeutende spätgotische Bauten, so etwa in St. Wendel, in Klausen oder die Kirche des ehem. Kreuzherrenklosters Helenenberg. Neben den allgemein bekannteren Bauten sollen in der geplanten Dissertation aber vor allem auch die zahlreichen ländlichen Pfarrkirchen in Eifel, Hunsrück, Westerwald und Rhein-Lahn-Kreis gewürdigt werden. Diese blieben in der bisherigen kunsthistorischen Forschung außen vor, obwohl sie zum Teil von großer künstlerischer Qualität zeugen und einen wesentlichen Beitrag der Kunst- und Kulturgeschichte des Trierer Raumes leisten. Mit einer solchen Arbeit könnte eine Lücke der bisherigen Forschung zum spätmittelalterlichen Kirchenbau in Westdeutschland geschlossen werden, was nicht nur aus kunsthistorischer Sicht, sondern auch aus lokal-historischer, sozial- und kirchengeschichtlicher Sicht dringend erforderlich wäre.
Intensiv diskutierte Aspekte der Politikwissenschaft heben zunehmend die Bedeutung von Strategiefähigkeit zur erfolgreichen Durchführung von Wahlkämpfen für Parteien hervor. Der Widerspruch der mit den Implikationen der modernen Mediengesellschaft eingehergehenden unterstellten Akteursfähigkeit der Parteien und ihrer kollektiven heterogenen Interessens- und Organisationsvielfalt bleibt dabei bestehen. Die Fokussierung der Parteien auf das Ziel der Stimmenmaximierung bringt unter den sich wandelnden Rahmenbedingungen Veränderungen der Binnenstrukturen mit sich. So diskutieren Parteienforscher seit Längerem die Notwendigkeit eines vierten Parteitypus als Nachfolger von Kirchheimers Volkspartei (1965). Verschiedene dieser Ansätze berücksichtigen primär die Wahlkampffokussierung der Parteien, während andere vor allem auf den gesteigerten Strategiebedarf abzielen. Auch die Wechselwirkungen mit den Erfordernissen der Mediengesellschaft sowie Auswirkungen des gesellschaftlichen Wandels stehen im Vordergrund zahlreicher Untersuchungen. Die Arbeit von Uwe Jun (2004), der mit dem Modell der professionalisierten Medienkommunikationspartei auch die organisatorischen und programmatischen Transformationsaspekte des Parteiwandels beleuchtet, liefert einen bemerkenswerten Beitrag zur Party-Change-Debatte und bietet durch die angeschlossene vergleichende exemplarische Fallstudie eine praxisnahe Einordnung. Die geringe empirische Relevanz, die Jun seinem Parteityp anhand der Untersuchung von SPD und New Labor zwischen 1995 und 2005 bestätigt, soll in dieser Arbeit versucht werden zu relativieren, in dem der Parteiwandel der deutschen Großparteien seit der Wiedervereinigung durch die Untersuchung ihrer Wahlkampffähigkeit aufgezeigt wird. Anhand eines längsschnittlichen Vergleiches der Bundestagswahlkämpfe von SPD und CDU zwischen 1990 und 2013 soll die Plausibilität dieses vierten Parteitypus überprüft werden. Hierdurch soll die Entwicklung der Strategie- und Wahlkampffähigkeit beider Großparteien in den Bundestagswahlkämpfen seit 1990 untersucht und die Ergebnisse miteinander verglichen und in Bezug auf den Parteiwandel eingeordnet werden.
Dass sich Parteien genau wie ihre gesellschaftliche und politische Umwelt im Wandel befinden, ist nicht zu bestreiten und seit Langem viel diskutierter Gegenstand der Parteienforschung. „Niedergangsdiskussion“, Mitgliederschwund, Nicht- und Wechselwähler, Politik- und Parteienverdrossenheit, Kartellisierung und Institutionalisierung von Parteien sind nur einige der in diesem Kontext geläufigen Schlagwörter. Prozesse der Individualisierung, Globalisierung und Mediatisierung führen zu veränderten Rahmenbedingungen, unter denen Parteien sich behaupten müssen. Diese Veränderungen in der äußeren Umwelt wirken sich nachhaltig auf das parteipolitische Binnenleben, auf Organisationsstrukturen und Programmatik aus. Die Parteienforschung hat daher schon vor zwanzig Jahren begonnen, ein typologisches Nachfolgemodell der Volkspartei zu diskutieren, das diesen Wandel berücksichtigt. Verschiedene typologische Konstruktionen von z. B. Panebianco (1988), Katz und Mair (1995) oder von Beyme erfassen (2000) wichtige Facetten des Strukturwandels politischer Parteien und stellen mehrheitlich plausible typologische Konzepte vor, die die Parteien in ihrem Streben nach Wählerstimmen und Regierungsmacht zutreffend charakterisieren. Die Parteienforschung stimmt bezüglich des Endes der Volksparteiära mehrheitlich überein. Bezüglich der Nachfolge konnte sich unter den neueren vorgeschlagenen Typen jedoch kein vierter Typ als verbindliches Leitmodell etablieren. Bei genauerer Betrachtung weichen die in den verschiedenen Ansätzen für einen vierten Parteitypen hervorgehobenen Merkmale (namentlich Professionalisierung des Parteiapparates, die Berufspolitikerdominanz, Verstaatlichung und Kartellbildung sowie die Fixierung auf die Medien) wenig von jüngeren Modellvorschlägen ab und bedürfen daher mehr einer Ergänzung. Die in der Regel mehrdimensionalen entwicklungstypologischen Verlaufstypen setzten seit den 1980er Jahren unterschiedliche Schwerpunkte und warten mit vielen Vorschlägen der Einordnung auf. Einer der jüngsten Ansätze von Uwe Jun aus dem Jahr 2004, der das typologische Konzept der professionalisierten Medienkommunikationspartei einführt, macht deutlich, dass die Diskussion um Gestalt und Ausprägungen des vierten Parteityps noch in vollem Gang und für weitere Vorschläge offen ist – der „richtige“ Typ also noch nicht gefunden wurde. Jun bleibt in seiner Untersuchung den zentralen Transformationsleitfragen nach der Ausgestaltung der Parteiorganisation, der ideologisch-programmatischen Orientierung und der strategisch-elektoralen Wählerorientierung verhaftet und setzt diese Elemente in den Fokus sich wandelnder Kommunikationsstrategien. Die bisher in parteitypologischen Arbeiten mitunter vernachlässigte Komponente der strukturellen Strategiefähigkeit als Grundlage zur Entwicklung ebensolcher Reaktionsstrategien wird bei Jun angestoßen und soll in dieser Arbeit aufgegriffen und vertieft werden.
Der aktuellen Partychange-Diskussion zum Trotz scheint die Annahme, dass Parteien, die sich verstärkt der Handlungslogik der Massenmedien unterwerfen, deren strategischen Anforderungen durch interne Adaptionsverfahren auch dauerhaft gerecht zu werden vermögen, nicht immer zutreffend. Die Veränderungen der Kommunikationsstrategien als Reaktion auf gesamtgesellschaftliche Wandlungsprozesse stehen zwar im Zentrum der Professionalisierungsbemühungen der politischen Akteure, bleiben aber in ihrer Wirkung eingeschränkt. Wenngleich das Wissen in den Parteien um die Notwendigkeiten (medialer) Strategiefähigkeit besteht und die Parteien hierauf mit Professionalisierung, organisatorischen und programmatischen Anpassungsleistungen und der Herausbildung strategischer Zentren reagieren, so ist mediengerechtes strategisches Agieren noch lange keine natürliche Kernkompetenz der Parteien. Vor allem in Wahlkampfzeiten, die aufgrund abnehmender Parteibindungen und zunehmender Wählervolatilität für die Parteien zum eigentlich zentralen Moment der Parteiendemokratie werden, wird mediengerechtes Handeln zum wesentlichen Erfolgsfaktor. Strategiefähigkeit wird hierbei zur entscheidenden Voraussetzung und scheint zudem in diesen Phasen von den Parteien erfolgreicher umgesetzt zu werden als im normalen politischen Alltag. Die wahlstrategische Komponente findet in Juns typologischer Konstruktion wenig Beachtung und soll in dieser Arbeit daher als ergänzendes Element hinzugefügt werden. Arbeitshypothese Die beiden deutschen Großparteien berufen sich auf unterschiedliche Entstehungsgeschichten, die sich bis in die Gegenwart auf die Mitglieder-, Issue- und Organisationsstrukturen von SPD und CDU auswirken und die Parteien in ihren Anpassungsleistungen an die sich wandelnde Gesellschaft beeinflussen. Beide Parteien versuchen, auf die veränderten sozialen und politischen Rahmenbedingungen und den daraus resultierenden Bedeutungszuwachs von politischer Kommunikationsplanung mit einem erhöhten Maß an Strategiefähigkeit und kommunikativer Kompetenz zu reagieren. Diese Entwicklung tritt seit der deutschen Wiedervereinigung umso stärker in Augenschein, als dass nach 1990 die Bindekraft der Volksparteien nochmals nachließ, sodass die Parteien sich zunehmend gezwungen sehen, die „lose verkoppelten Anarchien“ in wahlstrategische Medienkommunikationsparteien zu transformieren. Diesen vierten Parteityp kennzeichnet vor allem die zunehmende Bemühung um Strategiefähigkeit, die mittels Organisationsstrukturen und programmatischer Anpassungsleistungen die Effizienz der elektoralen Ausrichtung verbessern soll. Insgesamt geht die Party-Change-Forschung davon aus, dass die Parteien sich zunehmend angleichen. Dies gilt es in dieser Studie zu überprüfen. Unter Berücksichtigung unterschiedlicher Entwicklungspfade kann vermutet werden, dass auch die Transformationsprozesse bei SPD und CDU in unterschiedlicher Weise verlaufen. Wenngleich die SPD über einen höheren Strategiebedarf und die größere Innovationsbereitschaft zu verfügen scheint, werden auf Seiten der Union potentiell strategiefähigere Strukturen vermutet, die die erfolgreiche Umsetzung von Wahlkampfstrategien erleichtern. Die historische Entwicklung und der Aspekt der Historizität spielen in diesem Kontext eine Rolle.
Zusätzlich spielen individuelle Führungspersönlichkeiten eine zentrale Rolle in innerparteilichen Transformationsprozessen, welche für die Ausprägung strategiefähiger Strukturen oftmals von größerer Bedeutung sind als institutionalisierte Strukturen. Im Vordergrund steht die Untersuchung des Parteiwandels anhand der Veränderung der Kommunikationsstrategien der Parteien im Allgemeinen sowie der Strategiefähigkeit in Wahlkämpfen im Besonderen, da diese als zentrale Merkmale für den vierten Parteityp in Anlehnung an die Professionelle Medienkommunikationspartei (Jun 2004) gewertet werden sollen. Strategiefähigkeit soll dabei anhand der Kriterien des Umgangs der Parteien mit Programmatik, Organisation und externen Einflussfaktoren in Wahlkämpfen operationalisiert werden. Die Analyse untersucht sowohl das Handeln einzelner Personen wie auch die Rolle der Partei als Gesamtorganisation. Die Arbeit besteht aus zehn Kapiteln und gliedert sich in zwei Blöcke: einen theoretisch konzeptionellen Teil, der die in der Perspektive dieser Arbeit zentralen Grundlagen und Rahmenbedingungen zusammenführt sowie die sich daran anschließende Untersuchung der Konzeption und Implementation von Kommunikationskampagnen im Wahlkampf seit 1990. Das aktuell in die politikwissenschaftliche Diskussion eingebrachte Feld der politischen Strategiefähigkeit (Raschke/Tils 2007) wird in ausführlicher theoretischer Grundlegung bisher zwar mit den Implikationen der Medienkommunikation und damit einhergehend auch den organisatorischen und programmatischen Strukturmerkmalen der Parteien verknüpft, diese erfolgte allerdings oft ohne vertiefte Berücksichtigung des Parteiwandels. Dies soll in diesem Beitrag daher versucht werden. Der Diskursanalyse des Strategiebegriffes in Wahlkampfsituationen folgt die detaillierte Darstellung der drei Operationalisierungsparameter, die in die Festlegung des Parteityps münden. Die Diskussion idealtypischer Wahlkampfmodelle als theoretischer Bezugsrahmen für die Bewertung der Wahlkampagnen ergänzt den theoretisch-konzeptionellen Bezugsrahmen. Die insgesamt in der Literatur in ihren Ausführungen oftmals normativ gestalteten Darstellungen idealtypischer politischer Strategie sollen im letzten Teil der Arbeit auf ihre Umsetzbarkeit im parteipolitischen Alltag überprüft werden und dies nicht nur anhand einzelner, mit einander nicht in Zusammenhang stehender Ereignisse, sondern anhand der sich periodisch unter vergleichbaren Bedingungen wiederholenden Wahlkämpfe. Dafür werden die jeweiligen Ausgangs- und Rahmenbedingungen der einzelnen Wahlkämpfe sowie die zuvor dargelegten Elemente professionalisierter Wahlkampagnen für die Wahlkampagnen von SPD und CDU seit 1990 dargestellt. Aus diesen Gegenüberstellungen soll im Anschluss der längsschnittliche Vergleich der Strategiefähigkeit und Kommunikationskompetenz von SPD und CDU abgeleitet werden
Im März 196 v. Chr. erließ eine in Memphis versammelte Synode von Priestern aus den Tempeln Ägyptens ein Ehrendekret in drei verschiedenen Sprachen für den amtierenden Herrscher Ptolemaios V. Epiphanes: Der klassischen Sprache des pharaonischen Ägypten, geschrieben in altägyptischen Hieroglyphen, dem Demotischen, der damals gesprochenen Sprachstufe des Altägyptischen und dem hellenistischen Griechisch des 2 Jh.. Von dieser Textsorte sind bisher insgesamt nur vier relativ vollständig erhaltene Beispiele auf uns gekommen. Diese folgen sämtlich in ihrem Formular in hohem Maße der im griechischen Bereich ubiquitären Psephismata und setzen alle im jeweiligen Beschlussteil Ehrungen fest, die die Rolle des ptolemäisch-hellenistischen Herrschers im Kontext der altägyptischen Kulte betreffen. Die vorliegende Arbeit will zum einen in ihrem Kommentarteil eine Grundlage für die weitere Beschäftigung mit allen drei Sprachfassungen des Dekrets von Memphis durch die ptolemaistisch-althistorische Forschung leisten. Zum anderen möchte sie auf Grundlage des Textes die Rolle des Herrschers aus Sicht der beschließenden Priesterschaft beleuchten. Es kann gezeigt werden, dass das Dekret - anders als bisher angenommen - nicht zur eigentlichen Thronbesteigung, sondern anlässlich eines späteren Thronjubiläums erlassen wurde und gleichwohl die Fiktion eines innenpolitischen Neuanfangs (vermutlich im Sinne des Hofes) angesichts erster, bescheidener Erfolge gegen innere Aufstände der indigenen Bevölkerung in Unter- und Oberägypten inszeniert. Die kultische Herrscherverehrung hellenischer Provenienz erscheint in diesem Text ggü. den früheren Dekreten von Kanobos und Raphia relativ vollständig in den altägyptischen religiösen Kontext übersetzt, sodass hier durchaus von einem "ägyptischen Herrscherkult" gesprochen werden kann. Dabei wird der sehr junge fünfte Ptolemäerkönig sehr auffällig mit Kindformen des Gottes Horus (Harendotes, Harsiese) gleichgesetzt, was zum einen die legitime Machtübernahme durch den Sohn des verstorbenen Herrschers von einer im ägyptischen Kontext religiös definierten Sieghaftigkeit gegen die "Götterfeinde" abhängig erscheinen lässt, zum anderen den König in den Kontext der spätzeitlichen Verehrung von Kindgottheiten und Götterttriaden setzt. Alles in allem scheint die ägyptische Priesterschaft mittels einer für die eigenen Bedürfnisse flexibel adaptierten ursprünglich griechischen Textform den eigenen Anspruch auf Definition religiös legitimierter Königsmacht erhoben und im Diskurs um Privilegien und Unterstützung im ptolemäischen Ägypten kommuniziert zu haben.
Floods are hydrological extremes that have enormous environmental, social and economic consequences.The objective of this thesis was a contribution to the implementation of a processing chain that integrates remote sensing information into hydraulic models. Specifically, the aim was to improve water elevation and discharge simulations by assimilating microwave remote sensing-derived flood information into hydraulic models. The first component of the proposed processing chain is represented by a fully automated flood mapping algorithm that enables the automated, objective, and reliable flood extent extraction from Synthetic Aperture Radar images, providing accurate results in both rural and urban regions. The method operates with minimum data requirements and is efficient in terms of computational time. The map obtained with the developed algorithm is still subject to uncertainties, both introduced by the flood mapping algorithm and inherent in the image itself. In this work, particular attention was given to image uncertainty deriving from speckle. By bootstrapping the original satellite image pixels, several synthetic images were generated and provided as input to the developed flood mapping algorithm. From the analysis performed on the mapping products, speckle uncertainty can be considered as a negligible component of the total uncertainty. In the final step of the proposed processing chain real event water elevations, obtained from satellite observations, were assimilated in a hydraulic model with an adapted version of the Particle Filter, modified to work with non-Gaussian distribution of observations. To deal with model structure error and possibly biased observations, a global and a local weight variant of the Particle Filter were tested. The variant to be preferred depends on the level of confidence that is attributed to the observations or to the model. This study also highlighted the complementarity of remote sensing derived and in-situ data sets. An accurate binary flood map represents an invaluable product for different end users. However, deriving from this binary map additional hydraulic information, such as water elevations, is a way of enhancing the value of the product itself. The derived data can be assimilated into hydraulic models that will fill the gaps where, for technical reasons, Earth Observation data cannot provide information, also enabling a more accurate and reliable prediction of flooded areas.
Die Dissertation mit dem Thema "Cross-Border-Leasing als Instrument der Kommunalfinanzierung " Eine finanzwirtschaftliche Analyse unter besonderer Berücksichtigung der Risiken - befasst sich am Beispiel des primär steuerinduzierten, grenzüberschreitenden Cross-Border-Leasings (CBL) mit einem innovativen, strukturierten Finanzierungsinstrument, das sich im Spannungsfeld von Rechtsstaatlichkeit und privatwirtschaftlichem Management öffentlicher Akteure befindet. Dazu werden bereits finanzierte und sich im Betrieb befindliche Assets in Variationen von langfristigen Leasingverträge eingebracht. Durch die geschickte Ausnutzung steuerlicher Zurechnungskriterien werden unter Einbindung mehrerer Jurisdiktionen Gewinnverschiebungsmöglichkeiten und Steueroptimierungspotenziale geschaffen, wobei die generierten Zusatzerträge unter den Akteuren aufgeteilt werden. Die Untersuchung orientiert sich an einem umfassenden forschungsleitenden Fragenkatalog, der sehr vielschichtig und zudem interdisziplinär die komplexen Aspekte des CBLs theoretisch sowie praktisch an einem Fallbeispiel untersucht. Zunächst erfolgt die Einbettung des CBLs in den kommunalen Hintergrund. Daran schliesst sich eine Darstellung des Untersuchungsgegenstands im Hinblick auf seine elementare Grundstruktur, Zahlungsströme, Vertragsparteien und deren bilateralen Verpflechtungen an. Daneben erfolgt eine Analyse der öffentlich-rechtlichen Implikationen des CBLs sowie der regulatorischen kommunalaufsichtsrechtlichen Anforderungen. Im zentralen empirischen Teil der Dissertation wird eine idealtypische CBL-Transaktion einer bundesdeutschen Metropole als Fallstudie analysiert: im Rahmen einer erstmaligen wissenschaftlichen Analyse einer Orginaldokumentation werden zunächst die strukturellen Rahmenparameter untersucht, um dann den Finanzierungsvorteil der Transaktion zu ermitteln. Eine Klassifikation erfolgt dabei in diejenigen Risken, die sich unmittelbar im Einflussbereich der Kommune befinden und somit direkt, d.h. durch aktives eigenes Handeln, minimiert oder vermieden werden können und in solche, die aus ihrer Sicht extern sind. Abgerundet wird die Risikoanalyse durch eine Abschätzung der maximalen Risikoposition in Form der Schadensersatzzahlungen, die die Kommune in vertraglich vereinbarten Fällen leisten muss. Dabei ermittelt die Verfasserin den Break-Even der Transaktion und setzt Szenarien sowie mathematische Modelle ein, um die inhärenten Risiken aufgrund ihrer Kostenfolgen sorgfältig gegenüber dem vereinnahmten kurzfristigen Vorteil abzuwägen. Die Untersuchung bedient sich dem anerkannten mathematisch-statistischen Value-at-Risk-Verfahren (VaR), das unter Verwendung von Ansätzen der Wahrscheinlichkeitsverteilung das Marktpreisrisiko zu quantifizieren vermag. Um zu validen Ergebnissen zu gelangen, werden zur Ermittlung des VaRs die beiden bekanntesten (nicht-parametrischen) Tools des VaR-Ansatzes angewendet, um die potenziellen Performanceschwankungen des Depotwertes unter Zugrundelegung bestimmter Wahrscheinlichkeiten abschätzen zu können. Dies ist das Verfahren der Historischen Simulation sowie die als mathematisch sehr anspruchsvoll eingestufte Monte-Carlo-Simulation. Als Weiterentwicklung des VaR-Modells wird zudem der Conditional VaR berechnet, der Aussagen über das Ausmaß der erwarteten Verluste zulässt. Anhand dieser Ergebnisse wird die maximale finanzielle Risikoposition der Kommune, bezogen auf das Kapitaldepot, abgeleitet. Darüber hinaus wird das CBL im Rahmen eines mathematischen Modells insgesamt beurteilt, indem eine Gegenüberstellung von vereinnahmtem Finanzierungsvorteil und den mit Eintrittswahrscheinlichkeiten gewichteten Ausfallrisiken, unter Berücksichtigung des jeweiligen Eintrittszeitpunktes, durchgeführt wird. Diese Vorgehensweise führt zu einer Symbiose aus Finanzierungsvorteil und den Risikomaßzahlen VaR, Expected Shortfall und Expected Loss. Die ermittelten finanzwirtschaftlichen Risikomaßzahlen führen zu überraschenden Ergebnissen, die die propagierte Risikolosigkeit und das vermeintlich attraktive Renditepotenzial derartiger Transaktionen eindeutig verneinen. Aus den gewonnenen Erkenntnissen leitet die Verfasserin praktische Handlungsempfehlungen und Absicherungsmöglichkeiten für kommunale Entscheidungsträger ab. Die sich aufgrund der US-Steuerrechtsänderung vom Februar 2005 ergebenden Auswirkungen auf bestehende Transaktionen wie auch auf Neugeschäfte werden im Ausblick dargelegt.
With the ongoing trend towards deep learning in the remote sensing community, classical pixel based algorithms are often outperformed by convolution based image segmentation algorithms. This performance was mostly validated spatially, by splitting training and validation pixels for a given year. Though generalizing models temporally is potentially more difficult, it has been a recent trend to transfer models from one year to another, and therefore to validate temporally. The study argues that it is always important to check both, in order to generate models that are useful beyond the scope of the training data. It shows that convolutional neural networks have potential to generalize better than pixel based models, since they do not rely on phenological development alone, but can also consider object geometry and texture. The UNET classifier was able to achieve the highest F1 scores, averaging 0.61 in temporal validation samples, and 0.77 in spatial validation samples. The theoretical potential for overfitting geometry and just memorizing the shape of fields that are maize has been shown to be insignificant in practical applications. In conclusion, kernel based convolutions can offer a large contribution in making agricultural classification models more transferable, both to other regions and to other years.
In order to discuss potential sustainability issues of expanding silage maize cultivation in Rhineland-Palatinate, spatially explicit monitoring is necessary. Publicly available statistical records are often not a sufficient basis for extensive research, especially on soil health, where risk factors like erosion and compaction depend on variables that are specific to every site, and hard to generalize for larger administrative aggregates. The focus of this study is to apply established classification algorithms to estimate maize abundance for each independent pixel, while at the same time accounting for their spatial relationship. Therefore, two ways to incorporate spatial autocorrelation of neighboring pixels are combined with three different classification models. The performance of each of these modeling approaches is analyzed and discussed. Finally, one prediction approach is applied to the imagery, and the overall predicted acreage is compared to publicly available data. We were able to show that Support Vector Machine (SVM) classification and Random Forests (RF) were able to distinguish maize pixels reliably, with kappa values well above 0.9 in most cases. The Generalized Linear Model (GLM) performed substantially worse. Furthermore, Regression Kriging (RK) as an approach to integrate spatial autocorrelation into the prediction model is not suitable in use cases with millions of sparsely clustered training pixels. Gaussian Blur is able to improve predictions slightly in these cases, but it is possible that this is only because it smoothes out impurities of the reference data. The overall prediction with RF classification combined with Gaussian Blur performed well, with out of bag error rates of 0.5% in 2009 and 1.3% in 2016. Despite the low error rates, there is a discrepancy between the predicted acreage and the official records, which is 20% in 2009 and 27% in 2016.
Agricultural monitoring is necessary. Since the beginning of the Holocene, human agricultural
practices have been shaping the face of the earth, and today around one third of the ice-free land
mass consists of cropland and pastures. While agriculture is necessary for our survival, the
intensity has caused many negative externalities, such as enormous freshwater consumption, the
loss of forests and biodiversity, greenhouse gas emissions as well as soil erosion and degradation.
Some of these externalities can potentially be ameliorated by careful allocation of crops and
cropping practices, while at the same time the state of these crops has to be monitored in order
to assess food security. Modern day satellite-based earth observation can be an adequate tool to
quantify abundance of crop types, i.e., produce spatially explicit crop type maps. The resources to
do so, in terms of input data, reference data and classification algorithms have been constantly
improving over the past 60 years, and we live now in a time where fully operational satellites
produce freely available imagery with often less than monthly revisit times at high spatial
resolution. At the same time, classification models have been constantly evolving from
distribution based statistical algorithms, over machine learning to the now ubiquitous deep
learning.
In this environment, we used an explorative approach to advance the state of the art of crop
classification. We conducted regional case studies, focused on the study region of the Eifelkreis
Bitburg-Prüm, aiming to develop validated crop classification toolchains. Because of their unique
role in the regional agricultural system and because of their specific phenologic characteristics
we focused solely on maize fields.
In the first case study, we generated reference data for the years 2009 and 2016 in the study
region by drawing polygons based on high resolution aerial imagery, and used these in
conjunction with RapidEye imagery to produce high resolution maize maps with a random forest
classifier and a gaussian blur filter. We were able to highlight the importance of careful residual
analysis, especially in terms of autocorrelation. As an end result, we were able to prove that, in
spite of the severe limitations introduced by the restricted acquisition windows due to cloud
coverage, high quality maps could be produced for two years, and the regional development of
maize cultivation could be quantified.
In the second case study, we used these spatially explicit datasets to link the expansion of biogas
producing units with the extended maize cultivation in the area. In a next step, we overlayed the
maize maps with soil and slope rasters in order to assess spatially explicit risks of soil compaction
and erosion. Thus, we were able to highlight the potential role of remote sensing-based crop type
classification in environmental protection, by producing maps of potential soil hazards, which can
be used by local stakeholders to reallocate certain crop types to locations with less associated
risk.
In our third case study, we used Sentinel-1 data as input imagery, and official statistical records
as maize reference data, and were able to produce consistent modeling input data for four
consecutive years. Using these datasets, we could train and validate different models in spatially
iv
and temporally independent random subsets, with the goal of assessing model transferability. We
were able to show that state-of-the-art deep learning models such as UNET performed
significantly superior to conventional models like random forests, if the model was validated in a
different year or a different regional subset. We highlighted and discussed the implications on
modeling robustness, and the potential usefulness of deep learning models in building fully
operational global crop classification models.
We were able to conclude that the first major barrier for global classification models is the
reference data. Since most research in this area is still conducted with local field surveys, and only
few countries have access to official agricultural records, more global cooperation is necessary to
build harmonized and regionally stratified datasets. The second major barrier is the classification
algorithm. While a lot of progress has been made in this area, the current trend of many appearing
new types of deep learning models shows great promise, but has not yet consolidated. There is
still a lot of research necessary, to determine which models perform the best and most robust,
and are at the same time transparent and usable by non-experts such that they can be applied
and used effortlessly by local and global stakeholders.
One of the current issues in psycholinguistics is how the frequency of syntactic structures influences the mental processing of sentences, especially in the case of ambiguous constructions. The present work attempts to shed light on this issue from the perspective of computational and corpus linguistics. Existing theories of human sentence processing assign different roles to frequency, varying from certain 'principle-based' models that completely ignore it to 'experience-based' models relying on frequency alone. The present work develops a frequency-based parsing component that may be combined with other factors influencing disambiguation. This module, named the Optimized Frequency Constraint (OFC), addresses questions largely left open by existing frequency-based models: How are the frequencies of syntactic structures stored mentally? When does the human sentence processing mechanism access this stored information, and in what sequence? OFC is then applied to a range of syntactic constructions in German (licensing, attachment of phrases and relative clauses, word order, etc.) that have been used in psycholinguistic experiments. The settings of OFC's parameters are determined by analyzing German corpus data. The predictions based on OFC are confirmed by the results reported in the psycholinguistic literature in most cases, indicating that OFC offers psychologically valid predictions of the influence of frequency in human parsing.
Seit den frühen siebziger Jahren ist im anglo-amerikanischen Raum eine große Anzahl an Romanen erschienen, die alle auf einer bzw. zwei eng verwandten schottischen Feenballaden ("Thomas the Rhymer" und "Tam Lin") basieren. Die vorliegende Arbeit untersucht eine Auswahl dieser Romane in vergleichender Perspektive. Der erste Teil beschäftigt sich mit Feenglauben und -literatur im Allgemeinen, während der zweite Teil der Analyse von zehn auf den Balladen basierenden Romanen gewidmet ist. Da im Ausgangsmaterial Elemente keltischen Volksglaubens eine zentrale Rolle spielen, untersucht das erste Kapitel die Grundlagen und möglichen Ursprünge des keltischen Feenglaubens. Um neben einer Einführung in die volkskundlichen Grundlagen auch eine Verankerung der Arbeit in aktuellen literaturwissenschaftlichen Theorien zu gewährleisten, gibt das zweite Kapitel einen Überblick über Theorien der phantastischen Literatur. Vorgestellt werden strukturalistische und funktionale Ansätze, die sich chronologisch von J.R.R. Tolkien (1948) über Tzvetan Todorov (1970) bis hin zu Farah Mendlesohn (2005) bewegen. Um die Bearbeitungen der frühmodernen Balladen literaturgeschichtlich einzuordnen, zeichnet das nächste Kapitel die Geschichte der literarischen Bearbeitungen des Elfenstoffes in der Literatur vom Mittelalter bis ins späte 20. Jahrhundert nach, mit Schwerpunkt auf englischsprachigen Werken. Von im Mittelalter noch stark vom Volksglauben beeinflussten, moralisch ambivalenten Figuren entwickeln sich die Elfen seit dem 16. Jahrhundert zu satirisierten, miniaturisierten und verniedlichten Gestalten; die Fantasyromane des späten 20. Jahrhunderts scheinen jedoch wieder zu stärker bedrohlichen Elfen zurück zu finden. Das nächste Kapitel widmet sich der Darstellung des Ausgangsmaterials, der zwei Balladen, die als Nr. 37 bzw. 39 in der Balladensammlung von Francis James Child zu finden sind. Erläutert werden die Entstehungsgeschichte der traditionellen Ballade (traditional ballad) im Allgemeinen und von Child Nr. 37 und 39 im Besonderen, sowie Varianten, Symbolik und Besonderheiten der zwei Balladen. Die anschließenden Analysekapitel beschäftigen sich jeweils schwerpunktmäßig mit einer Balladenadaption in Romanform: - Dahlov Ipcar: The Queen of Spells (1973) - Elizabeth Marie Pope: The Perilous Gard (1974) - Diana Wynne Jones: Fire and Hemlock (1984) - Ellen Kushner: Thomas the Rhymer (1990) - Pamela Dean: Tam Lin (1991) - Terry Pratchett: Lords and Ladies (1992) und The Wee Free Men (2003) - Patricia McKillip: Winter Rose (1996) Alle Analysekapitel sind ähnlich strukturiert: Nach kurzer Vorstellung des Autors folgt eine Zusammenfassung der Romanhandlung. Da alle Romane mehr oder weniger stark intertextuell sind, werden daraufhin Einflüsse und intertextuelle Anspielungen untersucht. Besonderes Augenmerk liegt dabei auf der Verarbeitung der zwei Child-Balladen. Da nahezu alle untersuchten Romane ähnliche Hauptcharaktere aufweisen (junges Mädchen, junger Mann, Elfenkönigin) untersuchen die Analysekapitel diese Figurenkonstellation sowie die hier verarbeiteten folkloristischen Einflüsse. Trotz der großen zeitlichen und geographischen Bandbreite der Schauplätze sind sich die Romane erstaunlich ähnlich, vor allem in der Darstellung ihrer Hauptfiguren. Die weibliche Heldin ist meist jung, eigenwillig und unterscheidet sich oft durch eine negative Charaktereigenschaft oder Umweltbedingung von ihren Altersgenossinnen. Nahezu alle Romane werden aus der Perspektive der weiblichen Hauptfigur erzählt. Dies führt dazu, dass die männliche Hauptfigur weniger zentral und oft durch eine gewisse Passivität gekennzeichnet ist. Infolgedessen ist die zweite aktive Figur der Konstellation ebenfalls eine Frau " die Elfenkönigin. Auch in ihrer Darstellung lassen sich in allen Romanen große Gemeinsamkeiten finden: Sie ist attraktiv und grausam, kühl und oft überheblich. Insgesamt werden die Elfen in den Romanen deutlich unsympathisch geschildert. Sie sind eine Spezies schöner, (fast) unsterblicher, oft übernatürlich intelligenter und mit magischen Fähigkeiten begabter Wesen, doch sind sie auch kalt, grausam und vollkommen fremdartig und unverständlich für die Menschen. Ein möglicher Grund für die negative Darstellung der Elfen scheint didaktischer Art zu sein, da die Botschaft aller Adaptionen an die Leser lauten könnte: "Akzeptiere deine Unvollkommenheit und lass dich nicht von vermeintlich überlegenen Gegnern einschüchtern " auch sie haben Schwächen". Auch in Richtung Gender-Diskurs scheinen viele der Autoren eine Aussage machen zu wollen. Sie zeichnen ihre Heldinnen als "starke Mädchen", die in einer Umkehrung des "damsel in distress"-Schemas einen Mann aus der Gefangenschaft der Elfen retten. Als feministisch kann man die Adaptionen jedoch nicht bezeichnen, da sie hierzu eher zu konservativ sind, was sich vor allem darin zeigt, dass die einzige Frau im Roman, die wirklich über Macht verfügt " nämlich die Elfenkönigin " am Ende die Verliererin ist.
Zu den klassischen Verteilungen der mathematischen Statistik zählen die zentralen F- und t-Verteilungen. Die vorliegende Arbeit untersucht Verallgemeinerungen dieser Verteilungen, die sogenannten doppelt nichtzentralen F- und t-Verteilungen, welche in der statistischen Testtheorie von Bedeutung sind. Die Tatsache, dass die zugehörigen Wahrscheinlichkeitsdichten nur in Form von Parameterintegral- bzw. Doppelreihendarstellungen gegeben sind, stellt eine große Herausforderung bei der Untersuchung analytischer Eigenschaften dar. Unter Verwendung von Techniken aus der Theorie der vorzeichenregulären Funktionen gelingt es, die bisher vermutete, jedoch lediglich aus Approximationen abgeleitete, strikt unimodale Gestalt der Dichtefunktion für eine große Klasse doppelt nichtzentraler Verteilungen zu zeigen. Dieses Resultat gestattet die Untersuchung des eindeutig bestimmten Modus als Funktion gewisser Nichtzentralitätsparameter. Hier erweist sich die Theorie der vorzeichenregulären Funktionen als wichtiges Hilfsmittel, um monotone Abhängigkeiten nachzuweisen.
Die vorliegende Dissertation präsentiert sich im Rahmen einer Synopse des Buches Laozi bestehend aus der Wang-Bi-Ausgabe, den beiden Mawangdui-Seidentexten sowie den drei Guodian-Bambustexten. Diese verschiedenen Textversionen werden einzeln ins Deutsche übersetzt und kommentiert. Zusätzlich zu meinen eigenen Übersetzungen ins Deutsche werden auch die älteren englischen Übersetzungen D.C. Laus und Wing-Tsit Chans - und zum Teil auch die weiterer bekannter Übersetzer - zur Verfügung gestellt, um weiteres Nachdenken anzuregen über die Bedeutung einzelner Zeichen, ja selbst ganzer Sätze, aber auch über die Interpretation grammatikalischer Strukturen. Die im direkten Anschluß an die chinesischen Textversionen und ihre Übersetzungen zu findende Kommentierung bezieht sich sowohl auf einzelne Zeichen, auf ganze Ausdrücke als auch auf das im Buch Laozi zu findende gesellschaftskritische Gedankengut - denn Hauptaugenmerk dieser Arbeit ist auf der Grundlage philologischer Kleinarbeit speziell die das Buch Laozi charakterisierende gesellschaftskritische Grundhaltung. Die vorliegende Dissertation bemüht sich durch zahlreiche werkimmanente Querverweise, durch die Betonung bestimmter bisher nicht erstellter Querverbindungen innerhalb des Buches Laozi und mit Hilfe von Textbeispielen aus einem weltanschaulich teilweise verwandten Text, dem Buch Zhuangzi (ca. 4./3. Jh.v.Chr.), einen in sich geschlossenen gesell-schaftskritischen Gesamtzusammenhang herauszuarbeiten und diesen zu verdeutlichen. In der abschließenden Auswertung zeigt sie, daß die im Buch Laozi vorgetragenen gesellschaftskritischen Bedenken gegen eine zivilisatorische Entwicklungsrichtung und eine Konzentration auf Wissen auch von einem "modernen" Standpunkt aus nicht automatisch als naiv zu betrachten sind.
Während die Ziele "Sicherheit" und "Europa" der polnischen Außenpolitik nach 1989 mit dem Beitritt zu Europarat, NATO und EU bereits nahezu gelöst sind und die in diesem Zusammenhang auftretenden Probleme in den Rechts- und Sozialwissenschaften in West und Ost schon in breiterem Rahmen diskutiert wurden, steht vor allem die westliche systematische Forschung zur polnischen Ostpolitik nach 1989 noch am Anfang. Dies mag zum Teil an in Westeuropa fehlenden profunden Sprach- und Landeskenntnissen oder vermeintlich fehlender tagespolitischer Aktualität liegen. Jedoch ist offensichtlich, dass das Thema nach dem EU-Beitritt Polens und der damit einhergehenden direkten Nachbarschaft der Union mit Weißrussland und der Ukraine auf der Brüsseler Agenda weit nach vorne gelangen wird. Theoretisch-methodisch stützt sich die Arbeit auf moderat-konstruktivistische Ansätze (PAFE-Ansatz der Universität Trier), verfolgt einen qualitativen Ansatz und stützt sich bewusst auf den wichtigsten außenpolitischen Akteur eines Staates " die Regierung. Im Falle Polens verdienen neben dem Ministerrat vor allem der Präsident und der Senat, die zweite Kammer des polnischen Parlamentes, besondere Aufmerksamkeit. Ferner konzentriert sich die Dissertation auf eine Analyse des (nicht notwendig entgegengesetzt gerichteten) Diskurses und Verhaltens. Die empirischen Ergebnisse der Dissertation sind insbesondere Resultat eines zweijährigen Forschungsaufenthaltes in Warschau mit Studienreisen nach Kaliningrad, Vilnius, Minsk, Grodno, Lemberg und Kiev. Die Dissertation präsentiert ihre Ergebnisse in drei Fallstudien: zur polnischen Minderheit in Litauen, Weißrussland und der Ukraine, zur polnischen Außenwirtschaftsförderung nach Osteuropa und zu den Regelungen und der Bedeutung des Schengener Übereinkommens für die polnische Ostgrenze nach Polens EU-Beitritt. Dabei ergab sich insbesondere ein bis heute offener Diskurs zu Minderheitenfragen sowie im Verhalten eine nur schwache Rolle des Ministerrates, der in dieser Hinsicht eindeutig vom Senat dominiert wird. In Fragen der Außenwirtschaftsförderung ergab sich ein leichtes Übergewicht für die Verfechter der "strategischen Partnerschaften" mit der Ukraine und Litauen und gegen eine Ökonomisierung der bilateralen Beziehungen mit osteuropäischen Staaten um jeden Preis. In der Praxis zerstob indes aufgrund der fortdauernden instabilen Lage in Osteuropa rasch die Hoffnung, dass die GUS-Staaten ein vielversprechender Zukunftsmarkt werden würden. Ferner blieb die Eigenkapitalknappheit polnischer Firmen ein Kernhindernis. Die Studie über das Schengener Übereinkommen ergab, dass sich der Diskurs nur zögerlich öffnete. Im Verhalten erwies sich Warschau dagegen als sehr aktiv und akzeptierte bereits 1993 (mit der Ukraine) bzw. 1997 (mit Litauen) den visumfreien Reiseverkehr mit zwei seiner vier östlichen Nachbarn, lehnte jedoch den von Russland und Weißrussland geforderten visumfreien Reiseverkehr ohne Rücknahmeabkommen ab. Gegenüber der EU konnte Polen für die Zeit nach dem EU-Beitritt zumindest die Einreise für Ukrainer nach Polen mit einem gebührenfreien Visum durchsetzen. Im Unterschied zur Zwischenkriegszeit, als Polen von Ost und West bedroht war, selbst regionale Vormacht werden wollte, keine allseits anerkannten Grenzen hatte und gerne in der Rolle des "Zivilisators" oder "Retters" auftrat, erscheint das heutige Polen aus westlicher Sicht als so "europäisch" wie noch nie zuvor in seiner Geschichte.
In einer Fragebogenstudie (N = 694) wurden vollzeitbeschäftigte Arbeitnehmer online oder klassisch schriftlich befragt, welche Verzichte zugunsten der Schaffung neuer Arbeitsplätze in Deutschland sie aus welchen Motiven leisten würden. Die Arbeit geht in Abgrenzung zu dominierenden Rational-Choice-Modellen von einem Motivpluralismus aus, der das Spannungsfeld zwischen Eigeninteresse und Gemeinwohl fokussiert. Die Befunde zeigen, dass beide Motivgruppen unabhängig voneinander zur Prädiktion der Bereitschaften beitragen. Überdies zeigt sich eine systematische Überschätzung des Eigeninteresses für das Handeln anderer. Bei anderen wahrgenommene Motivationen haben nachweislich Einfluss auf die eigenen Handlungsbereitschaften. Eine spezifische Form der Ausbeutung gemeinsinnigen Handelns ist das Trittbrettfahren als Profitieren vom Engagement und Einsatz anderer, ohne selbst etwas beizutragen. Die Untersuchung zeigt, dass phänotypisch eigennütziges Verhalten wie Trittbrettfahren aus dem Motiv resultieren kann, individuelle Ungerechtigkeit gegenüber anderen zu vermeiden oder unsolidarisches Handeln anderer zu bestrafen.
Der Aufsatz ist eine Gemeinschaftsarbeit zweier renommierter Gelehrten auf dem Gebiet der christlichen Ikonographie (Gerhardt) und der Goethe-Philologie (Reinhardt). Sie spannt einen weiten Bogen: Von einer Notiz des Italienreisenden Goethe, der 1786 im Dom von Verona seinen ersten Tizian betrachtet und – in Verkennung des tatsächlich dargestellten Motivs – sein Gefallen daran notiert, dass "die Himmelfahrende Maria nicht hinaufwärts sondern nach ihren Freunden niederwärts" blickt; über die mittelalterlichen Tradition der (tatsächlich dargestellten) sogenannten Gürtelspende Marias an den Apostel Thomas und Goethes produktives Missverständnis im Sinne der Weltzugewandtheit der Madonna (als Beispiel einer säkularisierten Wendung eines religiösen Bildthemas); bis hin zur Fernwirkung der Veroneser Madonna in der Mater Gloriosa und ihrem Retterblick in der Schluss-Szene des Faust.