Filtern
Erscheinungsjahr
- 2024 (26)
- 2023 (63)
- 2022 (80)
- 2021 (75)
- 2020 (90)
- 2019 (84)
- 2018 (77)
- 2017 (50)
- 2016 (39)
- 2015 (36)
- 2014 (45)
- 2013 (47)
- 2012 (56)
- 2011 (49)
- 2010 (55)
- 2009 (49)
- 2008 (43)
- 2007 (61)
- 2006 (45)
- 2005 (52)
- 2004 (64)
- 2003 (54)
- 2002 (45)
- 2001 (30)
- 2000 (28)
- 1999 (11)
- 1998 (6)
- 1997 (4)
- 1996 (6)
- 1995 (8)
- 1994 (3)
- 1993 (2)
- 1992 (3)
- 1991 (1)
- 1990 (2)
- 1989 (2)
- 1988 (2)
- 1987 (2)
- 1986 (3)
- 1985 (1)
- 1984 (4)
- 1983 (2)
- 1980 (3)
- 1979 (1)
- 1978 (1)
- 1976 (1)
- 1973 (1)
- 1972 (3)
- 1970 (4)
- 1969 (1)
- (31)
Dokumenttyp
- Dissertation (832)
- Wissenschaftlicher Artikel (219)
- Buch (Monographie) (113)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (108)
- Arbeitspapier (62)
- Ausgabe (Heft) zu einer Zeitschrift (24)
- Teil eines Buches (Kapitel) (22)
- Konferenzveröffentlichung (17)
- Sonstiges (16)
- Rezension (10)
Sprache
- Deutsch (842)
- Englisch (518)
- Französisch (75)
- Mehrsprachig (15)
- Russisch (1)
Schlagworte
- Deutschland (84)
- Luxemburg (52)
- Stress (40)
- Schule (37)
- Schüler (33)
- Politischer Unterricht (29)
- Modellierung (28)
- Fernerkundung (25)
- Geschichte (24)
- Demokratie (23)
Institut
- Raum- und Umweltwissenschaften (213)
- Psychologie (212)
- Politikwissenschaft (132)
- Universitätsbibliothek (83)
- Rechtswissenschaft (77)
- Wirtschaftswissenschaften (66)
- Mathematik (65)
- Fachbereich 4 (57)
- Medienwissenschaft (57)
- Fachbereich 6 (50)
Auf der Grundlage von bodenphysikalischen Standortdaten wurden mit dem physikalisch basierten Modell CATFLOW Bodenwassergehalte und Abflussprozesse von verschiedenen Standorten im Mesozoikum der Trierer Bucht auf der Plotskale simuliert. Die Standorte unterscheiden sich durch das Ausgangssubstrat der Bodenbildung (lehmig-tonig, schluffig-sandig) und die Landnutzung (Acker, Grünland, Wald). Für die Modellvalidierung standen wöchentliche Bodenwassergehaltsmessungen, monatliche Sickerwassersummen aus Lysimetermessungen und Oberflächen- und Zwischenabflusskurven von Beregnungsversuchen zur Verfügung. Ziel der Arbeit ist es zu untersuchen, inwieweit Retentionseigenschaften, Abflussprozesse und Abflussmengen aus Standortdaten ohne eine weitere Kalibrierung des Modells abgeleitet werden können. Besonderer Wert wird dabei auf die Parametrisierung des Bodens gelegt. Das Modell simuliert den Wassertransport in der Bodenmatrix über die zweidimensionale Richardsgleichung und den schnellen Wassertransport in Makroporen über ein einfaches Bulk-Modell. Daneben werden Oberflächenrauhigkeit, Durchwurzelungstiefe und Vegetationsbedeckung im Jahresgang berücksichtigt. Um den Einfluss von unterschiedlichen Parametrisierungen des Bodens aufzuzeigen, werden verschiedene Parametrisierungsvarianten untersucht. Die van Genuchten/Mualem-Parameter, welche die Retentions- und Leitfähigkeitseigenschaften der einzelnen Bodenhorizonte beschreiben, wurden zum einen über die Bodenart und Trockenrohdichte bestimmt und zum anderen über die Anpassung von Retentionskurven an im Labor bestimmte Punkte der Wasserspannungskurve ermittelt. Die Ergebnisse der Simulationen für die Standorte mit Bodenfeuchtemessung zeigen, dass mit dem Modell der Jahresgang der Bodenfeuchte prinzipiell nachvollzogen werden kann. Jedoch führt keine der drei Parametrisierungsvarianten zu einer eindeutigen Überlegenheit bei der Simulationsgüte. Um neben den üblichen Gütemaßen ein weiteres Kriterium für den Erfolg oder Misserfolg einer Standortsimulation zu gewinnen, wurden die Simulationsergebnisse mit den Messwerten der anderen Standorte verglichen. An vier von zehn Standorten führt der Vergleich der Messwerte mit den Simulationen von anderen Standorten zu einer deutlich besseren Übereinstimmung als die Simulation für diesen Standort. Die Ergebnisse der Simulationen der Lysimeterstandorte zeigen, dass mit dem Makroporenansatz ein schneller Wasserfluss im Sommer nicht simuliert werden kann, da das "Anspringen" der Makroporen im Modellkonzept an den Bodenwassergehalt geknüpft ist. Auch hier wurden die Simulationsergebnisse mit den Messwerten der anderen Standorte verglichen. Für fünf von acht Standorten konnte mit den simulierten Sickerwassermengen von anderen Standorten eine bessere Übereinstimmung erzielt werden. Die Simulation der Sickerwassermenge aus Lysimetern scheint daher auf Grundlage der vorliegenden Datenbasis den jeweiligen Standort nicht in seiner Einzigartigkeit charakterisieren zu können. Die mit den Beregnungsversuchen bestimmten Abflussprozesse konnten für die Mehrheit der 18 Standorte mit dem Modell abgebildet werden. Der Oberflächenabfluss konnte für Standorte, die nicht zur Verschlämmung neigen, unter Berücksichtigung von Infiltrationsdaten sehr gut nachgezeichnet werden. Zwischenabfluss wird zwar simuliert, bleibt aber auf der Plotskale in Dynamik und Abflussmenge hinter dem Realsystem zurück. Mit der Untersuchung konnte gezeigt werden, dass sich sowohl die zeitliche Entwicklung des Bodenwassergehaltes, als auch die gemessenen Abflussprozesse allein über die Standortdaten, ohne eine weitere Kalibrierung des Modells, abbilden lassen. Die Trennschärfe der Modellierung ist bei Standorten mit relativ ähnlicher bodenphysikalischer Ausstattung begrenzt. Andererseits müssen aber auch Messungenauigkeiten, besonders bei der thermogravimetrischen Bestimmung des Bodenwassergehaltes, berücksichtigt werden. Eine standortbezogene Aussage über Retentions- und Abflussverhalten ist über eine Simulation möglich, jedoch bleibt die quantitative Aussagekraft begrenzt.
Diese Arbeit stellt eine Methodik zur Analyse kundenbezogener Arbeitsanforderungen personenbezogener Dienstleistungen am Beispiel der Verkäufertätigkeit im Einzelhandel vor. Eine Besonderheit der Arbeit ist die Einbeziehung des Kunden als Arbeitsanalytiker. Sie umfasst drei aufeinander aufbauende Studien. In der ersten Studie wurden mit Hilfe von Critical-Incident-Technique-Interviews mit Vorgesetzten (N = 35) und Verkäufern (N = 39) von drei Einzelhandelsvertriebsformen (Warenhaus, SB-Warenhaus, Supermarkt) sowie Kunden (N = 29) erfolgsrelevanten Verhaltensweisen von Verkäufern im Kontakt mit Kunden ermittelt. Darauf aufbauend wurde KAVEK V_VG/VK/K - ein Instrument zur Analyse kundenbezogener Arbeitsanforderungen und -aufgaben von Verkäufern im Einzelhandel " konzipiert und im Rahmen der zweiten Studie in den Stichproben der Vorgesetzten (N = 52), der Verkäufer (N = 157) und der Kunden (N= 511) der genannten Einzelhandelsvertriebsformen erprobt und validiert. Schließlich untersucht die dritte Studie Antezedenten kundenbezogener Arbeitsanforderungen sowie deren Effekte auf die arbeitsbezogenen Einstellungen und Befinden von Verkäufern (N = 155). Die Diskussion der Implikationen der Ergebnisse für die Forschung und Praxis schließt die Arbeit ab.
International private equity development is highly volatile with increasing global diversification. This thesis examines the transaction patterns of cross-border private equity investment with a particular focus on the affinity of country pairs. Analysis is based on a comprehensive dataset of 99 countries over 25 years. A three-dimensional gravity model analysis covering source and host country over time exposes the effects of the country determinants: economic mass, economic distance, banking system, corporate endowment, as well as legal, political, and institutional system on the transactions. A new method is developed to examine countries in their dual roles as investor and target. This approach verifies their global importance as source and host, and also makes possible an analysis of overall private equity investment. For private equity-specific multi-investor deals, a scheme is designed to measure cross-border activity with more precision by participation, proportional deal participation, and deal flow. The analysis identifies intense level of affinity between country pairs and reveals that no single country is ideal for private equity activity. Instead, the findings show that the specific push and pull factors within each country constellation define the optimal country as trading partner. The results verify a correlation between cross-border deals and economic masses and reduced economic distance of countries. Geographic distance and cultural similarities, such as language and legal system, intensify the likelihood of initiating transactions. International trade-oriented countries with a high level of development lower the entrance barriers and increase the chances of deal success. A well-funded financial system for the investor and an efficient and competitive banking system of target countries enhance the probability of investment between countries. Also relevant for the likelihood of starting cross-border deals are low corporate tax burdens and advanced scientific competitiveness, and a well-developed stock market in the investor country. Fundamental to frequency and likelihood of success are well-established, high standards of a country- social, political, and legal systems with widespread confidence in the rules of society. In particular, the reliability of contract enforcement, with proven quality of regulations that promote private sector development, proves to be crucial for deal success.
In this study, candidate loci for periodic catatonia (SCZD10, OMIM #605419) on chromosome 15q15 and 22q13.33 have been fine mapped and investigated. Previously, several studies found evidences for a major susceptibility locus on chromosome 15q15 and a further potential locus on 22q13.33 pointing to genetic heterogeneity. Fine mapping was done in our multiplex families through linkage and mutational analysis using genomic markers selected from public databases. Positional candidate genes like SPRED1 and BRD1, and ultra-conserved elements were investigated by direct sequencing in these families. The results narrow down the susceptibility locus on chromosome 15q14-15q15.1 to a region between markers D15S1042 and D15S968, as well as exclusion of SPRED1 and ultra-conserved elements as susceptibility candidates. Fine mapping for two chromosome 23q13.33-linked families showed that the recombination events would place the disease-causing gene to a telomeric ~577 Kb interval and SNP rs138880 investigation revealed an A-allele in the affected person, therefore excludes BRD1 as well as confirmed MLC1 to be the candidate gene for periodic catatonia.
In Beloved, Jazz and Paradise, Toni Morrison negotiates ways of individual and collective identity formation through figurations of space and trauma. In geographical spaces that are public and private, open and closed, inclusive and exclusive, space of the past and spaces of the present, Morrison writes discursive spaces in which to create individual and communal African American history and identity, based on the traumatic hi-stories at the core of the Black American experience: the Middle Passage, slavery, Jim Crow and the Civil Rights Movement, just to name a few. In the three novels, Toni Morrison subscribes to a postmodern notion of space and place, presenting it as relative to the individual- frame of mind. Places are used as metonymies for the protagonists" traumatized minds and their different ways of dealing with trauma. Trauma that is not worked through and transcended is presented by Morrison as impacting the protagonists- ability to fashion a home out of a vast and often hostile space. The physical and mental space of Morrison- protagonists is occupied by historical traumata that disables the protagonists to find a place in the present without revisiting the places of their troubled past. While this burdens their lives, it also opens up a historical and metahistorical discourse that allows the revision of mainstream historiography to include minority histories of oppression and trauma. Morrison reconfigures the American historical landscape by emphasizing the subjectivity of any history and offering alternatives to historical grand narratives through her historiographic metafiction. All three novels explore the possibility of reconciliation between past trauma and present life. Doing so requires Morrison to send her protagonists on strenuous journeys through time and space in order to visit the past trauma that keeps them from making a home in the here and now. The protagonists venture back to the primal scenes that bear major significance for their lives but have been suppressed for being too painful to remember. Their pain thus awakens anew, but out of it grow the possibility of a life in the present and the hope for a future. The pasts Morrison thus digs up serve as anchors to situate the African American place in the American historical landscape. Those primal places have a geographical as well as a historical and psychological quality, as places in Morrison- novels are often used as metonymies for the protagonists" traumatized minds, containing the memory of the traumatic past. By spatializing time, Morrison makes history accessible to a communal working through, thus countering the modernist impulse to treat memory as a private faculty embedded in the individual- psyche. This makes it difficult, for African Americans with individual recollections of slavery and racist oppression for example, to use traumatic memory as the basis for a common sense of identity. Morrison uses spatialized time as a forum to discover this basis, to allow for the establishment of a common historical bond. At the same time, she warns against instrumentalizing a common history to exclude those who do not share it. Any history, for Morrison, should be open and flexible enough to accommodate different perspectives. Essentially, Morrison suggests that western historiography is a discursive construct. By allowing, in all three novels, a polyphonic weaving of different equal histories to destablize a single, authoritative, hegemonic historiography, Morrison gives African Americans the power to construct her own past, her own present, and thereby claim back her identity. Moreover, Morrison destabilizes the duality of private space and public space that has long served to distinguish subjective individual memory from objective communal history and thus to legitimize certain accounts of history at the expense of others. The gendered as well as the racial other, by virtue of being excluded from the public sphere, have been excluded from their own historicization. By opening up the private sphere of personal trauma and loss, Morrison spatializes personal memory in a way that it forms a parallel public sphere in which African Americans may negotiate their historicity, move out of the timelessness of the private into the historicized public. By opening up the traditionally private sphere of the home to the public and turning it into a deeply political place, Morrison redefines home in a way that it does not necessarily conform to the classic view of a closed-off shelter but rather a transient place with flexible boundaries that allows for the formation of liberated individual and communal identities out of (hi)stories of pain and trauma.
Zehn Jahre nach dem Beginn des Eurosystems haben die beteiligten Euro-Zentralbank den Umfang ihrer Gold- und Devisenreserven in der Summe nahezu beibehalten. Hingegen wurde vor der Euro-Einführung erwartet, dass die Europäische Währungsunion einen substanziellen Abbau des Reservevolumens begünstigt. Vor diesem Hintergrund hat die Arbeit das Ziel,die Haltung von Währungsreserven im Eurosystem zu analysieren, deren Höhe, Struktur und Management zu prüfen und strategische Optionen für eine Optimierung aufzuzeigen. Im Ergebnis lässt sich ein signifikanter Abbau von Währungsreserven sowie eine Neuausrichtung im Management der Reservebestände hinsichtlich deren Struktur und Verwaltung begründen. Exemplarisch für das Notenbanksystem der Eurozone werden hierzu die Reservepolitiken der Europäischen Zentralbank und der Deutschen Bundesbank als Fallstudien ausführlich untersucht und Vorschläge für eine Optimierung dieser volkswirtschaftlichen Vermögensbestände aufgezeigt.
Zurzeit werden gesundheitliche Auswirkungen von Mobilfunkstrahlung auf den Menschen kontroversiell diskutiert. Die vorliegende Arbeit untersuchte mögliche Auswirkungen auf Befindlichkeit und psychische Variablen in zwei Studien. Es zeigte sich ein Trend bei einer Variable, es gab jedoch keine signifikanten Effekte. Bei den nicht-experimentellen Befunden wiesen Anrainer von Mobilfunksendeanlagen (self-rater) höhere psychische Belastung auf.
One mechanism underlying the acquisition of interpersonal attitudes is the formation of an association between a valenced unconditioned stimulus (US) and an affectively neutral conditioned stimulus (CS). However, a stimulus (e.g., a person) is not always and necessarily perceived to be unambiguously positive or negative. An individual can be negative regarding abstract (trait) information but at the same time display a positive (concrete) behavior. The present research deals with the question of whether the valence of abstract or concrete information about a US is encoded and subsequently transferred to an associated CS. The central assumptions are that the valence of the concrete information is more important for the evaluation of the US, whereas the abstract information is more important for the evaluation of the CS. The rationale behind these assumptions is that the US is a psychologically proximal stimulus because it elicits a more direct affective reaction. The CS, however, is psychologically more distal because it is merely associated with the US and is therefore only experienced indirectly. It is postulated that the associative relation between US and CS constitutes a dimension of psychological distance. In four studies, the valence of abstract and concrete information about a number of USs was manipulated. Within an evaluative learning paradigm, these stimuli were associated with affectively neutral CSs. As predicted, ambivalent USs were evaluated according to the valence of the concrete information. The evaluation of CSs, however, was influenced more strongly by the valence of the abstract information. Moreover, in a subsequent lexical decision task, participants were faster to categorize abstract (vs. concrete) stimuli when the stimuli were preceded by a CS prime as compared to a US prime. The results provide first evidence that perceived psychological distance influences the evaluations of US and CS in an associative evaluative learning paradigm.
Ziel der vorliegenden Forschungsarbeit war es, den Einfluss des dispositionellen Bedürfnisses nach kognitiver Geschlossenheit (NCC) auf Entscheidungen unter Unsicherheit zu untersuchen. Es wurde vorhergesagt, dass NCC Entscheidungsphänomene moderiert, die sich durch unterschiedliche Ausmaße an Unsicherheit kennzeichnen. Um diese Annahme zu testen, wurden im Rahmen dreier Studien klassische Entscheidungsprobleme vorgegeben, die eine Wahl zwischen Entscheidungsalternativen mit unterschiedlichen Ausmaßen an Unsicherheit, aber gleichem Erwartungswert erforderten. Studien 1 bis 3 untersuchten den Einfluss des NCC auf den fundamentalen Ambiguitätsaversionseffekt im Ellsberg-Paradigma (Ellsberg, 1961). Hierzu wurde eine Adaption des klassischen Zwei-Farben-Urnenproblems vorgegeben, in dem eine Wahl zwischen einer Urne mit bekanntem Risiko und einer ambiguen Urne getroffen werden musste. Hypothesenkonform erwies sich NCC als signifikanter Prädiktor der Urnenwahl. Einzelanalysen zeigten, dass der Ambiguitätsaversionseffekt, der als Präferenz der bekannten (versus der ambiguen) Urne definiert ist, nur in der Gruppe mit hohem NCC auftrat. In der Gruppe mit niedrigem NCC zeigte sich keine systematische Präferenz. Dieser Effekt konnte in allen drei Studien nachgewiesen werden und erwies sich somit als besonders robust und reliabel. Zudem wurde in der dritten Studie der Einfluss des NCC auf Risikoframingeffekte im Asian-Disease-Paradigma untersucht. Hierbei mussten sich die Teilnehmer und Teilnehmerinnen zwischen einer sicheren und einer riskanten Option entscheiden, die in zwei kontextuellen Bedingungen dargeboten wurden: einem Gewinnframe und einem Verlustframe. Die Ergebnisse dieser Studie zeigten, dass sich Individuen mit einem hohen und einem niedrigen NCC in ihren Präferenzen in Abhängigkeit vom jeweiligen Problemframe unterschieden. In der Gruppe mit einem hohen NCC zeigte sich unter Gewinnframing eine starke Präferenz der sicheren Alternative (Risikovermeidung), wohingegen unter Verlustframing keine Option bevorzugt wurde. Individuen mit einem niedrigen NCC wiesen hingegen unter Gewinnframing keine systematische Präferenz auf, wohingegen sie unter Verlustframing stark die riskante Option bevorzugten. Zudem zeigte eine Betrachtung des Verhaltens über die untersuchten Entscheidungsprobleme hinweg, dass Individuen mit einer starken Ausprägung auf dieser Variablen dazu neigten, sich über die untersuchten Entscheidungssituationen hinweg konsistent zu verhalten. Insgesamt unterstützen die Ergebnisse die Annahme, dass NCC eine Persönlichkeitsvariable darstellt, die Entscheidungsverhalten unter Unsicherheit bedeutsam beeinflusst. Implikationen und Konsequenzen dieser Ergebnisse werden diskutiert.
The reduction of information contained in model time series through the use of aggregating statistical performance measures is very high compared to the amount of information that one would like to draw from it for model identification and calibration purposes. It is readily known that this loss imposes important limitations on model identification and -diagnostics and thus constitutes an element of the overall model uncertainty as essentially different model realizations with almost identical performance measures (e.g. r-² or RMSE) can be generated. In three consecutive studies the present work proposes an alternative approach towards hydrological model evaluation based on the application of Self-Organizing Maps (SOM; Kohonen, 2001). The Self-Organizing Map is a type of artificial neural network and unsupervised learning algorithm that is used for clustering, visualization and abstraction of multidimensional data. It maps vectorial input data items with similar patterns onto contiguous locations of a discrete low-dimensional grid of neurons. The iterative training of the SOM causes the neurons to form a discrete, data-compressed representation of the high-dimensional input data. Using appropriate visualization techniques, information on distributions, patterns and relationships in complex data sets can be extracted. Irrespective of their potential, SOM applications have earned very little attention in hydrological modelling compared to other artificial neural network techniques. Therefore, the aim of the present work is to demonstrate that the application of Self-Organizing Maps has very high potential to address fundamental issues of model evaluation: It is shown that the clustering and classification of model time series by means of SOM can provide useful insights into model behaviour. In combination with the diagnostic properties of Signature Indices (Gupta et al., 2008; Yilmaz et al., 2008) SOM provides a novel tool for interpreting the model parameters in the hydrological context and identifying parameter sets that simultaneously meet multiple objectives, even if the corresponding model realizations belong to different models. Moreover, the presented studies and reviews also encourage further studies on the application of SOM in hydrological modelling.
Das Ziel dieser Forschungsarbeit liegt in der Entwicklung einer innovativen Klassifikationsstrategie zur satellitengestützten Forstinventur in einem europäischen Mittelgebirgsraum. Über die Ableitung von thematischen Karten der flächenscharfen Verbreitung von fünf Baumartengruppen (Eiche, Buche, Fichte, Douglasie und Kiefer) sowie drei Entwicklungsphasen (Qualifizierung, Dimensionierung und Reife) werden wichtige für eine nachhaltige Bewirtschaftung von Wäldern erforderliche Grundlagendaten bereitgestellt. rnDie nachhaltige Bewirtschaftung der Vielfachfunktionen von Wäldern (Nutz-, Schutz- und Erholungsfunktionen) sowie der steigende Informationsbedarf in Folge nationaler und internationaler Monitoring- und Berichtspflichten (u.a. Montréal Prozess und Kyoto Protokoll) erfordern aktuelle und flächendeckende Informationen über den Zustand der Wälder. In diesem Kontext können fernerkundliche Daten und Methoden zur Unterstützung konventioneller terrestrischer Verfahren zum Einsatz kommen.rnDas Untersuchungsgebiet dieser Studie umfasst den südlichen und östlichen Teil der rheinland-pfälzischen Eifel mit einer Fläche von mehr als 5200 km-², davon rund 2080 km-² bewaldet. Die naturräumliche Heterogenität, die wuchsklimatischen Unterschiede, die Variabilität von Relief und Topographie, die große Zahl vorkommender Baumarten sowie die kulturhistorische Waldentwicklung in der Eifel stellen eine besondere Herausforderung für satellitengestützte Inventurmethoden dar.rnDurch die bevorzugte Verwendung von Referenzdaten aus der unmittelbaren räumlichen Umgebung eines zu klassifizierenden Bereichs wird bei der Parametrisierung des Klassifikationsansatzes die jeweilige naturräumliche und wuchsklimatische Charakteristik berücksichtigt. Der Vergleich dieses räumlich adaptiven Klassifikationsansatzes mit einer konventionellen Maximum-Likelihood Klassifikation zeigt, dass eine Verbesserung der Klassifikationsgenauigkeit um 12 Prozentpunkte erreicht werden konnte. Die Adaptierung der Klassifikationsstrategie an die naturräumlichen und wuchsklimatischen Bedingungen sowie die Anpassung an bestehende Erhebungsmethoden und Datenorganisation bilden die Grundlage für eine erfolgreiche Anwendung des Verfahrens in einem heterogenen Mittelgebirgsraum. Die hohe erreichte Gesamtgenauigkeit des Klassifikationsergebnisses von rund 74% (über 87% für die fünf Hauptbaumarten) erlaubt die Einbindung der Methode in operationelle Erhebungsverfahren zur Unterstützung der terrestrischen Forstinventur.
Quantitative Untersuchungen im Französischen: Häufigkeitsverteilungen und funktionale Zusammenhänge
(2009)
Die Quantitative Linguistik ist eine relativ junge Disziplin, deren Hauptziel es ist, Gesetzmäßigkeiten zu erforschen, denen sprachliche Phänomene folgen, und gesetzmäßige Zusammenhänge zwischen sprachlichen Variablen zu erklären. Es hat sich inzwischen in einer ganzen Reihe von Untersuchungen immer wieder gezeigt, dass solche Gesetzmäßigkeiten aufgedeckt und erklärt werden können. Die vorliegende Untersuchung stellt einen Beitrag zu dieser Thematik dar. Sie dient der Überprüfung bestimmter lexikalischer und syntaktischer Hypothesen an französischem Sprachmaterial unter der Anwendung quantitativer Methoden. Diese Hypothesen betreffen zweidimensionale Zusammenhänge zwischen den operational definierten quantitativen Eigenschaften der Länge, Frequenz und Polylexie von sprachlichen Einheiten und die Häufigkeitsverteilungen der Einheiten hinsichtlich dieser Eigenschaften. Jede Untersuchungshypothese wird mathematisch modelliert, wobei eine direkte Anwendung der Statistik betrieben wird. D.h.: Bereits existierende theoretische Modelle, die als wahres Bild der zu überprüfenden Hypothesen angesehen werden, werden verwendet. Die Güte der Anpassung des jeweiligen Modells an die empirischen Daten wird aus den Differenzen zwischen den empirischen und den entsprechenden theoretischen Werten abgeschätzt. Bei der empirischen Überprüfung der Hypothesen werden zwei Testverfahren eingesetzt: die Berechnung des Determinationskoeffizienten für die Zusammenhänge zwischen zwei quantitativen Größen und der Chiquadrat-Test für die Verteilungshypothesen. Die durchgeführten Tests bestätigen im Großen und Ganzen die Verträglichkeit der Daten mit den aufgestellten Hypothesen.
Welche Ziele verfolgen Forscher/innen in interdisziplinären Kooperationen mit welchen Handlungen und unter welchen Bedingungen? Ausgehend von dieser Frage ergänzt diese Arbeit die Wissenschaftsforschung zur Interdisziplinarität und die psychologische Forschung zur handlungsleitenden Wissensbasis langfristiger Vorhaben. Mentale Modell von Handlungsstrategien werden aufbauend auf kognitiven und handlungstheoretischen Ansätzen als kognitiv-motivationale Aggregate von Ziel-, Handlungs- und Bedingungswissen konzipiert. Derartige Handlungsstrategien können als Wissensrepräsentationen zur Planung, Regulation und Bewertung des Handelns genutzt werden. Zur theoriegeleiteten Erhebung von Handlungsstrategien wird die Struktur-Lege-Technik Action Strategy Mapping (ASM) neu entwickelt und empirisch validiert. Die ASM-Technik erweist sich als sehr praktikabel, gut erlernbar sowie qualitativ reliable und valide zur Repräsentation handlungsleitenden Wissens im Rahmen eines teilstrukturierten Interviews. Die Analysen der in drei Sonderforschungsbereichen bei 57 Wissenschaftler/innen erhobenen Handlungsstrategien interdisziplinärer Forschungskooperation belegen empirisch sehr heterogene aufgabenbezogene, koorientierte und persönliche Ziele. Der kommunikative Austausch bestätigt sich als zentrale und besonders häufige Handlung interdisziplinärer Kooperation. Die Interdependenz der Handlungsstrategien hängt zudem mit der Projektinterdependenz der Forscher/innen zusammen. Ein Vergleich der Handlungsstrategien von Forscher/innen mit hoher, mittlerer und niedriger Projektinterdependenz zeigt mehrere Zusammenhänge: Bei mittlerer Interdependenz korrelieren inhaltliche und strukturelle Merkmale der Handlungsstrategien positiv mit dem selbst berichteten Erfolg. Bei hoher und niedriger Projektinterpendenz zeigen sich aber negative Zusammenhänge mit dem Erfolg. Die Ergebnisse werden diskutiert im Hinblick auf den Einsatz der ASM-Technik als Diagnose- und Reflexionsmethode sowie inhaltlich auf ihre Bedeutung für das Management interdisziplinärer Forschungskooperation in Sonderforschungsbereichen, insbesondere einer zweckmäßigen Kommunikation und Interdependenz der Wissenschaftler/innen.
Ziel der durchgeführten Arbeit war mittels einer geophysikalischen Untersuchungsmethode die Wasserverteilung in Deponien nach einer Infiltration zu beobachten. Für den Nachweis der Wasserverteilung unterhalb von Infiltrationsstellen wurde die geoelektrische Impedanztomografie eingesetzt. Um das Messverfahren auf seine Eignung zur Detektierung der Infiltrationsauswirkungen in der Deponie zu überprüfen, wurde ein mehrjähriges Untersuchungsprogramm durchgeführt. Dabei hat sich herausgestellt, dass Deponiesickerwasser eine Verringerung des spezifischen Widerstandes im Untersuchungsgebiet verursacht und dieser Tatbestand vom Messsystem gut detektiert wird. Durch das Aufreihen der Ergebnisse als Tomogrammsequenzen wurden die Infiltrationsauswirkungen unterhalb der Infiltrationsstelle visualisiert. Anhand der entstandenen Tomogrammsequenzen und aufgestellten Modellbetrachtungen werden die Einschränkungen und Rahmenbedingungen des eigens dafür entwickelten Darstellungs- und Auswertungsalgorithmus der Arbeit erörtert.
This thesis presents a study of tsunami deposits created by the 2004 Indian Ocean tsunami at the Thai Andaman coast. The outcomes of a study are the characteristics of tsunami deposit for paleo-tsunami database, the identification of major sediment layers in tsunami deposit and the reconstructing tsunami run-ups from the characteristics of tsunami deposit for a coastal development program. The investigations of tsunami deposit are made almost 3 years after the event. Field investigations characterize the tsunami deposit as a distinct sediment layer variable in thickness of gray sand deposited with an erosional basis on a pre-existing soil. The best location for the observation of recent tsunami deposit is the area located about 50-200 m inland from the coastline. In most cases, the deposit layer is normally graded. In some cases, the deposit contains rip-up clasts of muddy soils and/or organic matters. The tsunami deposits are compared with three deposits from coastal sub-environments. The mean grain-size and standard deviation of deposits show that the shoreface deposits are fine to very fine sand, poorly to moderately well sorted; the swash zone deposits are coarse to fine sand, poorly to well sorted; the berm/dune deposits are medium to fine sand, poorly to well sorted; and the tsunami deposits are coarse to very fine sand, poorly to moderately well sorted. The plots of deposit mean grain-size versus sorting indicate that the tsunami deposits are composed of shoreface deposits, swash zone deposits and berm/dune deposits as well. The vertical variation of the texture of tsunami deposit shows that the mean grain-size fines upward and fining landward. The analysis and interpretation of the run-up numbers from the characteristics of tsunami deposits get three run-ups for the 2004 Indian Ocean tsunami at the Thai Andaman coast. It corresponds to field observations from the eye-witness reports and local people- affirmations. The total deposition is a major transportation pattern of onshore tsunami sediments. The sediments must fine in the direction of transport. In general, the major origins of the sediment are the swash zone and berm/dune zone where coarse to medium sand is a significant material, the minor origin of tsunami sediment is a shoreface where a significant material is fine to very fine sand. Only at an area with flat slope shorface, the major origin of tsunami sediment is the shoreface. The thicknesses, the mean grain-sizes, and the standard deviations of tsunami deposits are used to evaluate the influences of coastal morphology on the sediment characteristics. The evaluations show that the tsunami affected areas were attacked by the variable energy waves. Wave energies at the direct tsunami wave affected areas are higher than at the indirect tsunami wave affected areas. Tsunami wave energy is highly dissipated at an area with steep slope shoreface. In the same way, tsunami run-up energy is highly dissipated at an area with steep slope onshore. A channel paralleled to the coastline decreases the run-up velocity, slightly dissipates run-up energy. The road and pond highly influence the characteristics of tsunami deposit and tsunami run-up. A road obstructs the run-up velocity, dissipates run-up energy. A pond decreases run-up velocity, dissipates run-up energy. The characteristics of tsunami deposit can be interpreted for reconstructing the characteristics of tsunami run-up such as a run-up height and a flow velocity. Soulsby et al.(2007)- model is applied for reconstructing tsunami run-up at the study areas. The input parameters are sediment grain-size and sediment inundation distance. Ao Kheuy beach and Khuk Khak beach, Phang Nga province, Thailand are the areas listed for reconstructing tsunami run-up. The evaluated run-up heights are 4.2-4.9 m at Ao Kheuy beach, and 5.4-9.4 m at Khuk Khak beach. The evaluated run-up velocities are 12.8-19.2 m/s (maximum) and 0.2-1.9 m/s (mean) at the coastline and onshore, respectively. Hence, a reasonably good agreement between the evaluated and observed run-up is found. Tsunami run-up height and velocity can be used for coastal development and risk management in the tsunami affected areas. The case studies from the Thai Andaman coast suggest that in the area from coastline to about 70-140 m inland was flooded by the high velocity (high energy) run-ups, and those run-up energies were dissipated there. That area ought to be a non-residential area or a physical protection construction area (flood barrier, forest planting, etc.).
Auf der Grundlage der Beobachtung, dass Städte und Regionen in Deutschland signifikant unterschiedliche durchschnittliche Lohnniveaus aufweisen, macht es sich die Dissertation zur Aufgabe, die Gründe für die Divergenz regionaler Lohnniveaus in Westdeutschland zu erforschen. Theoretischer Ausgangpunkt der Analyse ist das Konzept der lokalen Humankapitalexternalitäten. Dieses besagt, dass der individuelle Bildungsstand eines Arbeitnehmers nicht nur für diesen selbst produktivitätsbestimmend ist, sondern darüber hinaus auch einen Einfluss auf die Produktivität anderer Arbeitnehmer in räumlicher Nähe ausüben kann. Das Vorliegen von Humankapitalexternalitäten ist für den deutschen Fall potenziell relevant, da sich beträchtliche Unterschiede in den durchschnittlichen regionalen Bildungsniveaus feststellen lassen. Die Dissertation untersucht daher, in welchem Umfang regionale Lohndisparitäten in Deutschland auf externe Produktivitätseffekte des regionalen Bildungsniveaus zurückzuführen sind und durch welche mikroökonomischen Mechanismen derartige Effekte entstehen. Diese Frage wird in vier thematisch eng miteinander verknüpften Artikeln beantwortet. Der erste Artikel stellt eine Überblicksstudie dar, in der die Literaturen zu regionalen Humankapitalexternalitäten und zur städtischen Lohnprämie hinsichtlich ihrer Ergebnisse und Methodik miteinander verglichen werden. Der Literaturvergleich zeigt, dass sowohl Agglomerationseffekte, als auch Humankapitalexternalitäten gültige Erklärungen für regionale Lohnunterschiede darstellen. Weiterhin werden die ökonometrische Methodik und die Identifikationsstrategien, die beiden Literaturen zugrunde liegen, verglichen. Es wird gezeigt, dass ein beträchtliches gegenseitiges Lernpotenzial zwischen beiden Literaturen besteht. Der zweite Artikel untersucht empirisch die Bedeutung von Humankapitalexternalitäten für die Divergenz regionaler Lohnniveaus in Deutschland. Es werden individuelle Lohngleichungen geschätzt, die um regionale Variablen erweitert werden. Einer möglichen Inkonsistenz der Schätzer wird durch den Einsatz von Instrumentvariablen begegnet. Die Ergebnisse weisen darauf hin, dass ebenso wie in anderen Ländern der regionale Humankapitalbestand auch in Deutschland einen signifikanten Einfluss auf die Löhne von Arbeitnehmern ausübt und somit zum Auftreten regionaler Lohndifferenziale beiträgt. Der dritte Artikel untersucht das Auftreten von Matchingeffekten als möglichen mikroökonomischen Mechanismus, durch den Humankapitalexternalitäten individuelle Löhne beeinflussen. Konkret wird überprüft, ob in humankapitalintensiven Regionen stärker ausgeprägte lokale Karrierenetzwerke bestehen, die durch einen besseren Informationsfluss im Hinblick auf Karrierechancen zu einer erhöhten Matchingeffizienz und damit zu höheren Löhnen in regionalen Arbeitsmärkten führen. Hierzu wird untersucht, ob sich signifikante Unterschiede zwischen humankapitaintensiven und humankapitalschwachen Regionen hinsichtlich des Lohnanpassungs- und Arbeitsplatzwechselverhaltens von Arbeitnehmern feststellen lassen. Die empirischen Ergebnisse zeigen, dass regionale Humankapitalexternalitäten unter anderem durch verbesserte Matches zwischen Arbeitnehmern und Unternehmen in humankapitalintensiven Regionen entstehen. Der vierte Artikel untersucht, ob erfolgreicher industrieller Wandel und regionale Humankapitalexternalitäten insoweit zwei Seiten derselben Medaille sind, als dass die produktivitätsbestimmende Wirkung des einen Einen das Vorliegen des Anderen voraussetzt. Die Ergebnisse deuten auf eine Komplementarität dynamischer Arbeitsmärkte und regionaler Humankapitalausstattungen hin. So weisen lokale Industrien eine signifikant höhere Produktivität auf, wenn sie in regionalen Arbeitsmärkten beheimatet sind, die gleichermaßen einen hohen Anteil hochqualifizierter Arbeitnehmer und eine überdurchschnittliche Arbeitsmarktdynamik aufweisen. Die Ergebnisse zeigen weiterhin, dass Humankapitalexternalitäten vor allem dann entstehen, wenn Arbeitnehmer ihren Arbeitsplatz innerhalb einer Region wechseln und damit zum Auftreten von produktivitätssteigernden Wissenspillovers und einer erhöhten Matchingeffizienz beitragen. Die Ergebnisse aus allen vier Artikeln untermauern die Bedeutung regionaler Humankapitalexternalitäten für das Entstehen regional unterschiedlicher Lohnniveaus. Hieraus erwachsen zwei zentrale Implikation für die regionale Bildungs- und Infrastrukturpolitiken, die im Schlusskapitel der Dissertation erörtert werden. So können staatliche Investitionen in Humankapital effizienzsteigernd wirken, da eine Unterinvestition in Bildung eine wahrscheinliche Folge beim Vorliegen von Humankapitalexternalitäten ist. Weiterhin können Infrastrukturinvestitionen zu einem Verschmelzen von humankapitalarmen mit humankapitalintensiven Arbeitsmärkten führen und somit eine größere Zahl an Arbeitnehmern an den positiven Produktivitätseffekten, die durch regionale Humankapitalexternalitäten entstehen, teilhaben lassen.
Diese Dissertation behandelt das Thema des Sprachkontakts zwischen der Maya-Sprache k'iche' und das Spanische in Guatemala. Der Sprachkontakt ist seit der Eroberung des Eroberung des K'iche'-Königreichs durch Don Pedro de Alvarado im 16. Jahrhundert von verschiedenen Faktoren geprägt worden: Diese sind ethnohistorischer, sprachpolitischer, religiöser und soziokultureller Natur. So waren die ersten, die sich mit den indigenen Sprachen in der Neuen Welt befassten, die katholischen Missionaren, die Katechismen und Gebetsbücher in einheimische Sprachen übersetzten. Die Renaissance der Erforschung dieser Sprachen wiederum verdankt man den modernen Missionaren, die in den 70er Jahren des vergangenen Jahrhunderts nach Guatemala kamen. Heute versteht man die Maya-Lingustik als Teil einer soziokulturellen Bewegung, die in den letzten 20 Jahren ganz Lateinamerika verändert hat: der sogenannte indigenismo. Das Spanische Guatemalas zeigt sich in der Gegenwart von der Jahrhunderte lange Koexistenz mit den Mayasprachen (hier vor allem der Mayasprache k'iche') geprägt. Diese Prägung ist, wie in dieser Arbeit dargelegt wird, auf phonologischer, morphologischer, morphosyntaktischer und pragmatischer Weise zu erkennen.
This thesis presents a study of the visual change detection mechanism. This mechanism is thought to be responsible for the detection of sudden and unexpected changes in our visual environment. As the brain is a capacity limited system and has to deal with a continuous stream of information from its surroundings only a part of the vast amount of information can be completely processed and be brought to conscious awareness. This information, which passes through attentional filters, is used for goal-directed behaviour. Therefore, the change detection mechanism is a very useful aid to cope with important information which is outside the focus of our attention. rnIt is thought that a neural memory trace of repetitive visual information is stored. Each new information input is compared to this existing memory trace by a so-called change or mismatch detection system. Following a sudden change, the comparison process leads to a mismatch and the detection system elicits a warning signal, to which an orienting response can follow. This involves a change in the focus of attention towards this sudden environmental change which can then be evaluated for potential danger and allows for a behavioural adaptation to the new situation. rnTo this purpose a paradigm was developed combining a 2-choice response time task with in the background a mismatch detection task of which the subjects were not aware. This paradigm was implemented in an ERP and an fMRI study and was used to study the the change detection mechanism and its relationship with impulsivity.rnIn previous studies a change detection system for auditory information had already been established. As the brain is a very efficient system it was thought to be unlikely that this change detection system is only available for the processing of auditory information. rnIndeed, a modality specific mismatch response at the sensory specific occipital cortex and a more general response at the frontocentral midline, both resembling the components shown in auditory research, were found in the ERP study.rnAdditionally, magnetic resonance imaging revealed a possible functional network of regions, which responded specifically to the processing of a deviant. These regions included the occipital gyrus, premotor cortex, inferior frontal cortex, thalamas, insula, and parts of the cingular cortex. rnThe relationship between impulsivity measures and visual change detection was established in an additional study. More impulsive subjects showed less detection of deviant stimuli, which was most likely due to too fast and imprecise information processing.rnIn summary it can be said, that the work presented in this thesis demonstrates that visual mismatch negativity was established, a number of regions could be associated with change detection and additionally the relevance of change detection in information processing was shown.rn
Das Konzept psychologischer und philosophischer Hilfe des niederländischen Psychologen und Philosophen Jac van Essen (1908-1989) ist in der wissenschaftlichen Literatur bislang weitgehend unbekannt. Es beruht auf dem sog. Allmenschlichkeitsgedanken. Zunächst wird Theorie und Praxis der Allmenschlichkeit eingehend als eigenständiger Ansatz dargestellt. Danach werden exemplarisch diverse Konzepte psychologischer Hilfe (Freud, Jung, Adler, Kognitive Therapie, Rogers u.a.) im Licht dieses Ansatzes diskutiert. Er erweist sich als geeigneter Prüfstein dafür, inwieweit Theorie und Praxis jener Konzepte zugleich wissenschaftlich und integral humanitär befriedigen, auch in bezug auf existentielle Aspekte.
Die Studie beschäftigt sich mit der kommunalen Armenfürsorge in Galway und Gort,im Westen Irlands und ihrem Einfluss auf die Entwicklung der lokalen Verwaltung. Der zeitliche Rahmen wird von der Einführung der irischen Armengesetzgebung 1838 und der Unabhängigkeit Irlands 1921 bestimmt. Im Mittelpunkt der Arbeit steht die Frage,welche Bedeutung der Armenverwaltung bei der generellen Ausbildung staatlicher Administration in Irland zukam. Im ersten Teil werden zunächst die sozioökonomischen Rahmenbedingungen in Galway und Gort vorgestellt. Die Lage und Größe,aber auch die wirtschaftliche Situation des Untersuchungsgebietes beeinflusste die Arbeitsweise der lokalen Aufsichtsgremien der Armenverwaltung. Von zentraler Bedeutung ist der rechtliche Rahmen,innerhalb dessen die Aufsichtsgremien der Armenverwaltung operierten. Um die "spezifische Ausprägung" der irischen Institutionen der Armenverwaltung zu analysieren,wird der Vergleich zur englischen und schottischen Armengesetzgebung gezogen. Die Studie untersucht jedoch nicht nur die normative Ebene der Armengesetzgebung zwischen 1838 und 1921,sondern beschäftigt sich vor allem mit der alltäglichen Praxis der Verwaltung vor Ort. Im Mittelpunkt stehen dabei die Akteure auf der lokalen und zentralen Ebene: die Board of Guardians und die Poor Law Commission bzw das Local Government Board. Andere lokale Verwaltungseinrichtungen,wie die Grand Juries oder die Town Commissioners,werden in die Betrachtung einbezogen,soweit sie mit den Aufsichtsgremien der Armenverwaltung in Berührung kamen. Dabei werden besonders parallele und/oder konkurrierende Zuständigkeitsbereiche in den Blick genommen. Diese Analyse der Akteure ermöglicht die Untersuchung von Ausdifferenzierungs- und Veränderungsprozessen in der lokalen Verwaltung in Irland. Der zweite Teil der Arbeit untersucht detailliert die Aufsichtsgremien der Armenverwaltung von Galway und Gort in vergleichender Perspektive. Durch den Stadt-Land Vergleich sollen Unterschiede und Gemeinsamkeiten in der personellen Zusammensetzung und der Arbeitsweise der lokalen Aufsichtsgremien der Armenverwaltung herauspräpariert werden. Dabei werden zunächst die (Armen-)Steuerzahler analysiert. Sie wählten einen Teil der Mitglieder der lokalen Armenverwaltung und beeinflussten so die Zusammensetzung der Aufsichtsgremien. Ein Kapitel im zweiten Teil der Arbeit untersucht die Mitglieder der Aufsichtsgremien der Armenadministration. Sozioökonomische, familiäre, religiöse und berufliche Hintergründe sowie Angaben zu anderen Ämtern dienen dazu, deren Auswirkungen auf die Arbeitsweise der Personen in der lokalen Armenadministration zu untersuchen. Wie regelmäßig nahmen die einzelnen Mitglieder an den Sitzungen teil? In diesem Kapitel können nicht alle der erfassten Mitglieder behandelt werden, so dass besonders die Vorsitzenden und ihre Stellvertreter analysiert werden. Weiterhin werden Mitglieder, die einflussreiche politische Funktionsträger waren, untersucht. Ein weiteres Kapitel widmet sich der Professionalisierung der Aufsichtsgremien der Armenadministration in der zeitlichen Entwicklung nach 1838. Es wird der Frage nachgegangen, ob mit der Aufgabenakkumulation über die eigentliche Armenadministration hinaus auch eine Zunahme des Einflusses der Aufsichtsgremien der Armenverwaltungen im Hinblick auf ihr Verhältnis zur Dienststelle in Dublin einherging. Der Kontakt zur zentralen Behörde war sehr ausgeprägt und regelmäßig, so dass die Kommunikation mit der übergeordneten Verwaltungsebene als sehr wichtig angesehen werden kann. Wie wirkten sich die umfassenden Kontroll- und Weisungsbefugnisse auf die Arbeitsweise der lokalen Armenadministration aus und welchen Einfluß hatten diese Befugnisse auf das Kommunikationsverhältnis? Gelang es den Mitgliedern der Armenverwaltung ihren Handlungsspielraum zu erweitern, etwa durch die Nutzung alternativer Kommunikationswege oder in ihrer Aufgabe als politische Funktionsträger? Wie häufig war die Kommunikation mit anderen irischen lokalen Aufsichtsgremien der Armenverwaltung und gab es Kooperationen? Ein weiteres Kapitel im zweiten Teil der Arbeit untersucht den Stellenwert von politischen Themen in den Diskussionen der Aufsichtsgremien der Armenverwaltungen, wobei insbesondere das Spektrum der Diskussionen innerhalb des Board of Guardians analysiert wird. Wie wirkten sich die Auseinandersetzungen um die Landfrage oder die Forderung nach Selbstverwaltung aus? Kam es zu personellen Veränderungen in den Aufsichtsgremien oder veränderten Arbeitsweisen der örtlichen Armenverwaltung? Ein Paragraph dieser Studie geht der Frage nach, ob und inwieweit die Board of Guardians mit anderen lokalen Apparaten vernetzt waren, anhand des Beispiels der Verflechtungen von Medizin und Armenadministration.
Die Arbeit untersucht das Lexem 'Fusion' in Fachtexten verschiedener medizinischer Disziplinen: Ophthalmologie, Orthopädie, Chirurgie, Pädiatrie. Dabei treten semantische Widersprüchlichkeiten, Ungenauigkeiten und Doppeldeutigkeiten zutage, die die Leser mehr verwirren als sachkundig informieren. Die expertensprachliche Kommunikation ist gestört. Des weiteren finden sich Hinweise darauf, dass die verwendete Semantik von fachlich-kognitive Einflüsse geprägt wird; so spiegelt das Lexem 'Fusion' beispielhaft den dreiteiligen Denkschritt der Mediziner wider: Physiologie, Pathologie, Therapie. Auch andere kognitive Einflüsse werden bei der semantischen Untersuchung des Lexems deutlich.
In einer empirischen Neuroimaging Studie an einer Gruppe von 141 rechts- und linkshändigen Probanden beiderlei Geschlechts wurden fMRT-Korrelate der funktionalen Sprachrepräsentation untersucht. Es fanden sich bedeutsame Unter-schiede in der Sprachverarbeitungskompetenz der beiden Hemisphären sowohl zwischen Rechts- und Linkshändern als auch zwischen Männern und Frauen.
Synergieeffekte und Kollaboration bei e-Learning-Anwendungen in selbstorganisierenden Computernetzen
(2009)
In den letzten Jahren haben sich mehrere neue Netzklassen im Bereich der Verteilten Systeme etabliert. Diese können unter Ausnutzung von Selbstorganisationsprinzipien und verschiedener kollaborativer Aspekte viele der netzinhärenten Probleme wie Skalierbarkeit, Latenz- und Lastverteilungsbetrachtungen sowie Konsistenzwahrung entschärfen. Gleichzeitig kann die Nutzung entsprechender Prinzipien zu positiven Synergieeffekten führen, die von den verschiedenen auf diesen Netzen aufsetzten Applikationsdomänen genutzt werden können. Von besonderer Bedeutung sind diese Aspekte für die beiden neuartigen Netzklassen der Multi-Hop Adhoc-Netze (MANETs) und der globalen virtuellen Umgebungen (MMVEs). Beiden Netzklassen ist gemeinsam, dass sie aufgrund der erwähnten Problemstellungen nicht mit traditionellen verteilten Architekturen, wie zentralistischen und monolithischen Systemen, umgesetzt werden können. Hier muss ein Paradigmenwechsel hin zu dezentralen, selbstorganisierenden Systemstrukturen erfolgen, um den angesprochenen Herausforderungen zu begegnen. Die erste in dieser Arbeit untersuchte Netzklasse der MANETs zeichnet sich dadurch aus, dass sie Nutzern erlaubt, immer und überall auf Ihre Daten zugreifen zu können und mit der vor Ort vorhandenen Infrastruktur transparent zu kommunizieren. Dabei erfolgen die Daten-zugriffe vermehrt über immer kleiner werdende mobile Endgeräte, die sowohl aufgrund ihrer inhärenten Mobilität als auch ihrer eingeschränkten Ressourcen daran angepasste Netzstrukturen erfordern. Die neuartige Netzklasse der MMVEs dagegen soll Dateninhalte in einem dreidimensionalen Rahmen und damit nativ und intuitiver als die vorherrschende zweidimensionale Darstellung, wie z.B. im Internet, präsentieren. Der Datenzugriff erfolgt hier meist über eine virtuelle Benutzerrepräsentation " einen Avatar. MMVEs basieren zwar im Vergleich zu MANETs in der Regel auf physisch verlässlichen Netzen, benötigen aber aufgrund der massiven Verteilung und der großen Nutzerzahlen neue Netzwerkarchitekturen. Die Anwendungsdomäne e-Learning eignet sich in diesem Zusammenhang besonders gut für wissenschaftliche Untersuchungen, da hier eine ähnliche Entwicklung beobachtbar ist, wie bei den eingangs erwähnten Netzklassen. Genauso wie mobile Endgeräte immer kleiner und ubiquitär verfügbar werden und das Internet praktisch an jedem Ort der Welt mit hoher Bandbreite nutzbar ist, finden e-Learning Inhalte immer mehr Einzug in das tägliche Leben. Während sie früher nur eine vernachlässigbare Ergänzung zu etablierten Schulungsformen darstellten, die mehr oder weniger invasiv und starr zentral administriert wurde, steigt Ihre Bedeutung besonders im Zusammenhang mit neuen Zugangsformen täglich. Besonders das Bedürfnis an Schulen oder Universitäten sowie bei der innerbetrieblichen Aus- und Weiterbildung, immer und überall verteilt, nativ und transparent auf entsprechende Lehr- und Lerninhalte zugreifen zu können, steigt mit dem wachsenden und teilweise rein wirtschaftlich bedingten Bedarf nach einer qualitativ hohen, kontinuierlichen gesellschafts- und technikdurchdringenden Grund- und Weiterbildung. Die geforderte Transparenz und Ubiquität kann für die angesprochene Anwendungsdomäne dadurch erreicht werden, dass spezielle, auf die neuartigen verteilten Netzstrukturen abgestimmte, Applikationen entwickelt werden, die die netzinhärenten Selbstorganisations-prinzipien explizit ausnutzen. Eine wichtige Fragestellung in diesem Zusammenhang ist, welche Auswirkungen ein solcher Paradigmenwechsel auf die Qualität der Wissens-vermittlung und der Inhalte hat. Erste Evaluationen mit prototypischen Applikationen haben gezeigt, dass dieser Wechsel problemlos möglich ist. Dabei spiegeln auftretende Synergie-effekte die Abbildung auf soziale Netze wieder, die beiden Aspekten inhärent zugrunde liegt und einen Mehrwert erzeugen, der die dabei auftretenden technischen Herausforderungen und Probleme relativiert. Entsprechende Effekte lassen sich sogar noch weiter verstärken, indem kollaborative Aspekte sowohl auf Applikationsebene als auch in den darunter liegenden Basisstrukturen ausgenutzt werden. Die vorliegende Arbeit soll diese Annahmen durch adäquate Beispiele aus beiden Bereichen (MANETs und MMVEs) aus verschiedenen Perspektiven beleuchten und anhand von beispielhaften Anwendungen und darauf aufbauende Evaluationen den Synergiegewinn von e-Learning Applikationen und mögliche kollaborative Aspekte in diesem Umfeld aufzeigen.
Quantitative Studien zur Plansprache Esperanto zu ausgewählten Fragestellungen der Phonologie, Morphologie, Syntax, Lexik, Semantik, Worthäufigkeit und - als Schwerpunkt - Wortbekanntheit wurden durchgeführt. Hauptergebnisse: Die Phonem-Häufigkeitsverteilung des Esperanto kann besonders gut mit dem Yule-Modell beschrieben werden; bei biphonematischer Wertung der Affrikaten ergibt sich eine etwas schlechere Anpassung als bei monophonematischer Wertung. Die Anwendung des klassifikatorischen Schlüssels von Altmann und Lehfeldt bestätigt die Meinung der meisten Autoren, wonach Esperanto agglutinierend mit einigen Merkmalen einer isolierenden Sprache ist. Die bei anderen Sprachen gefundene Gesetzmäßigkeit zwischen Lexermlänge und Polysemie gilt auch für Esperanto. Zur Untersuchung des Zusammenhangs zwischen Wortbekanntheit und Worthäufigkeit sowie zur Untersuchung der Selbsteinschätzung des eigenen Esperanto-Anwendungsvermögens durch seine Sprecher wurde das Verfahren der logistischen Regression (einschließlich statistischer Sicherheit) ausführlich dargestellt und als eine innovative Option auch zur Untersuchung analoger Fragestellungen angeboten. Zu den nachfolgend beschriebenen Haupthypothesen kann auf Grundlage der Untersuchung Folgendes ausgesagt werden (es sei angemerkt, dass die Haupthypothesen- (a) und (b) dabei ausschließlich für solche Esperanto-Sprecher gelten, die ihr Esperanto-Anwendungsvermögen als ausreichend gut einschätzen; die Haupthypothese- (c) gilt auch für solche Esperanto-Sprecher, die ihr Esperanto-Anwendungsvermögen als nicht ausreichend gut einschätzen): (a) Die Häufigkeit der zuverlässig bekannten Wörter entspricht der Häufigkeitsgruppe- 7 aus neun Häufigkeitsgruppen der von der Esperanto-Akademie entwickelten Statistik ("offizielle Basis-Wortwurzelsammlung", BRO; Häufigkeitsgruppe- 1: häufigste Wörter). (b)- Sei- A die Häufigkeit der Esperanto-Wörter, die Menschen mit einer Muttersprache aus dem romanischen oder germanischen Sprachzweig zuverlässig bekannt sind. Sei- B die Häufigkeit der Esperanto-Wörter, die Menschen mit Muttersprache Chinesisch, Japanisch oder aus der finno-ugrischen Sprachfamilie zuverlässig bekannt sind. Die Untersuchung zeigte: Zwischen A und B besteht kein signifikanter Unterschied. Das heißt: Die naheliegende Vermutung, dass Sprecher mit einer Muttersprache aus dem romanischen oder germanischen Sprachzweig (= Quelle der meisten Esperanto-Wörter) einen Vorteil haben und seltenere Esperanto-Wörter vergleichsweise besser kennen als Sprecher mit anderen Muttersprachen, wurde durch die vorliegende empirische Überprüfung nicht bestätigt. (c)- Bei einer statistischen Sicherheit von 95% ist die Selbsteinschätzung des eigenen Esperanto-Anwendungsvermögens durch seine Sprecher auch nach 100- Lernjahren nur 73%. Für eine zuverlässige Anwendbarkeit (also 90% bei 95%- statistischer Sicherheit) konnte keine Lernzeit ermittelt werden.
The thesis studies the question how universal behavior is inherited by the Hadamard product. The type of universality that is considered here is universality by overconvergence; a definition will be given in chapter five. The situation can be described as follows: Let f be a universal function, and let g be a given function. Is the Hadamard product of f and g universal again? This question will be studied in chapter six. Starting with the Hadamard product for power series, a definition for a more general context must be provided. For plane open sets both containing the origin this has already been done. But in order to answer the above question, it becomes necessary to have a Hadamard product for functions that are not holomorphic at the origin. The elaboration of such a Hadamard product and its properties are the second central part of this thesis; chapter three will be concerned with them. The idea of the definition of such a Hadamard product will follow the case already known: The Hadamard product will be defined by a parameter integral. Crucial for this definition is the choice of appropriate integration curves; these will be introduced in chapter two. By means of the Hadamard product- properties it is possible to prove the Hadamard multiplication theorem and the Borel-Okada theorem. A generalization of these theorems will be presented in chapter four.
In this psycho-neuro-endocrine study the molecular basis of different variants of steroid receptors as well as highly conserved non steroidal receptors was investigated. These nuclear receptors (NRs) are important key regulators of a wide variety of different physiological and pathophysiological challenges ranging from inflammation and stress to complex behaviour and disease. NRs control gene transcription in a ligand dependent manner and are embedded in the huge interaction network of the neuroendocrine and immune system. Two receptors, the glucocorticoid receptor (GR) and the chicken ovalbumin upstream promoter-transcription factorII (Coup-TFII), both expressed in the immune and nervous system, were investigated regarding possible splice variants and their implication in the control of gene transcription. Both NRs are known to interact and modulate each other- target gene regulation. This study could be shown that both NRs have different splice variants that are expressed in a tissue specific manner. The different 5-´alternative transcript variants of the human GR were in silico identified in other species and evidence for a highly conserved and tightly controlled function was provided. Investigations of the N-terminal transactivation domain of the GR showed a deletion suggesting an altered glucocorticoid-dependent transactivation profile. The newly identified alternative transcript variant of Coup-TFII leads to a DNA binding deficient Coup-TFII isoform that is highly expressed in the brain. This Coup-TFII isoform alters Coup-TFII target gene expression and is suggested to interact with GR via its ligand binding domain resulting in an impaired GR target gene regulation in the nervous system. In this thesis it was demonstrated that NR variants are important for the understanding of the enormous regulatory potential of this receptor family and have to be taken into account for the development of therapeutic strategies for complex diseases such as stress related and neurodegenerative disorders.
Die vorliegende Arbeit entstand im Rahmen des INTERREG III B-Projektes WaReLa (Water Retention by Landuse), das sich mit dem Rückhalt von Wasser in der Fläche als Beitrag zum vorbeugenden Hochwasserschutz beschäftigt. Im Vordergrund stehen dabei die so genannten dezentralen Rückhaltemaßnahmen als Alternative bzw. Ergänzung zum technischen Hochwasserschutz. Gegenstand dieser Arbeit ist die Frage nach der Effizienz von Retentionsmaßnahmen in urbanen Räumen und deren Beitrag zum Hochwasserschutz. Es handelt sich um ein relativ junges Forschungsthema, welches die Fachwelt bis heute kontrovers diskutiert. Wie bisherige Untersuchungen zeigen, sind allgemeine Aussagen über die Retentionswirkung nicht möglich, da das Potential der Regenwasserbewirtschaftung und deren Rückhaltewirkung von mehreren gebietsspezifischen Faktoren gesteuert werden. Untersuchungen an einem Retentionssystem im Neubaugebiet Trier-Petrisberg sollten weitere Erkenntnisse bringen. Hierzu wurde zum einen die hydraulische Belastung einzelner Retentionsanlagen untersucht und zum anderen wurden N A-Simulationen mit dem Programm erwin 4.0 durchgeführt. Laut N-A-Simulationen hält das Retentionssystem, welches für ein 100-jährliches Ereignis mit 56 mm Niederschlag und der Dauerstufe 3 Stunden konzipiert wurde, im Vergleich zur Entwässerung des Gebietes über ein Trennsystem zwischen 58 % und 68 % des Jahresniederschlags zurück. Ähnlich hohe Werte (60 80 %) nennen GÖBEL, STUBBE, WEINERT, ZIMMERMANN, FACH, DIERKES, KORIES, MESSER, MERTSCH, GEIGER & COLDEWEY (2004: 270f) und WEGNER (1992: 7f) für die von ihnen untersuchten Anlagen. Sehr hoch erscheint die Scheitel abmindernde Wirkung des Retentionssystems im Vergleich zu einer konventionellen Ableitung. Im Mittel beträgt diese 82 %, so dass der Scheitel der Einleitung in den Vorfluter Brettenbach im Vergleich zur Regenwasserableitung auf 1/5 reduziert wird. Aufschluss über die Scheitelabminderung im Vorfluter selbst kann nur eine Quantifizierung der einzelnen Abflusskomponenten geben. Das Retentionssystem arbeitet im Sommerhalbjahr effektiver als im Winterhalbjahr, da trockene Vorperioden, höhere Lufttemperaturen und die Vegetation im Sommer einen besseren Rückhalt konvektiver Niederschläge begünstigen. Korrespondierende Aussagen machen ASSMANN & KEMPF (2005), GANTNER (2003a) und NIEHOFF (2002). Beobachtungen und Simulationen zeigen, dass das Retentionssystem bisher effektiv arbeitet. Sämtliche Retentionsanlagen entleeren sich innerhalb von 48 Stunden. Die Arbeit wird ergänzt durch Handlungsempfehlungen zu Planung, Bau und Betrieb von Anlagen zur Regenwasserbewirtschaftung auf Privatgrundstücken. Sie sollen helfen, die Akzeptanz naturnaher Maßnahmen zur Bewirtschaftung von Regenwasser zu steigern, Fehler zu vermeiden und Projekte erfolgreich umzusetzen.
The glucocorticoid (GC) cortisol, main mediator of the hypothalamic-pituitary-adrenal axis, has many implications in metabolism, stress response and the immune system. GC function is mediated mainly via the glucocorticoid receptor (GR) which binds as a transcription factor to glucocorticoid response elements (GREs). GCs are strong immunosuppressants and used to treat inflammatory and autoimmune diseases. Long-term usage can lead to several irreversible side effects which make improved understanding indispensable and warrant the adaptation of current drugs. Several large scale gene expression studies have been performed to gain insight into GC signalling. Nevertheless, studies at the proteomic level have not yet been made. The effects of cortisol on monocytes and macrophages were studied in the THP-1 cell line using 2D fluorescence difference gel electrophoresis (2D DIGE) combined with MALDI-TOF mass spectrometry. More than 50 cortisol-modulated proteins were identified which belonged to five functional groups: cytoskeleton, chaperones, immune response, metabolism, and transcription/translation. Multiple GREs were found in the promoters of their corresponding genes (+10 kb/-0.2 kb promoter regions including all alternative promoters available within the Database for Transcription Start Sites (DBTSS)). High quality GREs were observed mainly in cortisol modulated genes, corroborating the proteomics results. Differential regulation of selected immune response related proteins were confirmed by qPCR and immuno-blotting. All immune response related proteins (MX1, IFIT3, SYWC, STAT3, PMSE2, PRS7) which were induced by LPS were suppressed by cortisol and belong mainly to classical interferon target genes. Mx1 has been selected for detailed expression analysis since new isoforms have been identified by proteomics. FKBP51, known to be induced by cortisol, was identified as the strongest differentially expressed protein and contained the highest number of strict GREs. Genomic analysis of five alternative FKBP5 promoter regions suggested GC inducibility of all transcripts. 2D DIGE combined with 2D immunoblotting revealed the existence of several previously unknown FKBP51 isoforms, possibly resulting from these transcripts. Additionally multiple post-translational modifications were found, which could lead to different subcellular localization in monocytes and macrophages as seen by confocal microscopy. Similar results were obtained for the different cellular subsets of human peripheral blood mononuclear cells (PBMCs). FKBP51 was found to be constitutively phosphorylated with up to 8 phosphosites in CD19+ B lymphocytes. Differential Co-immunoprecipitation for cytoplasm and nucleus allowed us to identify new potential interaction partners. Nuclear FKBP51 was found to interact with myosin 9, whereas cytosolic FKBP51 with TRIM21 (synonym: Ro52, Sjögren`s syndrome antigen). The GR has been found to interact with THOC4 and YB1, two proteins implicated in mRNA processing and transcriptional regulation. We also applied proteomics to study rapid non-genomic effects of acute stress in a rat model. The nuclear proteome of the thymus was investigated after 15 min restraint stress and compared to the non-stressed control. Most of the identified proteins were transcriptional regulators found to be enriched in the nucleus probably to assist gene expression in an appropriate manner. The proteomic approach allowed us to further understand the cortisol mediated response in monocytes/macrophages. We identified several new target proteins, but we also found new protein variants and post-translational modifications which need further investigation. Detailed study of FKBP51 and GR indicated a complex regulation network which opened a new field of research. We identified new variants of the anti-viral response protein MX1, displaying differential expression and phosphorylation in the cellular compartments. Further, proteomics allowed us to follow the very early effects of acute stress, which happen prior to gene expression. The nuclear thymocyte proteome of restraint stressed rats revealed an active preparation for subsequent gene expression. Proteomics was successfully applied to study differential protein expression, to identify new protein variants and phosphorylation events as well as to follow translocation. New aspects for future research in the field of cortisol-mediated immune modulation have been added.
During the last decade, anatomic and physiological neuroscience research has yielded extensive information on the physiological regulators of short-term satiety, visceral and interoceptive sensation. Distinct neural circuits regulate the elements of food ingestion physiologically. The general aim of the current studies is to elucidate the peripheral neural pathways to the brain in healthy subjects to establish the groundwork for the study of the pathophysiology of bulimia nervosa (BN). We aimed to define the central activation pattern during non-nutritive gastric distension in humans, and aimed to define the cognitive responses to this mechanical gastric distension. We estimated regional cerebral blood flow with 15O-water positron emission tomography during intragastric balloon inflation and deflation in 18 healthy young women of normal weight. The contrast between inflated minus deflated in the exploratory analysis revealed activation in more than 20 brain regions. The analysis confirmed several well known areas in the central nervous system that contribute to visceral processing: the inferior frontal cortex, representing a zone of convergence for food related stimuli; the insula and operculum referred to as "visceral cortex"; the anterior cingulate gyrus (and insula), processing affective information; and the brainstem, a site of vagal relay for visceral afferent stimuli. Brain activation in the left ventrolateral prefrontal cortex was reproducible. This area is well known for higher cognitive processing, especially reward-related stimuli. The ventrolateral prefrontal cortex with the insular regions may provide a link between the affective and rewarding components of eating and disordered eating as observed in BN and binge-eating obesity. Gastric distension caused a significant rapid, reversible, and reproducible increase in the feelings of fullness, sleepiness, and gastric discomfort as well as a significant rapid, reversible, and reproducible decrease in the feeling of hunger. We showed that mechanical activation of the neurocircuitry involved in meal termination led to the described phenomena. The current brain activation studies of non-painful, proximal gastric distension could provide groundwork in the field of abnormal eating behavior by suggesting a link between visceral sensation and abnormal eating patterns. A potential treatment for disordered eating and obesity could alter the conscious and unconscious perception and interoceptive awareness of gastric distension contributing to meal termination.
Wie gestaltete sich adlige Erziehung im Übergang vom Mittelalter zur Neuzeit, noch vor dem auch bildungsgeschichtlichen Wandel durch Reformation und Humanismus? Wie ist in diesen Zeiten ein junger Prinz für seine künftigen Aufgaben als Herrscher und Politiker vorbereitet worden? Gab es einen bestimmten Kanon von Fächern oder Lehrinhalten, deren Vermittlung durch Unterricht oder auch durch adlig-höfische Sozialisation eine spezifische, an seiner hohen Stellung und Verantwortung orientierte Bildung und Ausbildung eines Fürstensohns zum Ziel hatte? Diesen Fragen, welche die historische Forschung bisher weitgehend vernachlässigt hat, geht die Trierer Dissertation nach. Sie bietet damit die erste ausführliche und quellengestützte Darstellung der Kindheit und Jugend Karls V., die in den großen Biographien immer voreilig übergangen wird, wo meist ein bereits "fertiger" Kaiser in Erscheinung tritt. Ein Blick zurück auf die direkten Vorfahren - Kaiser Friedrich III., Kaiser Maximilian I. und Karls früh verstorbenen Vater, Philipp den Schönen - erkundet die Traditionen und Formen habsburgisch-burgundischer Fürstenerziehung, ihren Platz sowie ihre Organisation und personales Umfeld am Hofe. Der frühe Tod des Vaters und die psychische Labilität der Mutter bestimmten Karls Kindheit und Jugend. Anstelle der leiblichen Eltern waren es Großvater, Tante und Erzieher, die sich um ihn bemühten; daneben weitere Lehrer - darunter Adrian von Utrecht, der spätere Papst Hadrian VI., und Erasmus von Rotterdam, aber auch nicht wenige aus den spanischen Ländern -, Beichtväter und Edelknaben, die das soziale Umfeld der Erziehung komplettierten. Somit befand sich der Zögling inmitten verschiedener Interessengruppen, die in Konkurrenz untereinander sowie gemäß eigener Vorteile und Absichten agierten. Schon früh musste der junge Habsburger zu der Rolle finden, die nicht nur seine Familie, sondern auch die großen europäischen Dynastien von ihm erwarteten; denn es ging in erster Linie um Kontinuität und Berechenbarkeit, in der Familie wie in der Politik. Oft genug wurde der im höchsten Grade umsorgte wie überwachte, lange unselbständige Prinz zum Spielball der stark divergierenden Interessen seines Umfeldes, was sich auch an der Praxis der zahlreichen Heiratsoptionen zeigte, in die er ungefragt "eingepasst" wurde. Die Jugendjahre Karls V. spielten sich am Hof seiner Tante, Margarete von Österreich, ganz im burgundischen Milieu ab, das ihn kulturell und politisch prägte. Einen nachhaltigen Eindruck hinterließ hier die burgundische Rittertradition, aufs höchste symbolisiert im Orden vom Goldenen Vlies. Die Erziehung Karls, der in den ersten Jahren zusammen mit seinen Schwestern unterrichtet wurde, verlief im Prinzip zweigleisig. Neben einer fundamentalen religiösen Unterweisung durch Geistliche und Beichtväter konzentrierten sich seine Lehrer - Gelehrte wie Höflinge - einmal auf die Vermittlung eines angemessenen, gelehrten Bildungswissens und dann aber vor allem auf das praktische Handlungswissen, dabei insbesondere auf die adlige Sozialisation im Milieu des Hofes. Erziehung und Ausbildung blieben immer pragmatisch auf die späteren Aufgaben des Regierens, der Politik und der herrscherlichen Repräsentation ausgerichtet. Die Wirkung dieser Erziehung lässt sich exemplarisch fassen in Karls während der späteren Jahre konsequent verfolgten Familienpolitik, die von den Betroffenen allerdings nicht immer kritiklos akzeptiert wurde. Stationen seiner Persönlichkeitsentwicklung, die sich über viele Jahre, wenn nicht das ganze Leben, hinzog, werden vor diesem Hintergrund beleuchtet. Als die wohl prägendste Erfahrung auf dem schweren Weg vom früh verwaisten, schwächlichen und meist unsicher wirkenden Knaben zum selbständig agierenden Monarchen kann Karls erste Reise nach Spanien im Jahre 1517 gesehen werden. Hier stieß er erstmals auf offene Ablehnung und sah sich mit unerwarteten, bis dahin völlig fremden Problemen konfrontiert. Zugleich bedeutete sein Regierungsantritt als spanischer König für ihn persönlich eine entscheidende kulturelle Neuorientierung.
Verfuegen die USA ueber eine Sicherheitsstrategie fuer Suedostasien? Die grosse Mehrheit der Experten vertritt die Auffassung, dass sich die Politik Washingtons vor allem an tagespolitischen Erfordernissen orientiert. Entscheidungen werden demnach ad hoc gefaellt. Unklar ist dabei, von welchen Kriterien solche Bewertungen abhaengig gemacht werden: Was ist eine Strategie? An diesem Punkt setzt die vorliegende Abhandlung an und kommt zu dem Ergebnis, dass das Verhalten der USA in Suedostasien sicherheitsstrategischen Kriterien gerecht wird. Die Dissertation soll in drei Gebieten einen Beitrag zum Forschungsstand der politikwissenschaftlichen Teildisziplin der Internationalen Beziehungen leisten: Fuer den Begriff der Strategie werden, erstens, konkrete Messkriterien entwickelt. Innerhalb des realistischen Paradigmas wird, zweitens, der Forschungsstrang des funktionalen offensiven Realismus herausgearbeitet. Gezeigt wird, dass eine Akteursoeffnung auch unter systemischen Bedingungen moeglich ist, wozu methodisch die Instrumente der Impulsverarbeitung und Impulsumsetzung entwickelt werden. Der dabei entstandene idealtypische, theoretisch aufgeladene Strategiebegriff wird so formuliert, dass er fuer weitere Arbeiten, die sich mit staatlicher Sicherheitspolitik befassen, verwendbar ist. Empirisch traegt die Dissertation, drittens, zur Aufarbeitung des amerikanisch-chinesischen Wettbewerbs um Macht und Einfluss in Suedostasien bei. Dabei werden saemtliche bilateralen Beziehungen Chinas und der USA im ASEAN-Raum analysiert und aufeinander bezogen.
Seit den frühen siebziger Jahren ist im anglo-amerikanischen Raum eine große Anzahl an Romanen erschienen, die alle auf einer bzw. zwei eng verwandten schottischen Feenballaden ("Thomas the Rhymer" und "Tam Lin") basieren. Die vorliegende Arbeit untersucht eine Auswahl dieser Romane in vergleichender Perspektive. Der erste Teil beschäftigt sich mit Feenglauben und -literatur im Allgemeinen, während der zweite Teil der Analyse von zehn auf den Balladen basierenden Romanen gewidmet ist. Da im Ausgangsmaterial Elemente keltischen Volksglaubens eine zentrale Rolle spielen, untersucht das erste Kapitel die Grundlagen und möglichen Ursprünge des keltischen Feenglaubens. Um neben einer Einführung in die volkskundlichen Grundlagen auch eine Verankerung der Arbeit in aktuellen literaturwissenschaftlichen Theorien zu gewährleisten, gibt das zweite Kapitel einen Überblick über Theorien der phantastischen Literatur. Vorgestellt werden strukturalistische und funktionale Ansätze, die sich chronologisch von J.R.R. Tolkien (1948) über Tzvetan Todorov (1970) bis hin zu Farah Mendlesohn (2005) bewegen. Um die Bearbeitungen der frühmodernen Balladen literaturgeschichtlich einzuordnen, zeichnet das nächste Kapitel die Geschichte der literarischen Bearbeitungen des Elfenstoffes in der Literatur vom Mittelalter bis ins späte 20. Jahrhundert nach, mit Schwerpunkt auf englischsprachigen Werken. Von im Mittelalter noch stark vom Volksglauben beeinflussten, moralisch ambivalenten Figuren entwickeln sich die Elfen seit dem 16. Jahrhundert zu satirisierten, miniaturisierten und verniedlichten Gestalten; die Fantasyromane des späten 20. Jahrhunderts scheinen jedoch wieder zu stärker bedrohlichen Elfen zurück zu finden. Das nächste Kapitel widmet sich der Darstellung des Ausgangsmaterials, der zwei Balladen, die als Nr. 37 bzw. 39 in der Balladensammlung von Francis James Child zu finden sind. Erläutert werden die Entstehungsgeschichte der traditionellen Ballade (traditional ballad) im Allgemeinen und von Child Nr. 37 und 39 im Besonderen, sowie Varianten, Symbolik und Besonderheiten der zwei Balladen. Die anschließenden Analysekapitel beschäftigen sich jeweils schwerpunktmäßig mit einer Balladenadaption in Romanform: - Dahlov Ipcar: The Queen of Spells (1973) - Elizabeth Marie Pope: The Perilous Gard (1974) - Diana Wynne Jones: Fire and Hemlock (1984) - Ellen Kushner: Thomas the Rhymer (1990) - Pamela Dean: Tam Lin (1991) - Terry Pratchett: Lords and Ladies (1992) und The Wee Free Men (2003) - Patricia McKillip: Winter Rose (1996) Alle Analysekapitel sind ähnlich strukturiert: Nach kurzer Vorstellung des Autors folgt eine Zusammenfassung der Romanhandlung. Da alle Romane mehr oder weniger stark intertextuell sind, werden daraufhin Einflüsse und intertextuelle Anspielungen untersucht. Besonderes Augenmerk liegt dabei auf der Verarbeitung der zwei Child-Balladen. Da nahezu alle untersuchten Romane ähnliche Hauptcharaktere aufweisen (junges Mädchen, junger Mann, Elfenkönigin) untersuchen die Analysekapitel diese Figurenkonstellation sowie die hier verarbeiteten folkloristischen Einflüsse. Trotz der großen zeitlichen und geographischen Bandbreite der Schauplätze sind sich die Romane erstaunlich ähnlich, vor allem in der Darstellung ihrer Hauptfiguren. Die weibliche Heldin ist meist jung, eigenwillig und unterscheidet sich oft durch eine negative Charaktereigenschaft oder Umweltbedingung von ihren Altersgenossinnen. Nahezu alle Romane werden aus der Perspektive der weiblichen Hauptfigur erzählt. Dies führt dazu, dass die männliche Hauptfigur weniger zentral und oft durch eine gewisse Passivität gekennzeichnet ist. Infolgedessen ist die zweite aktive Figur der Konstellation ebenfalls eine Frau " die Elfenkönigin. Auch in ihrer Darstellung lassen sich in allen Romanen große Gemeinsamkeiten finden: Sie ist attraktiv und grausam, kühl und oft überheblich. Insgesamt werden die Elfen in den Romanen deutlich unsympathisch geschildert. Sie sind eine Spezies schöner, (fast) unsterblicher, oft übernatürlich intelligenter und mit magischen Fähigkeiten begabter Wesen, doch sind sie auch kalt, grausam und vollkommen fremdartig und unverständlich für die Menschen. Ein möglicher Grund für die negative Darstellung der Elfen scheint didaktischer Art zu sein, da die Botschaft aller Adaptionen an die Leser lauten könnte: "Akzeptiere deine Unvollkommenheit und lass dich nicht von vermeintlich überlegenen Gegnern einschüchtern " auch sie haben Schwächen". Auch in Richtung Gender-Diskurs scheinen viele der Autoren eine Aussage machen zu wollen. Sie zeichnen ihre Heldinnen als "starke Mädchen", die in einer Umkehrung des "damsel in distress"-Schemas einen Mann aus der Gefangenschaft der Elfen retten. Als feministisch kann man die Adaptionen jedoch nicht bezeichnen, da sie hierzu eher zu konservativ sind, was sich vor allem darin zeigt, dass die einzige Frau im Roman, die wirklich über Macht verfügt " nämlich die Elfenkönigin " am Ende die Verliererin ist.
Wenn eine stets von Null verschiedene Nullfolge h_n gegeben ist, dann existieren nach einem Satz von Marcinkiewicz stetige Funktionen f vom Intervall [0,1] in die reelle Achse, die in dem Sinne maximal nicht differenzierbar sind, dass zu jeder messbaren Funktion g ein Teilfolge n_k existiert, so dass (f(x+h_n_k)-f(x))/h_n_k fast sicher gegen g konvergiert. Im ersten Teil dieser Arbeit beweisen wir Erweiterungen dieses Satzes im Mehrdimensionalen und Analoga für Funktionen in der komplexen Ebene. Der zweite Teil dieser Arbeit befasst sich mit Operatoren die in enger Beziehung zum Satz von Korovkin über positive lineare Operatoren stehen. Wir zeigen, dass es Operatoren L_n gibt, die jeweils eine der Eigenschaften aus dem Satz von Korovkin nicht erfüllen und gleichzeitig eine residuale Menge von Funktionen f existiert, so dass L_nf nicht nur nicht gegen f konvergiert, sondern sogar dicht im Raum aller stetigen Funktionen des Intervalls [0,1] ist. Ähnliche Phänomene werden bei polynomieller Interpolation untersucht.
In der vorliegenden Arbeit geht es um die Frage nach der Rolle der Zeit im Werk Friedrich von Hardenbergs (Novalis, 1772-1801). Sowohl die Zeitstruktur in der Dichtung als auch das Zeitbewusstsein in der Transzendentalphilosophie bei Novalis wurden in der Forschung mehrfach thematisiert. Eberhard Haufe (1957) und Peter Küpper (1959) analysierten die Zeitstruktur im Heinrich von Ofterdingen eingehend und kamen zu dem Schluss, dass die Entwicklung des Romaninhalts dem Stil und der Symbolhaftigkeit der Sprache unterworfen werden und dass damit die Zeit aufgehoben wird. Manfred Frank (1972) analysierte das Zeitbewusstsein in den Fichte-Studien und legte dar, dass das Bewusstsein der Zeitlichkeit aus dem Gefühl eines unlösbaren "Mangels" an Sein entstehe und dass deshalb die Freiheit des Ich nicht durch Aufhebung der Zeit, sondern in einer Synthese von Zeit und Ewigkeit in der Zeit realisiert werden sollte. Während Frank den Ort der Dynamik des "Ordo inversus" zwischen Subjekt und Objekt in der Zeit bestimmte, entwickelte Richard Warren Hannah (1981) die These, dass die Synthese von Ich und Du, Zeit und Raum, Vergangenheit und Zukunft in der Gegenwart liege und dass das Bewusstsein der Gegenwart der Ausgangspunkt der Dichtung bei Novalis wurde. Durch die Arbeiten von John Neubauer (1978) und Gordon Birrell (1979) wurde die Aufhebung der Zeit im Ofterdingen zwar verleugnet und die Rolle der Zeit und der Gegenwart im Roman hervorgehoben, aber es fehlt in der Forschung m. E. noch ein roter Faden zwischen dem transzendentalphilosophischen Zeitbewusstsein und der Zeitstruktur in der Dichtung. In seiner ersten Fragmentsammlung Blüthenstaub (1798) schreibt Novalis: "Nichts ist poëtischer, als Erinnerung und Ahndung, oder Vorstellung der Zukunft. Die gewöhnliche Gegenwart verknüpft beyde durch Beschränkung " Es entsteht Contiguitaet, durch Erstarrung " Crystallisation. Es gibt aber eine geistige Gegenwart " die beyde durch Auflösung identificirt " und diese Mischung ist das Element, die Atmosphäre des Dichters. Nicht Geist ist Stoff." (II, 468, 123) In dieser Arbeit wird erläutert, dass die Idee der "geistigen Gegenwart" ein roter Faden ist, der Philosophie und Dichtung bei Novalis verbindet. Um zwischen Theorie und Dichtung eine Brücke zu schlagen, soll der Gedankengang von Novalis von den Fichte-Studien (1795/96) bis zum Heinrich von Ofterdingen (geschrieben um 1800) nachvollzogen werden. Die vorliegende Arbeit geht davon aus, dass das Bewusstsein der Gegenwart als einer Synthese nicht nur die philosophischen Studien, sondern auch die Poetik und die Dichtung von Novalis durchgängig prägt. Es soll erläutert werden, wie er den Begriff der "geistigen Gegenwart" begründete und wie er ihn auf seine Poetik und dichterische Praxis übertrug. Diese Arbeit stellt einen Versuch dar, den ganzen Gedankengang von Novalis als eine Suche nach Möglichkeiten einer sinnlichen Erfahrung der "geistigen Gegenwart" darzustellen.
The aim of the thesis was to investigate the role of the immune system in fibromyalgia (FM), as part of a dynamic co-regulation between different bodily systems. FM is a chronic musculoskeletal disorder characterized by widespread pain and specific tender points, combined with other symptoms including fatigue, sleep disturbances, morning stiffness and anxiety. The main goal of the work was to identify possible dysregulation of peripheral immune and endocrine parameters in patients with FM compared to matched healthy controls. Moreover, the possible relation between symptom complaints and the specific parameters measured was also evaluated. A first approach was to investigate possible differences between FM patients and controls in the expression of cytokines, as they have been implicated in the occurrence of several of the symptoms associated with FM. Furthermore, adhesion molecules which are involved in cell-to-cell communication and immune cell trafficking were also studied. The latter are known to be regulated by both cytokines and glucocorticoids (GCs) and their expression is often found altered in patients with immune dysregulation. It was expected that subjects with FM would have an increased production of proinflammatory cytokines and/or a reduced antiinflammatory cytokine production and that certain cytokines and/or adhesion molecules would be differently regulated by dexamethasone (DEX). Unstimulated blood was used in the analysis of adhesion molecule expression by flow cytometry while stimulated whole blood cell cultures were used in cytokine flow cytometry assays. Peripheral blood mononuclear cells (PBMCs) were also cultured and the supernatants collected to determine the concentration of cytokines by biochip protein array. In addition, serum samples were used in enzyme-linked immunosorbent assays (ELISA) for quantification of soluble adhesion molecules. L-selectin was found elevated on monocytes and neutrophils of FM patients. A bias toward lower IL-4 levels was observed in FM patients. Based on studies showing differences in glucocorticoid receptor (GR) affinity and disturbances associated with loss of hypothalamic-pituitary-adrenal (HPA) axis resiliency in FM, it was hypothesized whether FM would be associated with abnormalities in glucocorticoid sensitivity. Total plasma cortisol and salivary free cortisol were quantified by ELISA and time-resolved fluorescence immunoassay, respectively. GR sensitivity through DEX inhibition of IL-6, in stimulated whole blood, was evaluated after cytokine quantification by ELISA. The corticosteroid receptors, GR alpha and mineralocorticoid receptor (MR), as well as the glucocorticoid-induced leucine zipper (GILZ) and the FK506 binding protein 5 mRNA expression were assessed in PBMCs by real-time reverse transcription-polymerase chain reaction (RT-PCR). Furthermore, sequencing of RT-PCR products and/or genomic DNA was used for mutational analysis of the corticosteroid receptors. We observed lower basal plasma cortisol levels (borderline statistical significance) and a lower expression of corticosteroid receptors and GILZ in FM patients when compared to healthy controls. The minor allele of the MR single nucleotide polymorphism (SNP) rs5522 was found more often in FM patients than in controls. In addition, female carriers of this SNP seemed to have reduced salivary cortisol responses to a strong psychological stressor (Trier Social Stress Test) compared to non-carriers. FM patient carriers of an MR intronic SNP (rs17484245), before exon 3, were associated with significantly higher scores of depression symptoms compared to patient non-carriers. The thesis includes also a comprehensive analysis of the complexity of GR regulation and the role of alternative mRNA splicing. It focuses on the differential expression of the untranslated GR first exons, their high sequence homology among different species and how genetic determinants, without apparent relevance, may have implications in health and disease. In FM patients, GR exon 1-C expression was found lower and a significant difference was observed when comparing GR 1-C expression between antidepressant-free and patients who had taken antidepressants until two weeks before sample collection. In summary, the study shows a slight disturbance of some components of the innate immune system of FM patients and suggests an enhanced adhesion and possible recruitment of leukocytes to inflammatory sites. The reduced expression of corticosteroid receptors and possibly the reduced MR function may be associated with an impaired function of the HPA axis in these patients. A hyporesponsiveness of the HPA axis under stress or disturbances of the stress response could make these patients more vulnerable to cytokines and inflammation which, compounded by lower antiinflammatory mediators, may sustain some of the symptoms that contribute to the clinical picture of FM.
Die Dissertation behandelt die Sakralarchitektur Triers des 13. und 14. Jahrhunderts, die mit Ausnahme der Liebfrauenkirche in der bisherigen Forschung keine ausreichende Würdigung erfahren hat. In Trier werden drei Rezeptionsstränge gotischer Architektur ins Reich deutlich: Nach der anfäng-lichen Übernahme einzelner Neuerungen aus dem zisterziensischen Architekturkreis und der Aneignung einzelner Strukturen werden schließlich ganze Konzepte rezipiert. Das Zisterzienserkloster Himmerod kann entgegen der bisherigen Forschungsmeinung nicht als Auslöser des gotischen Baubooms in Trier gelten - keinerlei Quellen weisen darauf hin. Um 1221 beginnen die in Stadt gelangten Dominikaner und Franziskaner, später die Augustiner-Eremiten und Karmeliter mit dem Bau ihrer Kirchen, die neben der champagnesischen Baugruppe eine eigenständige Bautengruppe bilden. Bettelordenarchitektur verdeutlicht eine ordensinterne Repräsentationsstrategie, die sich in der Ablehnung des Hauptbaus der champagnesischen Baugruppe - der Liebfrauenkirche - zeigt und die auf der Wiedererkennung als Bettelordenkirche in einem Stadtgefüge basiert. So ist die Sakralarchitektur Triers das Ergebnis unterschiedlicher Repräsentationsbedürfnisse des Erzbischofs bzw. der Bettelorden. Trier muss aufgrund der enormen und frühen Bautätigkeit als frühgotisches Zentrum des Reiches gelten.
In der Arbeit wird untersucht, wie die EU mit Diversität umgeht, wie sich entsprechende Maßnahmen in der Personalpolitik der verschiedenen europäischen Behörden niederschlägt und welche Auswirkungen dies hat. Es wird herausgearbeitet, dass die EU als Institution einige Spezifika aufweist, die diese Frage beeinflussen und die bei einer Beurteilung Berücksichtigung finden müssen. So ist die EU verpflichtet, die Vielfalt der Mitgliedstaaten in den eigenen Institutionen abzubilden. Eine Besonderheit ist auch, dass die Effizienz der Organisation " und damit auch der mögliche Wert von Diversity Management (DiM) " mangels marktinduzierter Kriterien schwer zu bestimmen ist. Die Arbeit gliedert sich in vier Teile. Nach einer überblickartigen Einführung (Teil A) werden in Teil B der Anspruch von DiM und dessen Vor- und Nachteile dargestellt. Als Bezugspunkt für erfolgreiches DiM werden einige Beispiele aus deutschen Großunternehmen angeführt, wo DiM eine relativ bedeutende Rolle spielt. Die Einschätzung, was diese Erfahrungen für die EU bedeuten könnten, schließt den Teil B ab. Dabei werden die Besonderheiten einer Behörde, die durch starke rechtliche Regelungen gebunden ist und für die es kaum eindeutige Effizienzkriterien gibt, besonders hervorgehoben. Der Teil C enthält die empirischen Recherchen, die angestellt wurden. Dazu werden zunächst das Weißbuch des Kinnock Reports und das Statut für die Beamten der Europäischen Gemeinschaften von 2004 ausführlich dargestellt und anschließend gewürdigt. Es stellt sich heraus, dass bei einzelnen Personalmaßnahmen bereits weitgehende Öffnungen und Flexibilitäten vorgesehen sind, die sich unmittelbar zur Implementierung von DiM anbieten. Im Weiteren wurde ein leitender Mitarbeiter des Europäischen Parlaments zu dem Statut ausführlich interviewt. Die Ergebnisse verleihen den vorher geschilderten Regelungen des Statuts Farbe und vermitteln dem Außenstehenden ein lebendiges Bild vom Innenleben einer solchen Behörde. Die Einschätzung der neuen Regelungen durch den Interviewten ist zwar differenziert, aber insgesamt ergibt sich doch ein positives Bild der personalpolitischen Maßnahmen im Hinblick auf die mögliche Implementierung von DiM. Die zweite wesentliche empirische Quelle der Arbeit sind Publikationen der EU selbst zu Problemen der Diversität, Diskriminierung und verwandten Themen. Die dazu erschienenen Broschüren geben Auskunft darüber, welche Ansichten die Mitarbeiter zu Bestrebungen um Diversität und Chancengleichheit äußern, welche Aktionen die EU plant und welche Erfolge man sich erhofft. Die Prüfung dieser Unterlagen ergibt, dass in einer solchen Organisation die Integration von Minderheiten weit fortgeschritten ist und Vorurteile und offene Diskriminierungen weitgehend fehlen. Jedoch werden Umsetzungsprobleme der Maßnahmen zur Chancengleichheit der Geschlechter, zur work-life balance, zur Respektierung von Behinderungen oder sexuellen Orientierungen konstatiert. Um die geschilderten Maßnahmen zu beurteilen, werden sie mit entsprechenden Entwicklungen der im zweiten Teil der Arbeit beschriebenen privatwirtschaftlichen Organisationen, die als Vorreiter des DiM in Europa angesehen werden können, verglichen. In einem weiteren Schritt sollten die Einschätzung der Mitarbeiter zu Diversität und zu den vorher beschriebenen Maßnahmen ergründet werden. Die ins Auge gefasste repräsentative Befragung konnte trotz anfänglicher Ermutigung in einer Behörde der EU, dem Europäischen Parlament (EP), nicht durchgeführt werden, da die EU-Behörden eine offizielle Unterstützung der Untersuchung und damit den Zugang zu anderen Interviewpartnern nicht zustimmten. Daher beschränkte sich die Befragung auf Mitarbeiter, die sich nach Ansprache durch einige leitende Beamte zur Beantwortung gleichsam als Privatpersonen zur Ausfüllung des Fragebogens bereit erklärten. Die Befragung hat also keinerlei repräsentativen, sondern rein explorativen Charakter. Im Teil D der Arbeit wird eine Gesamtbewertung der Recherchen abgegeben. Es wird konstatiert, dass zwar eine Menge an Einzelinitiativen und -maßnahmen in den Behörden der EU zu finden ist, dass aber mit einem übergreifenden Konzept des DiM diese Aktionen koordiniert und in ihrem Nutzen verstärkt werden könnten.
In der vorliegenden Arbeit wurden die regulatorischen Regionen der Gene für den Kaliumchloridtransporter 3 (KCC3, SLC12A6) und den Glukokortikoidrezeptor (NR3C1) untersucht. Hierbei handelt es sich um Gene, die bereits mit psychiatrischen Erkrankungen assoziiert worden sind. Die Promotorregionen beider Gene wurden in Abhängigkeit von bereits in der Literatur beschriebenen DNA-Polymorphismen und unter besonderer Berücksichtigung epigenetischer DNA-Modifikationen mittels bisulfitspezifischer Sequenzierung und Luciferase-Assay funktionell charakterisiert. Es konnte gezeigt werden, dass DNA-Polymorphismen und epigenetische Veränderungen der Erbinformation - letztere können in Abhängigkeit unterschiedlicher Lebenserfahrungen entstehen - funktionelle Relevanz für die Promotoraktivität der untersuchten Gene haben. Strukturelle und modifikatorische DNA-Variationen sowie Gen-Umwelt Wechselwirkungen beeinflussen somit die Genregulation und können unter bestimmten Bedingungen krankheitsrelevant werden.
In this thesis, we investigate the quantization problem of Gaussian measures on Banach spaces by means of constructive methods. That is, for a random variable X and a natural number N, we are searching for those N elements in the underlying Banach space which give the best approximation to X in the average sense. We particularly focus on centered Gaussians on the space of continuous functions on [0,1] equipped with the supremum-norm, since in that case all known methods failed to achieve the optimal quantization rate for important Gauss-processes. In fact, by means of Spline-approximations and a scheme based on the Best-Approximations in the sense of the Kolmogorov n-width we were able to attain the optimal rate of convergence to zero for these quantization problems. Moreover, we established a new upper bound for the quantization error, which is based on a very simple criterion, the modulus of smoothness of the covariance function. Finally, we explicitly constructed those quantizers numerically.
Der Handlungsspielraum der deutschen Außen- und Sicherheitspolitik hat sich mit dem Wegfall der systemischen Zwänge des Kalten Krieges und der letzten formalen Souveränitätsbeschränkungen nach 1990 erhöht. Zugleich bewahrheitete sich die von einigen neorealistischen Beobachtern vertretene Befürchtung nicht, Deutschland könne nun seine Bindungen im Rahmen der euro-atlantischen Sicherheitsinstitutionen aufgeben und fortan einen unilateraleren sicherheitspolitischen Kurs einschlagen. Stattdessen unterstrichen alle Bundesregierungen die weiterhin zentrale Bedeutung der NATO für die deutsche Sicherheitspolitik. Auf der Grundlage dieser beiden Beobachtungen " dem erweiterten Handlungsspielraum und dem fortdauernden deutschen Bekenntnis zur NATO " kann die Erwartung formuliert werden, dass Deutschland den zu Beginn der 1990er Jahre neu einsetzenden Transformationsprozess der Allianz aktiv und mit eigenen Impulsen begleitet hat und entsprechende Initiativen unternahm. Ein erster Blick auf die sicherheitspolitische Praxis enttäuscht diese Erwartungen jedoch. Lediglich im Zusammenhang mit der ersten Osterweiterung wurde der deutschen Bundesregierung (und insbesondere dem früheren Verteidigungsminister Volker Rühe) eine gestaltende Funktion zuerkannt, während sie im Bereich des militärischen Krisenmanagements in der Regel als Bremser qualifiziert wurde. Auch im Zusammenhang mit der globaleren Ausrichtung der NATO nach dem 11. September 2001 scheint die Bundesrepublik Deutschland sich über weite Strecken eher den Vorgaben des amerikanischen Bündnispartners angepasst zu haben, als dass sie den Prozess aktiv mitgestaltete. Die vorliegende Arbeit untersucht vor diesem Hintergrund den Gestaltungswillen der deutschen NATO-Politik von 1991 bis 2005 in den zentralen Bereichen der NATO-Osterweiterungen, des militärischen Krisenmanagements und der Antiterrorpolitik nach dem 11. September 2001. Trifft das Urteil weitreichender deutscher Passivität zu oder lassen sich differenziertere Handlungsmuster identifizieren? Wie lassen sich diese Handlungsmuster erklären? Zur Bearbeitung der Fragestellung wird ein Analyserahmen entwickelt, dem das spezifische deutsche Funktionsverständnis gegenüber der NATO als Institution zugrunde liegt. Die institutionalistische Theorie in den Internationalen Beziehungen hat ein Spektrum allgemeiner und spezifischer Funktionen entwickelt, welche die europäischen Sicherheitsinstitutionen aus Sicht ihrer Mitgliedstaaten erfüllen sollen. An dem einen Ende dieses Spektrums steht die allgemeine und primär nach innen gerichtete Funktion. Sie zielt auf die kooperative Sicherheit im Sinne der gegenseitigen Beeinflussung und Einbindung der Mitgliedstaaten ab. Dagegen handelt es sich bei der militärischen Interventionsfähigkeit um eine in erster Linie nach außen gerichtete, die militärische Handlungsfähigkeit der NATO betreffende spezifische Funktion. Zwar umfasst dieses Spektrum nicht ausschließlich Entweder-Oder-Kategorien. Allerdings stehen allgemeine und spezifische Funktionen vor dem Hintergrund begrenzter finanzieller Ressourcen sowie unterschiedlicher Anforderungen an die NATO-Strukturen (beispielsweise im Sinne der Exklusivität vs. Inklusivität) in einem Spannungsverhältnis. Somit werden die Mitgliedstaaten der Allianz die verschiedenen Funktionen der NATO unterschiedlich gewichten. Auch der deutschen Politik liegt ein spezifisches Funktionsverständnis zugrunde, welches durch innenpolitische, z.T. kulturell und historisch geprägte, Faktoren bestimmt wird. Das Ziel der Arbeit ist es, den Gestaltungswillen der deutschen Politik im NATO-Transformationsprozess nach dem Ende des Kalten Krieges nachzuzeichnen und das dieser Politik zugrunde liegende Funktionsverständnis von institutioneller Kooperation zu analysieren. Dem erkennbaren Bestreben der Bundesregierungen auch nach 1990, die Institution NATO zu erhalten, zu stärken und schließlich auch um neue Mitglieder zu erweitern steht dabei eine zögerliche Haltung gegenüber dem militärischen Krisenmanagement und der Schaffung der militärischen Voraussetzungen zur Umsetzung der gemeinsamen Ziele gegenüber (Verteidigungshaushalt, Bundeswehrreform). Die Arbeit kommt zu dem Schluss, dass sich dieser scheinbare Widerspruch mit dem deutschen Funktionsverständnis erklären lässt, welches der kooperativen Sicherheit einen deutlich höheren Stellenwert einräumt als der militärischen Interventionsfähigkeit.
Vor dem Hintergrund mehrerer Jahrhunderthochwasser im letzten Jahrzehnt werden Aspekte des präventiven (dezentralen) Hochwasserschutzes diskutiert. Dabei wird die gegenwärtige Intensität der Landnutzung mit einem verringerten Retentionsvermögen der Landschaft in Verbindung gebracht; in Extensivierungsmaßnahmen wird ein entsprechendes Potenzial zur Vermeidung von Hochwasserrisiken gesehen. Dabei ist zu beachten, dass einerseits hydrologische Simulationsmodelle zur Bewertung möglicher Landnutzungsszenarien eingesetzt werden, andererseits aber auf wissenschaftlicher Seite Defizite beim grundlegenden Erkenntnisstand über die Abflussbildung zu konstatieren sind. Der Fokus der vorliegenden Arbeit lag auf der grundlegenden Prozessforschung zur Abflussbildung in der Mikroskale und griff methodisch die Forderung nach mehr Erkenntnissen aus Geländeuntersuchungen auf. Hierzu wurden Beregnungsversuche und bodenkundliche Untersuchungen in zwei unterschiedlichen Einzugsgebieten der Trier-Bitburger Mulde durchgeführt, wodurch die substratbedingten dominanten Abflussbildungsprozesse identifiziert werden konnten. Bei dem schluffig-sandigen Substrat war die hohe texturbedingte Grobporosität für die Tiefensickerung entscheidend. Für das lehmig-tonige Substrat hingegen waren laterale Fließprozesse entlang von Regenwurmröhren über dichten Unterböden charakteristisch. Die Landnutzung führte zur Modifikation des substratspezifischen Abflussprozesses, indem sie vor allem Einfluss auf die Infiltrationseigenschaften der Bodenoberfläche nahm. Die hohe Verschlämmungsneigung des schluffig-sandigen Substrates führte zu Oberflächenabfluss unter Ackernutzung. Auf extensiv genutzten Grünlandstandorten hatte ein dichtes Geflecht von Feinwurzeln, abgestorbener Blattbiomasse und Moosen eine deutliche Reduktion der Infiltration zur Folge, so dass Oberflächenabfluss als dominanter Prozess auftrat. Auch Wälder verfügen nicht unweigerlich über ein großes Retentionsvermögen, wenn sie auf Ungunststandorten verbreitet sind. Auf dem untersuchten lehmig-tonigen Substrat wiesen die flachgründigen Waldstandorte die höchsten Abflusskoeffizienten an Subsurface Flow auf. Um die Abflussprozesse eines Landschaftsausschnittes zu charakterisieren, wurden quantifizierbare Kriterien zur flächendistributiven Ausweisung dominanter Einflussfaktoren auf die Abflussprozessbildung in einem Entscheidungsbaum zusammengefasst. Hierdurch können räumlich homogene Einheiten von hydrologischen Prozessen oder Komponenten des Wasserhaushaltes ausgewiesen werden. Die Identifikation von Abflussprozessen am Ort ihrer Entstehung ermöglicht die Planung flächenbezogener Maßnahmen des dezentralen Hochwasserschutzes
Die Renaissance und die frühe Neuzeit sind entscheidende Phasen für die Entstehung der modernen Naturwissenschaften " und weisen gleichzeitig Merkmale auf, die zunächst ganz und gar nicht wissenschaftlich erscheinen. Dies gilt insbesondere für die Weltbilder, denen die Forscher dieser Zeit verhaftet waren und für die Methoden, mit denen sie zu wissenschaftlichen Erkenntnissen gelangten. Nachvollziehen lässt sich dieser Befund bei Paracelsus, Robert Boyle und Isaac Newton. Sie alle haben die Wissenschaft vorangetrieben und ihr zu neuen Einsichten verholfen. Ihre Vorgehensweise war dabei weder einheitlich noch im heutigen Sinne streng wissenschaftlich " es genügt zu sagen, dass alle drei sich ernsthaft mit der Alchemie beschäftigt haben. Der Alchemie liegt eine ganz andere Weltanschauung zugrunde als der sich entwickelnden modernen Naturwissenschaft: Magische Wechselwirkungen, Entsprechungen und Ähnlichkeiten sowie Kräfte wie Sympathien und Antipathien sind unumstrittene Grundelemente. Das Weltbild der modernen Naturwissenschaften wird dagegen zunehmend mechanisiert und quantifiziert " mit dem Ziel, alles auf rein mechanische Wechselwirkungen zwischen den atomaren Bausteinen der Materie zu reduzieren. Die naturwissenschaftlichen Erklärungen und Hypothesen, die innerhalb dieser beiden unterschiedlichen Weltbilder entstanden sind, waren demzufolge grundsätzlich voneinander verschieden. Gleiches gilt für die Methoden, die jeweils als adäquate Mittel des Erkenntniserwerbs akzeptiert wurden. Die Beurteilung von Forschern, die sich mit Alchemie beschäftigt haben, ist daher nicht immer einfach. Gerade das Verhältnis von alchemistischer und anerkannt wissenschaftlicher Forschung verlangt eine differenzierte Untersuchung. Wie kann man sowohl Newtons Interesse für Alchemie als auch seinen quantitativ-mathematischen Erkenntnissen Rechnung tragen und dennoch zu einem einheitlichen Bild kommen? Müssen beide Bereiche getrennt betrachtet werden " und damit eindeutig in "wissenschaftlich" und "unwissenschaftlich" geschieden werden " oder kann es sein, dass sich beides gegenseitig befruchtet hat? Die vorliegende Dissertation versucht zu zeigen, dass der eigentümliche weltanschauliche und methodologische Pluralismus der Renaissance und der frühen Neuzeit die Wissenschaft in vieler Hinsicht bereichert hat. So verschieden die zur Debatte stehenden Weltbilder waren, so reich war auch das Repertoire an unterschiedlichen Erfahrungstatsachen, Erklärungsmustern, theoretischen Begriffen und wissenschaftlichen Methoden, das sie zur Verfügung stellten. In diesem Sinne lässt sich feststellen, dass Paracelsus, Boyle und Newton nicht wissenschaftliche Erfolge erzielten, obwohl sie Alchemisten waren, sondern auch weil sie es waren.
The human brain is characterised by two apparently symmetrical cerebral hemispheres. However, the functions attributed to each half of the brain are very distinct with a relative specialisation of the left hemisphere for language processing. Most laterality research has been performed on a behavioural level, using techniques such as visual half-field presentation. The visual half-field technique involves the presentation of stimuli in the left or right visual field for a very short time (about 200 ms). During the presentation of lateralized stimuli, the gaze of the participants is fixated on a centrally presented fixation cross. This technique takes advantage of the anatomy of the visual pathway as the temporal hemiretinae project ipsilateral, while the nasal hemiretinae project contralateral. Thus, stimuli presented in the left or right visual field are initially processed in the contralateral hemisphere. Language organisation can also be directly investigated using functional magnetic resonance imaging (fMRI). Both behavioural and neuroimaging studies showed that about 95% of right-handed men have a left hemispheric specialisation for language. In contrast, data on language organisation in women are ambiguous. It is supposed that this ambivalent picture might be associated with changes in gonadal steroid levels in blood during the menstrual cycle. However, gonadal steroid effects are complex and their role in functional cerebral lateralization is still open to discussion. The aim of this PhD project was to investigate, using fMRI: (1) the processing of linguistic information initially received in the specialised, non-specialised or both hemispheres; (2) linking the associated brain activation pattern with progesterone levels during the menstrual cycle. Firstly, brain activation was measured in 16 right-handed, healthy males during processing of different components of language (orthography, phonology and semantics) after reception in the left, right or both hemispheres. Secondly, to investigate changes in language organisation during the menstrual cycle, we conducted an event-related fMRI study during semantic and phonological processing also using visual half-field and central presentation of linguistic stimuli. Our results revealed higher BOLD signal intensity change in the visual cortex contralateral to the visual field of stimulus presentation compared to the ipsilateral visual cortex reflecting the crossing of visual pathways. We also found support for the hypothesis that the superiority of word recognition in the left VWFA is the result of a reduced activity in the right VWFA under left hemispheric control. Further, linguistic information received in the subdominant RH, is interhemispheric transferred to the left hemisphere for phonological processing. Semantic processing in contrast occurs in the specialised and in the non-specialised hemisphere. For the group of women, data analysis revealed that during semantic processing, salivary progesterone levels correlated positively with brain activity of the left superior frontal gyrus, left middle and inferior occipital gyri and bilateral fusiform gyrus. In contrast, the brain activation pattern for phonological processing did not change significantly across the menstrual cycle. In conclusion, the effect of serum progesterone levels on brain activity is task and region specific.
In der vorliegenden Dissertation wurde Belohnungssensitivität mit Spielverhalten und elektrophysiologischen Korrelaten wie dem Ruhe-EEG und ereigniskorrelierten Potenzialen auf Feedback-Reize in Verbindung gebracht. Belohnungssensitivität ist nach der zugrundeliegenden Definition als Konstrukt mit mehreren Facetten zu verstehen, die eng mit Extraversion, positiver Affektivität, dem Behavioral Activation System, Novelty Seeking, Belohnungsabhängigkeit und Selbstwirksamkeit assoziiert sind. Bei der Untersuchung einer spezifischen Spielsituation, in der 48 gesunde Studentinnen durch eigene Entscheidungen Belohnungen erhalten konnten, zeigte sich, dass das Spielverhalten mit den während des Spiels erfassten ereigniskorrelierten Potentialen (hier: FRN (feedback related negativity)und P300) auf die Belohnungssignale in Form eines Feedbacks korreliert. Belohnungssensitive Personen zeigen tendenziell nach einem Gewinn-Feedback eine weniger negative FRN-Amplitude, die wiederum positiv mit der gewählten Einsatzhöhe assoziiert ist. Auch die Amplitude der P300 scheint mit dem Spielverhalten zusammenzuhängen. So zeigte sich ein positiver Zusammenhang zwischen typisch belohnungssensitivem Verhalten und der mittleren Amplitude der P300: Gewinne gehen mit einer größeren P300-Positivierung und schnelleren Entscheidungen im Spiel einher. Dagegen konnte weder das Spielverhalten noch die über diverse Fragebögen erfasste Ausprägung der Belohnungssensitivität in der kortikalen Grundaktivierung im Ruhezustand einer Person abgebildet werden. Die vorliegenden Ergebnisse deuten darauf hin, dass Belohnungssensitivität ein Persönlichkeitsmerkmal ist, das sich sowohl im Verhalten, als auch in der elektrokortikalen Aktivität in belohnungsrelevanten Situationen widerspiegelt.
Im 18. Jahrhundert manifestierte sich ein grundlegendes Kennzeichen moderner Kunst: ihr Öffentlichkeitsanspruch. Dessen diskursiven Verdichtungen konkretisierten sich in der zeitgenössischen Kunsttheorie und -literatur, in der Kunstkritik, in Beschreibungen und bildlichen Darstellungen, und ebenso in vielfachen impliziten Strategien zur Adressierung bildender Kunst. In der Entstehung der Kunstausstellung, der Kunstkritik, dem Wandel des Patronagesystems und den damit verbundenen Kommunikationsstrategien bildender KünstlerInnen wird nicht nur eine historisch reale Figur beschrieben, sondern zugleich ein imaginäres Konstrukt entworfen: das Kunstpublikum. Am Beispiel zweier bedeutender Kunstzentren des 18. Jahrhunderts, Paris und London, wird der Umgang mit dieser neuen Öffentlichkeit in der bildenden Kunst, Kunstliteratur und Ausstellungspraxis verfolgt. Tatsächlich ist die Anrede des "enlightened public" oder "public éclairé" allgegenwärtig, doch ist es oft schwierig, die Grenzen zwischen höflicher Leerformel, Euphemismus und Ironie richtig zu lesen. Das Sprechen über Öffentlichkeit ist nicht einfach eine Quelle für einen historisch-soziologischen Wandel, sondern stellt ein Symptom der zunehmenden Emphatisierung des Öffentlichkeitsbegriffs im Zuge der Aufklärung dar. Dabei ist das "Publikum" auch eine Konstruktion, die Leerstellen auffüllen muss, und der ihm zugewiesene Platz wechselt immer wieder. Die Formierung des Öffentlichkeitsbegriffs geschah nicht nur als Prozess der Öffnung, sondern auch der Abgrenzung. Ebenso bedeutend wie die positiven Formulierungen sind die negativen Zerrbilder des Publikums, die im 18. Jahrhunderts vielfach entwickelt werden. Am Beispiel zweier solcher Negativbilder, des "Connaisseurs" und der "multitude" werden die Verbindungen zur ästhetischen Theorie untersucht. Traditionelle Öffentlichkeitstheorien hinterlassen noch weit in das 18. Jahrhundert hinein ihre Spuren. Dies führt zu Begrifflichkeiten, die nicht emanzipatorisch oder demokratisch geprägt sind und zu einem Verständnis von Öffentlichkeit, das nicht nur prinzipiell kritisch oder widerständig, subversiv oder oppositionell gedacht werden kann, sondern mit jeder Öffnung auch eine Schließung unternimmt. Das "Kunstpublikum" entwickelt sich in einem konfliktreichen Prozess, in dem sich die Zugangsberechtigungen zur Institution Kunst immer wieder verändern und neu ausdifferenzieren.
As a target for condemnation, the thematic prevalence of racism in African American novels of satire is not surprising. In order to confront this vice in its shifting manifestations, however, the African American satirist has to employ special techniques. This thesis examines some of these devices as they occur in George Schuyler- Black No More, Charles Wright- The Wig, and Percival Everett- Erasure. Given the reciprocity of target and technique in the satiric context, close attention is paid to how the authors under study locate and interrogate racism in their narratives. In this respect, the significance of anti-essentialist Marxist criticism in Schuyler- Black No More and the author- portrayal of the society of his time as capitalist machinery is examined. While Schuyler is concerned with exposing the general socioeconomic workings of the 1920s from a Marxist perspective, Wright offers the reader perspective into how this oppressive machinery psychologically manipulates and corrupts the individual in the historic context of Lyndon B. Johnson- political vision of the Great Society. Everett then elaborates on the epistemological concern which is traceable in Wright- work and addresses the role media representation plays in manufacturing images and rigid categories that shape systematic racism. As such, the present study not only highlights the versatility of satire as a rhetorical secret weapon and thus ventures toward the idiosyncrasies of the African American novel of satire, it also makes an effort to trace the ever-changing face of racial discrimination.
Im Rahmen der Vertrauensforschung ermöglicht das handlungstheoretische Partialmodell der Persönlichkeit von Krampen (1997) eine differenzierte Betrachtung der drei Vertrauenskonstituenten, interpersonales Vertrauen, Selbstvertrauen und Zukunftsvertrauen, welche auch als Vertrauens-Trias bezeichnet werden. Diese Vertrauenskonstrukte wurden in der vorliegenden Arbeit mit der klinischen Bindungsforschung und der differenziellen Allianzforschung in Zusammenhang gebracht. Vor diesem theoretischen Hintergrund wurde in der vorliegenden klinischen Studie die prognostische Bedeutung der Vertrauenskonstituenten für den Therapieerfolg an einer diagnostisch heterogenen Stichprobe von 280 Patientinnen und Patienten im Rahmen der Routineversorgung untersucht. Dabei wurden die Vertrauenskonstituenten sowohl auf generalisierter Ebene operationalisiert als auch auf bereichsspezifischer Ebene im Rahmen der therapeutischen Beziehung. Durch Item- und Skalenanalysen konnten die Eindimensionalität, Konstruktvalidität und Änderungssensitivität der in dieser Studie realisierten generalisierten und bereichsspezifischen Facetten von Vertrauen bestätigt werden. Die Analysen zur prognostischen Bedeutung der Vertrauens-Trias für den Therapieerfolg zeigten eine bedeutsame Varianzaufklärung durch die bereichsspezifischen Vertrauensskalen. Das bereichsspezifische Zukunftsvertrauen stellte dabei den varianzstärksten Prädiktor für den Therapieerfolg dar. Darüber hinaus wurde dieser Zusammenhang von der Art des Störungsbildes moderiert und lieferte damit einen wichtigen Hinweis auf die differenzielle Indikationsstellung für die psychotherapeutische Behandlung von Patientinnen und Patienten mit psychischen Störungen.
Seit 15. Juli 2004 besteht in Form des Radfernwegs "Via Bavarica Tyrolensis" auf 228 Kilometern eine ringförmige Radfernwegeinfrastruktur südlich von München, einschließlich einer Verbindung nach Österreich hinab ins Tiroler Inntal. Das Erhebungsjahr 2006 zugrunde gelegt, wird die Via Bavarica Tyrolensis von ca. 62.000 Fahrradtouristen pro Radsaison zwischen dem 01. April und dem 31. Oktober genutzt. Den 376 im Juni 2006 auf dem Radfernweg befragten Personen zufolge gehören sie bei einem Altersdurchschnitt von 51,8 Jahren eher dem Segment der (Jung-)Senioren an und sorgen in der Summe für mindestens 1,01 Mio. Euro an Ums ätzen pro Jahr (genau genommen: pro Radsaison) am Wegesrand. Allerdings ist derzeit nur rd. jeder Achte (13%) auf der Via Bavarica Tyrolensis als mehrtägiger Radreisender unterwegs. Somit wird der Status Quo ihren eigentlichen Chancen und Potentialen bei weitem nicht gerecht. Der Anteil dieser in Bezug auf die Wertschöpfung besonders lukrativen radfahrenden Gästegruppe erscheint nämlich durchaus steigerungsfähig. Hierzu bedarf es allerdings eines größeren, für mehrtägige Radreisen attraktiveren Rahmens. Als Lösungsmöglichkeit böte sich die Integration der Via Bavarica Tyrolensis als Teilstück eines .Radfernwegs München . Verona. nach dem Dachmarkenprinzip an. Besonders ermutigend für ein solches alpen- übergreifendes Projektvorhaben ist die Tatsache, dass die Wegeinfrastruktur von München bis hinab ins tiroler Inntal bereits existiert und im Anschluss daran bis nach Südtirol bzw. Verona ebenfalls weitgehend fertig gestellt ist. Das Interesse an einer Alpenüberquerung mit dem Fahrrad wäre bei den derzeitigen Via Bavarica Tyrolensis- Fahrradtouristen jedenfalls schon in sehr großem Maße vorhanden: für etwas mehr als die Hälfte (52%) von ihnen nimmt eine Alpenüberquerung mit dem Fahrrad einen hohen Stellenwert ein, sie erachten diese Option als wichtig oder gar sehr wichtig. Als Ergebnis der SWOT-Analyse erscheint zum einen die Inwertsetzung der reichhaltigen, geschichtlichkulturellen Grundlagen sinnvoll. Zum anderen könnte sich .München . Verona. aufgrund der guten Kombinationsmöglichkeiten mit dem öffentlichen Personenverkehr als Produkt des gemäßigt-sportlichen, alpinen Komfort-Radreisens positionieren. Hierfür bedarf es zur Vernetzung aller Partner sowie zur Sicherstellung von Qualitäts- und Vermarktungsstandards einer Geschäftsstelle mit einer Finanzausstattung in Höhe von jährlich 400.000 Euro auf drei Jahre. Als Rechtsform sollte die .Europäische wirtschaftliche Interessensvereinigung. (EWIV) in Betracht gezogen werden. Dabei ist die Nutzung von Fördermitteln zu prüfen, z.B. aus dem Programmraum .Alpine Space in Interreg IV B der Europäischen Union. Gerade angesichts der aktuellen Diskussion um den Klimawandel würde damit ein sehr lukratives Tourismussegment für die beteiligten Regionen umfassend erschlossen werden . mit dem sog. Zero Emission Vehicle. Fahrrad.
The skin is continuously challenged by environmental antigens that may penetrate and elicit a skin sensitization, which can develop into allergic contact dermatitis. Medical treatment for allergic contact dermatitis is limited - in fact only acute symptoms can be cured and for secondary prevention of the disease a lifelong avoidance of the allergen(s) is necessary. Therefore, the screening of the sensitization potential of substance used in commercially available products is indispensable to prevent such diseases. Hence, risk assessment is deduced from data obtained by murine local lymph node assay predominantly, but there exists a need to develop methods capable of providing the same information that do not require the use of animals in view of legislative initiatives such as REACH (registration, evaluation, authorization of chemicals) as well as the 7th Amendment to the Cosmetics Directive (2003/15/EC). Therefore, a number of promising in silico and in vitro approaches are being developed to address this need. In vitro test systems using the response of dendritic cells, which are the key player in the elicitation process of contact dermatitis, are established, but, although these novel methods for hazard identification might find application in the context of screening, it is not clear whether these approaches are useful for the purposes of risk assessment and risk management to predict allergic potency. Therefore, it was investigated whether on the one hand in vitro generated dendritic cells from primary blood monocytes (MoDC) and on the other hand a continuous monocytic cell line, the THP-1 cells, suggested as dendritic cell surrogate, react to a presumably weak allergen. Ascaridol, predicted as one of the possible causes for tea tree oil contact dermatitis, was studied and its effects in these two in vitro skin sensitization models were explored. Thus, the surface expression of CD86, HLADR, CD54, and CD40, which are known as activation markers in both in vitro models, were measured via flow cytometry. For MoDC, an augmented CD86 and HLADR surface expression in comparison to untreated cells were determined after 24 h exposure with ascaridol. An increased CD54 and CD40 surface expression were found only in some donors. After long term incubation of 96 h, ascaridol-treated MoDC still up-regulated CD86 and additionally an augmented CD40 expression was measured in all studied donors. An enhanced CD54 expression was determined for 50 percentage of all investigated donors. Furthermore, CD80, CD83 and CD209 protein expression were up-regulated in MoDC after 96 h of ascaridol incubation. In addition, it was determined that after 24 h ascaridol-treated MoDC showed an increased capacity to uptake antigens, whereas after 96 h this capacity got lost and antigen-capturing devices were reduced in comparison to non-treated MoDC. Moreover, the cytokine release of ascaridol-treated MoDC were measured after 24 h. Tumor necrosis factor (TNF)alpha, interleukin (IL)-1beta and IL 6 secretion were determined in some donors. Furthermore, IL-8 release was clearly increased after 24 h ascaridol treatment. By the same token, THP-1 cells were analyzed after ascaridol treatment for several activation markers. We found a similar response pattern as measured in MoDC. Ascaridol induced CD86 expression as well as CD54 after 24 h incubation. Additionally, the impact of ascaridol on phosphorylation of p38 mitogen-activated protein kinase, which had been shown to be involved in increased expression of activation markers like CD86 by others, were studied via Western blot analysis. A phosphorylation of p38 was determined after 15 min of ascaridol stimulation. Moreover, an augmented CD40 and HLADR surface expression were measured in a dose-response manner after 24 h ascaridol treatment. Also similar to MoDC an enhanced IL-8 secretion after ascaridol stimulation was observed in THP-1 cells. Hence, for the first time it was shown that ascaridol has immuno-modulating effects. The obtained data from both in vitro systems, MoDC and THP-1 cells, identified ascaridol as a sensitizer. Although for both systems there remain significant challenges to overcome for potency assessment, ascaridol is presumed to be a weak sensitizer probably. Interestingly, ascaridol treatment of THP-1 cells resulted also in an increased augmentation of CD184 and CCR2, two chemokine receptors expressed on monocyte. Therefore, these data encouraged the exploration of chemokine receptors as tools in skin sensitization prediction. Consequently, the combination of chemical assays with in vitro techniques may provide a useful surrogate to animal testing for skin sensitization. Due to the continuously changing environmental conditions, it is necessary to regularly monitor and update the spectrum of sensitizers that elicit contact dermatitis. Therefore, both debated in vitro test systems will become indispensable tools.
As an interface between an individual and its environment, the skin is a major site of direct exposure to exogenous substances. Once absorbed, these substances may interact with different biomolecules within the skin. The aryl hydrocarbon receptor (AhR) signaling pathway is one mechanism whereby the skin responds to exposures, predominantly through the induction or upregulation of metabolizing enzymes. One known physiological role of the AhR in many tissues is its involvement in the control of cell cycle progression. In skin, almost nothing is known about this physiological function. Moreover, the question whether frequently used naturally occurring phenolic derivatives like eugenol and isoeugenol impact on the AhR within the skin has rarely been studied so far. Eugenol and isoeugenol are due to their odour referred to as fragrances. The ubiquitous distribution of eugenol and isoeugenol results in an almost unavoidable contact with these substances in our daily lives. Despite this fact, their molecular mechanisms of action in skin are poorly understood. There is evidence supporting the hypothesis that these substances may impact on the AhR. On the one hand, eugenol is shown to induce cytochrome P450 1A1 (CYP1A1), a well-known target gene of the AhR. On the other hand, their known anti-proliferative properties might also be mediated by the AhR, based on its physiological function. In order to proof this hypothesis, it was investigated whether eugenol and isoeugenol impact on the AhR signaling pathway in skin cells. Results revealed that eugenol as well as isoeugenol impact on the AhR signaling pathway in skin cells. Both substances caused the translocation of the AhR into the nucleus, induced the expression of the well-known AhR target genes CYP1A1 and AhR repressor (AhRR) and exhibited impact on cell cycle progression. Both substances caused an AhR-dependent cell cycle arrest in skin cells, modulated protein levels of several cell cycle regulatory proteins, inhibited DNA synthesis and thereby reduced cell numbers. The comparison of wildtype cells to AhR knockdown cells revealed an influence of the AhR on cell cycle progression in skin cells in the absence of exogenous ligands. AhR knockdown cells exhibited a slower progression through the cell cycle caused by an accumulation of cells in the G0/G1 phase of the cell cycle and a decreased DNA synthesis rate. Modulation of cell cycle regulatory proteins involved in the transition from the G0/G1 to the S phase of the cell cycle was altered in AhR knockdown cells as well. To conclude, eugenol as well as isoeugenol were able to impact on the AhR signaling pathway in skin cells. Their molecular mechanisms of action are similar to those of classical AhR ligands, although their structural characteristics strongly differ from that of these ligands. In the absence of exogenous ligands the AhR promotes cell cycle progression in many tissues and this knowledge could be expanded on skin-derived cells within the scope of this thesis.