Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (836) (entfernen)
Sprache
- Deutsch (490)
- Englisch (335)
- Mehrsprachig (7)
- Französisch (4)
Schlagworte
- Stress (37)
- Deutschland (33)
- Modellierung (18)
- Optimierung (18)
- Fernerkundung (17)
- Hydrocortison (16)
- stress (15)
- Motivation (12)
- Stressreaktion (12)
- cortisol (12)
Institut
- Psychologie (181)
- Raum- und Umweltwissenschaften (148)
- Mathematik (62)
- Wirtschaftswissenschaften (61)
- Fachbereich 4 (56)
- Fachbereich 1 (29)
- Geschichte, mittlere und neuere (28)
- Germanistik (26)
- Informatik (26)
- Kunstgeschichte (22)
Monatelange Wartezeiten auf einen ambulanten Psychotherapieplatz sind der Regelfall im deutschen Gesundheitssystem. Die Veränderung der Symptombelastung der Patienten in der Wartezeit ist bislang allerdings kaum empirisch untersucht worden. In der vorliegenden Arbeit wurden an einer Stichprobe ambulanter Psychotherapiepatienten die Ausprägungen und Veränderungen der allgemeinen psychischen Symptombelastung während der durchschnittlich sechsmonatigen Wartezeit auf den Psychotherapieplatz untersucht. Zudem wurde überprüft, mit welchen Merkmalen die Symptombelastungen zum Zeitpunkt der Anmeldung zur Therapie und zum Zeitpunkt des Erstgesprächs sowie ihre Veränderungen in der Wartezeit zusammenhängen. Die dabei untersuchten Persönlichkeitsmerkmale wurden aus theoretischen Rahmenmodellen abgeleitet. Hierzu gehören die aktionale Entwicklungspsychologie, das handlungstheoretische Partialmodell der Persönlichkeit mit der darin eingeordneten Vertrauens-Trias und das Androgynie-Modell der psychischen Gesundheit. Nach einem direkten Veränderungskriterium zeigten 48 % der Patienten in der Wartezeit keine bedeutsame Veränderung, 29 % eine Verbesserung und 23 % eine Verschlechterung. Durch die bei der Anmeldung erfassten Persönlichkeitsmerkmale konnten Verbesserungen, Verschlechterungen und gleichbleibende Symptombelastungen in der Wartezeit anhand einer multinomialen logistischen Regressionsanalyse für 60 % der Patienten korrekt vorausgesagt werden. Eine traditionelle normative Geschlechtsrollen-Orientierung stellt einen negativen Prädiktor für eine Verbesserung dar. Soziales Vertrauen konnte Verschlechterungen negativ vorhersagen. Bei Hoffnungslosigkeit handelt es sich um einen marginal negativen Prädiktor für eine Verbesserung. Ein hoch ausgeprägtes Selbstkonzept eigener Fähigkeiten ist ein positiver Prädiktor für eine Verschlechterung. Hinsichtlich der soziodemografischen und störungsbezogenen Merkmale konnten das Alter, das Geschlecht und die Anzahl der Diagnosen die Veränderungen der Symptombelastung in der Wartezeit zu 54 % korrekt vorhersagen. Das Alter ist ein positiver Prädiktor für eine Verschlechterung. Weibliches Geschlecht und die Anzahl an Diagnosen sind negative Prädiktoren für eine Verbesserung. Darüber hinaus wurden differenzierte Zusammenhänge zwischen den Persönlichkeitsmerkmalen und der Symptombelastung exploratorisch untersucht.
Stress represents a significant problem for Western societies inducing costs as high as 3-4 % of the European gross national products, a burden that is continually increasing (WHO Briefing, EUR/04/5047810/B6). The classical stress response system is the hypothalamic-pituitary-adrenal (HPA) axis which acts to restore homeostasis after disturbances. Two major components within the HPA axis system are the glucocorticoid receptor (GR) and the mineralocorticoid receptor (MR). Cortisol, released from the adrenal glands at the end of the HPA axis, binds to MRs and with a 10 fold lower affinity to GRs. Both, impairment of the HPA axis and an imbalance in the MR/GR ratio enhances the risk for infection, inflammation and stress related psychiatric disorders. Major depressive disorder (MDD) is characterised by a variety of symptoms, however, one of the most consistent findings is the hyperactivity of the HPA axis. This may be the result of lower numbers or reduced activity of GRs and MRs. The GR gene consists of multiple alternative first exons resulting in different GR mRNA transcripts whereas for the MR only two first exons are known to date. Both, the human GR promoter 1F and the homologue rat Gr promoter 1.7 seem to be susceptible to methylation during stressful early life events resulting in lower 1F/1.7 transcript levels. It was proposed that this is due to methylation of a NGFI-A binding site in both, the rat promoter 1.7 and the human promoter 1F. The research presented in this thesis was undertaken to determine the differential expression and methylation patterns of GR and MR variants in multiple areas of the limbic brain system in the healthy and depressed human brain. Furthermore, the transcriptional control of the GR transcript 1F was investigated as expression changes of this transcript were associated with MDD, childhood abuse and early life stress. The role of NGFI-A and several other transcription factors on 1F regulation was studied in vitro and the effect of Ngfi-a overexpression on the rat Gr promoter 1.7 in vivo. The susceptibility to epigenetic programming of several GR promoters was investigated in MDD. In addition, changes in methylation levels have been determined in response to a single acute stressor in rodents. Our results showed that GR and MR first exon transcripts are differentially expressed in the human brain, but this is not due to epigenetic programming. We showed that NGFI-A has no effect on endogenous 1F/1.7 expression in vitro and in vivo. We provide evidence that the transcription factor E2F1 is a major element in the transcriptional complex necessary to drive the expression of GR 1F transcripts. In rats, highly individual methylation patterns in the paraventricular nucleus of the hypothalamus (PVN) suggest that this is not related to the stressor but can rather be interpreted as pre-existing differences. In contrast, the hippocampus showed a much more uniform epigenetic status, but still is susceptible to epigenetic modification even after a single acute stress suggesting a differential "state‟ versus "trait‟ regulation of the GR gene in different brain regions. The results of this thesis have given further insight in the complex transcriptional regulation of GR and MR first exons in health and disease. Epigenetic programming of GR promoters seems to be involved in early life stress and acute stress in adult rats; however, the susceptibility to methylation in response to stress seems to vary between brain regions.
Entre stéréotypes et affirmation identitaire : quatre artistes contemporains d'Afrique occidentale.
(2007)
Die Arbeit beabsichtigt eher, die Frage der Konstruktion der Identität in der zeitgenössischen afrikanischen Kunst zur Sprache zu bringen. Wo befindet sich die Genauigkeit der Identitätsbehauptung, wenn es Identitätsbehauptung gibt? Ist es möglich, die Umrisse einer "Afrikanität", einer spezifischen Identität in der derzeitigen Kunst Afrikas einzukreisen? Das Werk von Frédéric Bruly Bouabré wird auf zwei Elementen gegründet, das es dem Sinn zugänglich machen: die Zeichnung und der Text. Die Schrift besonderes nimmt eine grundlegende Stelle in der Gesamtheit der Arbeiten von Bruly Bouabré ein. Sein ganzes Werk in der Tat konvergiert in Richtung der Forschung und der Konzeption eines zuerst afrikanischen Schriftsystems, danach universell. Bruly Bouabré stellt auf dem Konto des Fehlens einer Schrift die Niederlage der Afrikaner angesichts der Europäer. Ousmane Sow versteht den Körper als ein Gedächtnisort, ein durch das Gedächtnis geprägter Raum. Er setzt seine Werke auf den Körpern der Völker in oder schon verschwundener Löschgefahr zusammen. Das Werk von Sow ist eine Art der Rehabilitation der Völker, die die Geschichte verurteilt hat, nicht nur besiegt zu werden. Man müßte das künstlerische Konzept von Ousmane Sow in der Bewegung der Négritude eintragen, mit der es viele gemeinsame Punkte hat. Bei Romuald Hazoumé ist es also nicht erstaunlich, in seinem Werk die Spuren der vodun Religion wiederzufinden. Seine mit dem Vodou-Geist gefüllten "Kanister Masken", sind eine Metapher für die Konsumgesellschaft, aus der Hazoumé sie entnimmt und sie ihres Status als Ausschuss entledigt, um sie in den Rang von Kunstwerken zu erheben. So lädt er zum Nachdenken ein über die der Materialität beigemessenen Bedeutung und die ihr innewohnende Spiritualität. Die Malerei von Suzanne ist gewalttätig, aggressiv und gewagt, sie malt mit harten Farben (schwarz, grau, dunkelbraun und blutrot) und hat nichts mit ästhetischen oder dekorativen Erwägungen im Sinn. Wenn sie Tiere malt, dann vor allem, um die menschlichen Fehler darzustellen (Egoismus, Hochmut, Futterneid): sie sind blutig mit besorgten, gefolterten, aggressiven. Ihrem Kampf widmet sie zahlreiche Werke: dem Kampf um die (Lebens-) Bedingungen der afrikanischen Frau. Jedoch ist die Problematik einer spezifischen Identität im Bereich der Kunst, alles andere als wirklich einschlägig zu sein. Sicherlich erlaubt sie dem Künstler, der davon benutzt, sich eine Originalität zu bauen. diese Originalität ist fiktiv, und stellt sich auf Grundlagen auf, die manchmal veraltet sind, und die zu einer phantasierten Vergangenheit gehören. die Echtheit eines Kunstwerkes kann sich nicht ab der geographischen Zugehörigkeit oder von der kulturellen Zugehörigkeit des Künstlers definieren. Das Paradigma der Echtheit fälscht von Anfang die Behauptung des Künstlers (Künstlerin) und des Werkes, die Universalität herzustellen. Es scheint, daß einige Künstler von der Beharrlichkeit der exotischen Klischees, von der Folklore sich nicht täuschen lassen, daß die Kuratoren und die westliche Öffentlichkeit von ihnen erwarten. Und wenn einige sich für das Spiel eignen, ist es, um den internationalen Markt besser zu infiltrieren.
Recent non-comparative studies diverge in their assessments of the extent to which German and Japanese post-Cold War foreign policies are characterized by continuity or change. While the majority of analyses on Germany find overall continuity in policies and guiding principles, prominent works on Japan see the country undergoing drastic and fundamental change. Using an explicitly comparative framework for analysis based on a role theoretical approach, this study reevaluates the question of change and continuity in the two countries" regional foreign policies, focusing on the time period from 1990 to 2010. Through a qualitative content analysis of key foreign policy speeches, this dissertation traces and compares German and Japanese national role conceptions (NRCs) by identifying policymakers" perceived duties and responsibilities of their country in international politics. Furthermore, it investigates actual foreign policy behavior in two case studies about German and Japanese policies on missile defense and on textbook disputes. The dissertation examines whether the NRCs identified in the content analysis are useful to understand and explain each country- particular conduct. Both qualitative content analysis and case studies demonstrate the influence of normative and ideational variables in foreign policymaking. Incremental adaptations in foreign policy preferences can be found in Germany as well as Japan, but they are anchored in established normative guidelines and represent attempts to harmonize existing preferences with the conditions of the post-Cold War era. The dissertation argues that scholars have overstated and misconstrued the changes underway by asserting that Japan is undergoing a sweeping transformation in its foreign policy.
Die vorliegende Arbeit beschreibt ausgewählte Bereiche des Stadtklimas von Trier. Anhand von langjährigen meteorologischen Messreihen ist eine Bewertung der klimatologischen Gegebenheiten für das Stadtgebiet von Trier möglich. Trenduntersuchungen der Datenreihen des Niederschlags zeigen positive Niederschlagstrends für die meteorologischen Wintermonate. Die Intensität der urbanen Wärmeinsel der Stadt Trier wurde mittels mehrerer Temperaturmessfahrten untersucht und bewertet. Es treten in den Wintermonaten maximale Differenzen von bis zu 5,5 -°C zwischen dem unbebauten Umland und den Innenstadtbereichen auf. Von der erhöhten thermischen Belastung während ausgewählter Wetterlagen sind vor allem die Anwohner der Innenstadtbereiche in den Sommermonaten betroffen. Zusätzlich fand eine Bewertung der thermischen Belastung mittels verschiedener thermischer Indizes statt. Die Auswertungen von Klimaprojektionen für den Untersuchungsraum zeigen eine starke Zunahme der thermischen Belastung ab Mitte des 21. Jahrhunderts. Die Auswirkungen des Sommers 2003 auf die Bevölkerung von Trier wurde anhand von Mortalitätsdaten von JUNK ET AL. (2007) analysiert. Die Kosten des Klimawandels (Temperaturzunahme bis 2100 um 4,5 -°C) in den kommenden 50 Jahren beziffert eine Studie des Deutschen Institutes für Wirtschaftsforschung auf rund 80 Milliarden Euro für Rheinland-Pfalz. Auch wenn diese Abschätzungen mit starken Unsicherheiten behaftet sind, so wird dringender Handlungsbedarf deutlich. Vor dem Hintergrund des Klimawandels und der zunehmenden Urbanisierung muss sich auch im Bereich der Stadtplanung und der Verwaltung von urbanen Agglomerationsräumen das Prinzip der Nachhaltigkeit in allen Skalenbereichen durchsetzen. Übertragen auf den Bereich der Stadtklimatologie heißt das, dass dies auf die Ressourcen saubere Luft, angemessener Flächen- und Energieverbrauch verbunden mit Luft-schadstoffemissionen, Recht auf Mobilität usw. übertragen werden muss. Im Vordergrund steht dabei eine Entkopplung des Ressourcenverbrauchs von dem wirtschaftlichen Wachstum durch technische Innovation, effizientere Technologien und verändertes individuelles Verhalten. Bezüglich der lufthygienischen Situation im Stadtbereich von Trier konnten Partikel und Stickoxide als wichtige Schadstoffe identifiziert werden. Da die Auswertungen der Luftschadstoffe auf die Datensätze des ZIMEN-Messnetzes beschränkt sind, können keine Aussagen über Inhaltsstoffe von Partikeln getroffen werden. Für die untersuchten Luftschadstoffe CO, SO2, NOx, O3 und PM10 treten in den letzten Jahren keine Grenzwertüberschreitungen auf, jedoch liegen die gemessenen Werte nur geringfügig unter diesen und überschreiten teilweise die unteren- und oberen Beurteilungsschwellen. Die Auswertungen des wirkungsbezogenen Luftqualitätsindex DAQx zeigen, dass in der Mehrheit der Fälle Feinstaub der bestimmende Luftschadstoff ist. Die Analyse der mittleren Mortali-tätszahlen zeigt, das bei DAQx-Werten > 4,0 (ausreichende Luftqualität) die Anzahl der täglichen Mortalitätsfälle über den Durchschnitt von 5,74 Fällen pro Tag steigt. Der Klimawandel wird auch direkte Auswirkungen auf die Luftschadstoffbelastung haben. Dies geschieht über die Veränderung der Windverhältnisse, Änderungen in der Höhe der Mischungsschicht sowie Änderungen in der Frequenz und Zugbahn von Tiefdruckgebieten. Veränderte Niederschlagsmuster beeinflussen die nassen und trockenen Depositionsraten, und die prognostizierte Temperaturerhöhung beeinflusst die chemischen Bildungs- und Abbauprozesse in der Atmosphäre, sowie die natürlichen Emissionsquellen. Der Einfluss des zu erwartenden Temperaturanstieges auf die Ozonkonzentrationen in urbanen Gebieten lässt sich gut einschätzen, da während Episoden mit hohen Ozonkonzentrationen eine signifikante Korrelation zwischen der Lufttemperatur und der Ozonkonzentration besteht. Studien zeigen einen Anstieg der Ozonkonzentration zwischen 2 -µg/m-³ und 20 -µg/m-³ pro Grad Kelvin in Abhängigkeit des Emissionsszenarios, der verwendeten Modelle und der untersuchten Region aus. Die urbanen Ballungsräume werden von diesem Ozonanstieg stärker betroffen sein, da dort genügend Ozonvorläufersubstanzen vorhanden sind. Der Einfluss auf die Partikelkonzentrationen ist schwieriger zu beurteilen, da keine klaren Zusammenhänge zwischen der Lufttemperatur und den Partikelkonzentrationen bestehen. Insgesamt ist tendenziell mit einer Stagnation bis hin zu einer kurzzeitigen Verschlechterung der Luftqualität zu rechnen. Deswegen reicht die bereits erwähnte alleinige Berücksichtigung der thermischen Gegebenheiten in einem Warnsystem nicht aus. Es geht vielmehr um die integrative Bewertung der potentiellen Gefahrensituation für die Bevölkerung und die situationsbezogene Auslösung von Interventionsmaßnahmen und Aktionsplänen. Ein solches System wird derzeit für die Modellregion Esch-sur-Alzette in Luxemburg erstellt und wird 2011 in die Pilotphase eintreten.
Cortisol is a stress hormone that acts on the central nervous system in order to support adaptation and time-adjusted coping processes. Whereas previous research has focused on slow emerging, genomic effects of cortisol likely mediated by protein synthesis, there is only limited knowledge about rapid, non-genomic cortisol effects on in vivo neuronal cell activity in humans. Three independent placebo-controlled studies in healthy men were conducted to test effects of 4 mg cortisol on central nervous system activity, occurring within 15 minutes after intravenous administration. Two of the studies (N = 26; N = 9) used continuous arterial spin labeling as a magnetic resonance imaging sequence, and found rapid bilateral thalamic perfusion decrements. The third study (N = 14) revealed rapid cortisol-induced changes in global signal strength and map complexity of the electroencephalogram. The observed changes in neuronal functioning suggest that cortisol may act on the thalamic relay of non-relevant background as well as on task specific sensory information in order to facilitate the adaptation to stress challenges. In conclusion, these results are the first to coherently suggest that a physiologically plausible amount of cortisol profoundly affects functioning and perfusion of the human CNS in vivo by a rapid, non-genomic mechanism.
Die Europäische Union hat seit Ende des Ost-West-Konflikts 1989/90 einen dynamischen Ausbau ihrer vertraglichen und institutionellen Fundamente erfahren. Mit diesem Prozess ging zugleich eine enge Verflechtung von europäischen und nationalen Entscheidungsprozessen und politischen Arenen einher. So entwickelte sich ein zunehmend dynamischer werdendes Interaktionsverhältnis zwischen Europäischer Union, nationaler Europapolitik und Innenpolitik. Ausgehend von der These, dass die deutsche Europapolitik seit der Zäsur 1989/90 zunehmend pragmatischer, kontroverser und somit normaler geworden ist, untersucht die Arbeit diese Veränderung der deutschen Europapolitik am Beispiel zweier qualitativer Fallstudien: 1.Die Verhandlungen zum dritten mehrjährigen Finanzrahmen für die Jahre 2000 bis 2006, die sogenannte Agenda 2000. Für Deutschland als größtem Beitragszahler in der EU waren die Finanzverhandlungen von immenser Bedeutung. Denn mit der finanziellen Ausstattung der beiden größten Ausgabenblöcken, der europäischen Kohäsionspolitik und der Gemeinsamen Agrarpolitik, waren zentrale Grundsatzfragen der deutschen Europapolitik und der Rolle Deutschlands in der EU verbunden, wie zum Beispiel das bilaterale Verhältnis zum französischen Partner. 2.Der Prozess der Osterweiterung der Europäischen Union seit dem Ende des Ost-West-Gegensatzes 1989/90 von der Assoziierung der Reformstaaten in Mittel- und Osteuropa bis zum Beitritt der acht neuen Mitglieder am 1. Mai 2004. Die Ost-Erweiterung der EU war eine der wichtigsten Grundsatzentscheidungen der deutschen Europapolitik. Dieser fast 15 Jahre dauernde Prozess von 1989 bis 2004 wird in einer minuziösen Längsschnitt-Analyse nachgezeichnet und die spezifischen Interessen der zentralen politischen und gesellschaftlichen Akteure der deutschen Politik detailliert analysiert.Beide Entscheidungsprozesse beeinflussten nahezu alle Politikfelder und hatten weitreichende Konsequenzen für die innen-, wirtschafts- und sozialpolitischen Strukturen der Bundesrepublik. Damit erforderten sie sowohl eine grundsätzliche und strategische Positionierungen der deutschen Europapolitik als auch kurzfristige, auf rationalen Kosten-Nutzen-Abwägungen basierende Festlegungen zu konkreten Einzelfragen im Verlauf der Entscheidungsprozesse. Die beiden umfangreichen Fallstudien bestätigen, dass die wechselseitige Interaktion zwischen innenpolitischen Auseinandersetzungen und europäischen Entscheidungsprozessen sich verdichtet hat. Europäische Entscheidungsprozesse werden für innenpolitische Auseinandersetzungen und Debatten genutzt und häufig auch parteipolitisch polarisiert. Die Europapolitik wird zu einem Feld pragmatischer Kosten-Nutzen-Abwägungen aus begrenzten innenpolitischen oder gar parteitaktischen Kalkülen. Die Europapolitik wird unter innenpolitischen Vorzeichen politisiert und polarisiert.
Japanische Touristen in Deutschland : Analyse der Wahrnehmung der Destination Deutschland und der Kundenansprüche im interkulturellen Kontext. Auf der Angebotsseite steht die noch mittelständisch geprägte deutsche Hotellerie, mit der Tendenz einer zunehmenden Konzentration zur Groß- und Kettenhotellerie. Der japanische Kunde auf der Nachfragerseite wird aufgrund seiner kulturellen, sozialen, politischen und geschichtlichen Umgebung analysiert. Er bewegt sich in einer vorwiegend kollektivistisch und stark kontextorientierten, durch dichte Informationsnetze geprägten, maskulinen Gesellschaft. Beeinflusst durch die Lehre von Konfuzius bilden heute noch mora-lisches Handeln, Rechtschaffenheit, Höflichkeit, die Beachtung hierarchischer Beziehungen und Harmonie Handlungsgrundlage des gesellschaftlichen Lebens. Daneben hat Japan, als entwickeltes Industrieland, mit denselben Problemen wie westliche Industrienationen zu kämpfen, wie Überalterung, Wertewandel und konjunkturelle Auf- und Abschwünge. Der japanische Kunde stellt hohe Ansprüche an die Qualität des angebotenen Produktes und an den Service. Während die Hardware, z.B. die Qualität der Hotelzimmer in Deutschland positiv beurteilt wird, wird die Servicequalität hier oft als unzureichend empfunden. Dabei setzt der japanische Kunde, der an dichte Informationsnetze gewöhnt ist, viele Dinge als selbstverständlich voraus. Der Deutsche, der über diese Informationen nicht verfügt und sich stur an das Vereinbarte hält, wird als unhöflich empfunden. Als Einkaufsdestination hat Deutschland aufgrund fehlender Marken kaum Bedeutung. Japaner sind leidenschaftliche und experimentierfreudige Esser, die oft in Deutschland aufgrund der mangelnden Beachtung und Vermarktung lokaler Spezialitäten zu kurz kommen. Mittels der Methode Importance Grid konnten abgefragte Attribute in Basis-, Leistungs- und Begeisterungsfaktoren eingeteilt werden. Grundlegend und Ausschlusskriterium für einen Reiseantritt sind die öffentliche Sicherheit, die der Japaner nicht nur auf die Kriminalität sondern auch auf Lebensmittelsicherheit und Gesundheitswesen bezieht. Sehenswürdigkeiten sind wichtige Leistungsfaktoren. Das Hotelangebot, als Begeisterungsfaktor hat einen enormen Einfluss und damit großes Entwicklungspotential auf die Reisezufriedenheit. Begeisterung lösen weiterhin individuelle Begegnungen, eine originale und stimmige Atmo-sphäre und lokale Besonderheiten, aus. Der hoch kontextorientierte Japaner nimmt die Reise als Gesamterlebnis wahr und gibt seine Erinnerungen gern über Mund zu Mund Propaganda weiter. Folgereisen können sich wie ein Schneeballsystem entwickeln. Als Trends sind die zunehmende Bedeutung von Seniorenreisen, Hube-and-Spoke Reisen, Skeleton-Touren, der Furosato Trend und Honeymoonreisen zu nennen.
Das erste Beispiel einer so genannten universellen holomorphen Funktion stammt von Birkhoff, welcher im Jahre 1929 die Existenz einer ganzen Funktion beweisen konnte, die gewissermaßen jede ganze Funktion durch geeignete Translationen approximieren kann. In der Folgezeit hat sich der Bereich der "universellen Approximation" zu einem eigenständigen Gebiet innerhalb der komplexen Approximationstheorie entwickelt, und es gibt eine Vielzahl an Ergebnissen über universelle Funktionen. Hierbei wurde sich allerdings fast ausschließlich auf das Studium holomorpher und ganzer Funktionen beschränkt, insbesondere die Klasse der meromorphen Funktionen wurde bisher kaum auf das Phänomen der Universalität hin untersucht. Die vorliegende Arbeit beschäftigt sich mit universeller meromorpher Approximation, und geht der Fragestellung nach, ob meromorphe Funktionen mit gewissen Universalitätseigenschaften existieren, und ob die klassischen Ergebnisse aus der universellen holomorphen Approximation auf den meromorphen Fall erweiterbar sind. Hierbei wird zunächst zwischen Translations- und Streckungsuniversalität unterschieden und bewiesen, dass in beiden Fällen jeweils eine im Raum der meromorphen Funktionen residuale Menge an universellen Funktionen existiert. Weiterhin werden die Eigenschaften dieser Funktionen ausführlich studiert. Anschließend werden meromorphe Funktionen auf Ableitungsuniversalität hin untersucht. Hierbei wird einerseits gezeigt, dass im Allgemeinen keine positiven Ergebnisse möglich sind, während andererseits eine spezielle Klasse meromorpher Funktionen betrachtet wird, für welche universelles Verhalten der sukzessiven Ableitungen nachgewiesen werden kann.
The overall objective of this thesis was to gain a deeper understanding of the antecedents, processes, and manifestations of uniqueness-driven consumer behavior. To achieve this goal, five studies have been conducted in Germany and Switzerland with a total of 1048 participants across different demographic and socio-economic backgrounds. Two concepts were employed in all studies: Consumer need for uniqueness (CNFU) and general uniqueness perception (GUP). CNFU (Tian, Bearden, & Hunter, 2001), a mainly US"based consumer research concept, measures the individual need, and thus the motivation to acquire, use, and dispose consumer goods in order to develop a unique image. GUP, adapted from the two-component theory of individuality (Kampmeier, 2001), represents a global and direct measure of self-ascribed uniqueness. Study #1 looked at the interrelation of the uniqueness-driven concepts. Therefore, GUP and CNFU were employed in the study as potential psychological factors that influence and predict uniqueness-driven consumer behavior. Different behavioral measures were used: The newly developed possession of individualized products (POIP), the newly developed products for uniqueness display (PFUD), and the already established uniqueness-enhancing behaviors (UEB). Analyses showed that CNFU mediates the relationship between GUP and the behavioral measures in a German speaking setting. Thus, GUP (representing self-perception) was identified as the driver behind CNFU (representing motivation) and the actual consumer behavior. Study #2 examined further manifestations of uniqueness-driven consumer behavior. For this purpose, an extreme form of uniqueness-increasing behavior was researched: Tattooing. The influence of GUP and CNFU on tattooing behavior was investigated using a sample derived from a tattoo exhibition. To do so, a newly developed measure to determine the percentage of the body covered by tattoos was employed. It was revealed that individuals with higher GUP and CNFU levels indeed have a higher tattooing degree. Study #3 further explored the predictive possibilities and limitations of the GUP and CNFU concepts. On the one hand, study #3 specifically looked at the consumption of customized apparel products as mass customization is said to become the standard of the century (Piller & Müller, 2004). It was shown that individuals with higher CNFU levels not only purchased more customized apparel products in the last six months, but also spend more money on them. On the other hand, uniqueness-enhancing activities (UEA), such as travel to exotic places or extreme sports, were investigated by using a newly developed 30-item scale. It was revealed that CNFU partly mediates the GUP and UEA relationship, proving that CNFU indeed predicts a broad range of consumer behaviors and that GUP is the driver behind the need and the behavior. Study #4, entered a new terrain. In contrast to the previous three studies, it explored the so termed "passive" side of uniqueness-seeking in the consumer context. Individuals might feel unique because business companies treat them in a special way. Such a unique customer treatment (UCT) involves activities like customer service or customer relationship management. Study #4 investigated if individuals differ in their need for such a treatment. Hence, with the need for unique customer treatment (NFUCT) a new uniqueness-driven consumer need was introduced and its impact on customer loyalty examined. Analyses, for example, revealed that individuals with high NFUCT levels receiving a high unique customer treatment (UCT) showed the highest customer loyalty, whereas the lowest customer loyalty was found among those individuals with high NFUCT levels receiving a low unique customer treatment (UCT). Study #5 mainly examined the processes behind uniqueness-driven consumer behavior. Here, not only the psychological influences, but also situational influences were examined. This study investigated the impact of a non-personal "indirect" uniqueness manipulation on the consumption of customized apparel products by simultaneously controlling for the influence of GUP and CNFU. Therefore, two equal experimental groups were created. Afterwards, these groups either received an e-mail with a "pro-individualism" campaign or a "pro-collectivism" campaign especially developed for study #5. The conducted experiment revealed that, individuals receiving a "pro-individualism" poster campaign telling the participants that uniqueness is socially appropriate and desired were willing to spend more money on customization options compared to individuals receiving a "pro-collectivism" poster campaign. Hence, not only psychological antecedents such as GUP and CNFU influence uniqueness-driven consumer behavior, but also situational factors.
Aus dem Wunsch, die zentralen Prozesse im System Boden"Pflanze"Atmosphäre einschließlich der Auswirkungen verschiedener Bewirtschaftungspraktiken zu verstehen und nachzubilden, resultiert die Entwicklung verschiedener Pflanzenwachstumsmodelle. Ziel der vorliegenden Untersuchung ist zum einen, die im Realsystem auftretenden räumlichen Ertragsmuster zu identifizieren und zu charakterisieren. Mithilfe der Semivariogramm-Analyse ist eine räumliche Autokorrelation der Ertragsdaten von maximal 48 Meter abzuleiten. Die räumliche Analyse (GIS) zeigt, dass die Sommergerste ein leicht abweichendes Verhalten im Vergleich zu den Winterkulturen (Winterweizen, Winterraps) aufweist. Schließlich werden mithilfe der selbstorganisierenden Merkmalskarten die primär und sekundär für das Ertragsverhalten verantwortlichen Ursachen identifiziert. Eine abschließende hierarchische Clusteranalyse gliedert die in die Untersuchung eingehenden Standorte in vier spezifische Cluster mit charakteristischen Eigenschaften. Ein zweites Ziel ist die Klärung der Frage, ob die Pflanzenwachstumsmodelle STICS und DAISY bei entsprechender Parametrisierung in der Lage sind, das für ein detektiertes Muster charakteristische Verhalten von Pflanzenwachstum und Ertrag realitätsnah abzubilden. Den Modellanwendungen gehen eine Sensitivitätsanalyse und verschiedene Parametrisierungsansätze zur Erfassung des jeweiligen Modellverhaltens voraus. In beiden Modellen übt der Bodenwasserhaushalt einen starken Einfluss auf die Ertragsbildung aus. Des weiteren kommt in beiden Modellen den Stressfaktoren eine zentrale Bedeutung zu. Die Parametrisierung der Modelle auf der Grundlage der im Feld erhobenen Daten führt bei beiden Modellen nicht zu einem dem Realsystem entsprechenden Bild. Eine über die Sensitivitätsanalyse hinausreichende, vertiefte Modellkenntnis ist erforderlich, um die in die Modelle eingehenden Parameter bzw. deren spezifischen Einfluss auf das Modellverhalten beurteilen und interpretieren zu können. Dies betrifft insbesondere die Modellgrößen der Bodenmodule. Dieser Aspekt erschwert eine einfache räumliche Übertragung der Modelle STICS und DAISY.
Recently, optimization has become an integral part of the aerodynamic design process chain. However, because of uncertainties with respect to the flight conditions and geometrical uncertainties, a design optimized by a traditional design optimization method seeking only optimality may not achieve its expected performance. Robust optimization deals with optimal designs, which are robust with respect to small (or even large) perturbations of the optimization setpoint conditions. The resulting optimization tasks become much more complex than the usual single setpoint case, so that efficient and fast algorithms need to be developed in order to identify, quantize and include the uncertainties in the overall optimization procedure. In this thesis, a novel approach towards stochastic distributed aleatory uncertainties for the specific application of optimal aerodynamic design under uncertainties is presented. In order to include the uncertainties in the optimization, robust formulations of the general aerodynamic design optimization problem based on probabilistic models of the uncertainties are discussed. Three classes of formulations, the worst-case, the chance-constrained and the semi-infinite formulation, of the aerodynamic shape optimization problem are identified. Since the worst-case formulation may lead to overly conservative designs, the focus of this thesis is on the chance-constrained and semi-infinite formulation. A key issue is then to propagate the input uncertainties through the systems to obtain statistics of quantities of interest, which are used as a measure of robustness in both robust counterparts of the deterministic optimization problem. Due to the highly nonlinear underlying design problem, uncertainty quantification methods are used in order to approximate and consequently simplify the problem to a solvable optimization task. Computationally demanding evaluations of high dimensional integrals resulting from the direct approximation of statistics as well as from uncertainty quantification approximations arise. To overcome the curse of dimensionality, sparse grid methods in combination with adaptive refinement strategies are applied. The reduction of the number of discretization points is an important issue in the context of robust design, since the computational effort of the numerical quadrature comes up in every iteration of the optimization algorithm. In order to efficiently solve the resulting optimization problems, algorithmic approaches based on multiple-setpoint ideas in combination with one-shot methods are presented. A parallelization approach is provided to overcome the amount of additional computational effort involved by multiple-setpoint optimization problems. Finally, the developed methods are applied to 2D and 3D Euler and Navier-Stokes test cases verifying their industrial usability and reliability. Numerical results of robust aerodynamic shape optimization under uncertain flight conditions as well as geometrical uncertainties are presented. Further, uncertainty quantification methods are used to investigate the influence of geometrical uncertainties on quantities of interest in a 3D test case. The results demonstrate the significant effect of uncertainties in the context of aerodynamic design and thus the need for robust design to ensure a good performance in real life conditions. The thesis proposes a general framework for robust aerodynamic design attacking the additional computational complexity of the treatment of uncertainties, thus making robust design in this sense possible.
Die Zielsetzung der vorliegenden Arbeit war die raumdifferenzierte und skalenübergreifende Untersuchung der Hochwasserentstehungsprozesse im Frankelbach-Einzugsgebiet, das ein Beispiel eines land- und forstwirtschaftlich genutzten Kleineinzugsgebiets in Mittelgebirgen der gemäßigten Breiten ist. Eine Kernaufgabe war die Quantifizierung der Beiträge einzelner Abflusskomponenten während des Scheiteldurchflusses eines Hochwassers. Zudem sollten Zusammenhänge zwischen der Bodenfeuchtedynamik und der Abflussreaktion herausgearbeitet werden. Zur Bodenfeuchtemessung wurde ein neu entwickeltes Spatial-TDR-Messsystem eingesetzt. Im Rahmen dieses pilothaften Einsatzes war zudem die Tauglichkeit des Messsystems zu überprüfen und zu bewerten. Das im Rotliegenden gelegene 5 km2 große Frankelbachgebiet mit Jahresniederschlägen von 750 mm a-1, steil eingeschnittenen, bewaldeten Kerbtälern und ackerwirtschaftlich genutzten Hochflächen liegt zwischen 200 und 450 m ü. NN. Auf schuttführenden Sand- und Schlufflehmen, deren Genese auf periglaziale Solifluktionsprozesse zurückgeht, sind hangabwärts mächtiger werdende Braunerden zu finden. Bemerkenswert sind die zahlreichen Quellen auf gleicher Höhenlage, die teilweise als Pipequellen ausgebildet sind. Beregnungs- und Infiltrationsversuche dienten der Beurteilung der Oberflächenabflussreaktion unterschiedlich bewirtschafteter Flächen. Durch stündliche Spatial-TDR-Messungen an 13 Standorten (60 cm lange vertikal installierte Dreistabsonden) konnten Hangwasserflüsse identifiziert werden. Zwischen 2005 und 2009 wurden die Abflüsse vier geschachtelter Einzugsgebiete sowie einer Quelle in 10min-Intervallen erfasst und 87 Hochwasserereignisse analysiert. Mittels Messungen der elektrischen Leitfähigkeit und eines Zweikomponenten-Mischungsmodells wurde der Ereigniswasseranteil für die höchsten Hochwasser abgeschätzt. Ergänzend zu den Geländeexperimenten wurde ein einfaches Modell konzipiert, das eine quantitative Abschätzung der ober- und unterirdischen Wasserflüsse in einen Gewässereinschnitt erlaubt. Zum Vergleich mit 31 anderen Untersuchungsgebieten wurde eine Codierung entwickelt, die eine Einordnung sowohl hinsichtlich der Geofaktoren der Gebiete als auch bezüglich der untersuchten Hochwasserereignisse ermöglicht. Das im hanghydrologischen Forschungsbereich als eher trocken einzuordnende Frankelbachgebiet, zeigte ein jahreszeitlich sehr unterschiedliches Abflussverhalten. Während in trockenen Sommern hohe Niederschläge im Gebiet gespeichert werden, liegen die Abflusskoeffizienten für einige schneeschmelzfreie Frühjahrsereignisse über 50 %. Das höchste beobachtete Hochwasser weist einen Abflusskoeffizient von 55 % bei einer relativ niedrigen Abflussspende von 140 l s-1 km-2 auf. Die Großberegnungsversuche, die Quellabflussmessungen, die Ereignisanalysen und die Modellierungsergebnisse weisen darauf hin, dass Dauerregen- und Schneeschmelz-Hochwasser zum Großteil aus Zwischenabfluss bestehen. Hier konnten zwei Abflusskomponenten differenziert werden: (i) eine oberflächen- und gerinnenahe Komponenten, die aufgrund des hohen Ereigniswasseranteils von etwa 60 % durch präferentielles Fließen erklärt werden kann, und (ii) eine ein bis zwei Tage verzögerte tiefere Komponente, die durch unterirdische Abflusskonzentration auf stauenden Schichten generiert wird. Letztere war in den Quellabfluss- und Spatial-TDR-Messungen erkennbar, hatte jedoch an den am Pegel beobachteten Scheiteldurchflüssen nur einen sehr kleinen Anteil. Während sehr intensiver Niederschläge könnte zusätzlich der Horton'sche Oberflächenabfluss von offen liegenden, hydraulisch angeschlossenen Äckern zum Scheiteldurchfluss beitragen. Für sämtliche Spatial-TDR-Messstandorte ist von hohen Infiltrations- und Sickerraten auszugehen. Eine Aufsättigung der Standorte war nicht erkennbar, für die nassen Wintermonate liegen jedoch nur sehr wenige Spatial-TDR-Messwerte vor. Eine in einer Tiefenlinie installierte Sonde (A08) zeigte das Umschalten des Gesamtgebiets in relativ nasse Zustände an. Hier nahm die Bodenfeuchte während zwei größerer Dauerregenereignisse infolge der unterirdischen Abflusskonzentration stark zu. In der vorliegenden Arbeit wurden die einbau- und substratbedingten Unsicherheiten sowie die Schwächen des Algorithmus zur Rekonstruktion der absoluten Bodenfeuchtewerte konkretisiert. Demzufolge wurde lediglich das Spatial-TDR-Rohsignal als Indikator für die aktuelle Bodenfeuchte verwendet. Durch eine Transformation des Spatial-TDR-Signals von der Zeit auf den Sondenort können dennoch Aussagen zur relativen Änderung der Bodenfeuchte in einer bestimmten Tiefe gemacht werden können. Diese Informationen sind hinreichend genau für die Untersuchung hanghydrologischer Prozesse und für die Ableitung von Gebietsfeuchtezuständen.
Caenorhabditis elegans Modelsysteme für Freiland und Labor Caenorhabditis elegans ist eines der am intensivsten untersuchten Tiermodelle, dabei weisen die nur unzureichenden Informationen über sein ursprüngliches Habitat eine Vielzahl offener Fragen auf. Deshalb beschäftigt sich der erste Teil vorliegender Arbeit mit einer Überprüfung der Freilandökologie und Biogeographie des Taxons. Nach den Untersuchungen spricht vieles dafür, dass die Ursprungsart der C. elegans Gruppe ein Begleiter von Gastropoden war, welche auch für ihre Ausbreitung häufig verantwortlich sind. Als Folge der Verschleppung durch Wirtstiere (u.a. die Weinbergschnecke Helix aspersa) erreichte sie ihr heutiges Areal, in allen Kontinenten. Ein nicht weniger wichtiges Ziel der vorliegenden Arbeit war die Etablierung von C. elegans als Biotest-System für die Indikation von Chemikalien-Wirkungen. In dieser Arbeit wurden ein ökotoxikologisches Testsystem entwickelt mit den C. elegans als Modellorganismus, das durch Messung von umweltbedingten intrazellulär gebildeten ROS im Gesamtorganismus eine Einschätzung der biologischen Aktivität von Chemikalien und Umweltmedien ermöglichen sollte. Als grundlegender biochemischer Parameter ist eine, die Kapazität der antioxidativen Schutzmechanismen übersteigende, ROS-Bildung ursächlich für oxidative Schädigungen der Zelle verantwortlich und damit Basis für zahlreiche pathologische Effekte. Aus den Resultaten als Bewertungsgrundlage lässt sich folgern, dass sich das erarbeitete Biotestsystem als adäquates Verfahren zur Messung von oxidativem Stress, als Folge exogener Belastung, einsetzen lässt. Damit leistet es einen Beitrag zur Beurteilung des Toxizitätspotentials von Chemikalien und Umweltproben. Zur Eignung des Einsatzes von C. elegans für Toxizitätstest wurden weitere Untersuchungen mit verschiedenen Chemikalien durchgeführt. Dabei ergibt sich bezogen auf molare Einheiten eine immer gleich bleibende Reihenfolge der Sensitivitäten gegenüber BaP > Cu2+ > AcL, ein Ergebnis welches mit Testergebnissen von anderen Versuchsorganismen zu vergleichen war. Die Wirkung von Atrazin auf die Entwicklung von C. elegans wurde auch untersucht. Es wurde festgestellt, dass Atrazin auf Wachstum und Reproduktion von C. elegans konzentrationsabhängig toxisch wirkt. Die bisherigen Ergebnisse zeigen jedoch, dass das Testsystem C. elegans hervorragend geeignet ist, um Chemikalienwirkungen frühzeitig sichtbar zu machen.
The main research question of this thesis was to set up a framework to allow for the identification of land use changes in drylands and reveal their underlying drivers. The concept of describing land cover change processes in a framework of global change syndrome was introduced by Schellnhuber et al. (1997). In a first step the syndrome approach was implemented for semi-natural areas of the Iberian Peninsula based on time series analysis of the MEDOKADS archive. In the subsequent study the approach was expanded and adapted to other land cover strata. Furthermore, results of an analysis of the relationship of annual NDVI and rainfall data were incorporated to designate areas that show a significant relationship indicating that at least a part of the variability found in NDVI time series was caused by precipitation. Additionally, a first step was taken towards the integration of socio-economic data into the analysis; population density changes between 1961 and 2008 were utilized to support the identification of processes related to land abandonment accompanied by cessation of agricultural practices on the one hand and urbanization on the other. The main findings of the studies comprise three major land cover change processes caused by human interaction: (i) shrub and woody vegetation encroachment in the wake of land abandonment of marginal areas, (ii) intensification of non-irrigated and irrigated, intensively used fertile regions and (iii) urbanization trends along the coastline caused by migration and the increase of mass tourism. Land abandonment of cultivated fields and the give-up of grazing areas in marginal mountainous areas often lead to the encroachment of shrubs and woody vegetation in the course of succession or reforestation. Whereas this cover change has positive effects concerning soil stabilization and carbon sequestration the increase of biomass involves also negative consequences for ecosystem goods and services; these include decreased water yield as a result of increased evapotranspiration, increasing fire risk, decreasing biodiversity due to landscape homogenization and loss of aesthetic value. Arable land in intensively used fertile zones of Spain was further intensified including the expansion of irrigated arable land. The intensification of agriculture has also generated land abandonment in these areas because less people are needed in the agricultural labour sector due to mechanization. Urbanization effects due to migration and the growth of the tourism sector were mapped along the eastern Mediterranean coast. Urban sprawl was only partly detectable by means of the MEDOKADS archive as the changes of urbanization are often too subtle to be detected by data with a spatial resolution of 1 km-². This is in line with a comparison of a Landsat TM time series and the NOAA AVHRR archive for a study area in the Greece that showed that small scale changes cannot be detected based on this approach, even though they might be of high relevance for local management of resources. This underlines the fact that land degradation processes are multi-scale problems and that data of several spatial and temporal scales are mandatory to build a comprehensive dryland observation system. Further land cover processes related to a decrease of greenness did not play an important role in the observation period. Thus, only few patches were identified, suggesting that no large-scale land degradation processes are taking place in the sense of decline of primary productivity after disturbances. Nevertheless, the land cover processes detected impact ecosystem functioning and using the example of shrub encroachment, bear risks for the provision of goods and services which can be valued as land degradation in the sense of a decline of important ecosystem goods and services. This risk is not only confined to the affected ecosystem itself but can also impact adjacent ecosystems due to inter-linkages. In drylands water availability is of major importance and the management of water resources is an important political issue. In view of climate change this topic will become even more important because aridity in Spain did increase within the last decades and is likely to further do so. In addition, the land cover changes detected by the syndrome approach could even augment water scarcity problems. Whereas the water yield of marginal areas, which often serve as headwaters of rivers, decreases with increasing biomass, water demand of agriculture and tourism is not expected to decline. In this context it will be of major importance to evaluate the trade-offs between different land uses and to take decisions that maintain the future functioning of the ecosystems for human well-being.
Extension of inexact Kleinman-Newton methods to a general monotonicity preserving convergence theory
(2011)
The thesis at hand considers inexact Newton methods in combination with algebraic Riccati equation. A monotone convergence behaviour is proven, which enables a non-local convergence. Above relation is transferred to a general convergence theory for inexact Newton methods securing the monotonicity of the iterates for convex or concave mappings. Several application prove the pratical benefits of the new developed theory.
Die Wirksamkeit und der Nutzen von Psychotherapie sind vielfach nachgewiesen. Dennoch sind die der Psychotherapie zugrunde liegenden Wirk- und Veränderungsmechanismen zu einem großen Teil noch ungeklärt und werden kontrovers diskutiert. Ein vielversprechendes Untersuchungsdesign zur Überprüfung der Wirksamkeit und Wirkungsweise spezifischer psychotherapeutischer Techniken stellt die Untersuchung psychotherapeutischer Mikrointerventionen dar. In der vorliegenden Arbeit wurde ein laborexperimentelles Untersuchungsdesign zur Überprüfung der Wirksamkeit spezifischer psychotherapeutischer Techniken und damit einhergehender hirnphysiologischer Veränderungen erstmalig erprobt. Untersucht wurden die Effekte einer 90-minütigen psychotherapeutischen Mikrointervention, in der die Technik des kognitiven Reframings vermittelt und eingeübt wurde. Probanden einer subklinisch depressiven Stichprobe (N=45) sowie gesunde Kontrollpersonen (N=47) wurden randomisiert entweder der Mikrointervention oder einer von zwei Kontrollbedingungen zugeordnet. Die Überprüfung der interventionssezifischen Effekte erfolgte über die Erfassung ereigniskorrelierter Potenziale (EKPs) sowie Affekt-Ratings der Probanden. In einem spezifischen EEG-Paradigma wurden den Probanden negativ affektive Bilder gezeigt, die sie entweder aus einem neuen, positiven Blickwinkel betrachten oder nur anschauen sollten. Am Ende jedes Durchganges wurden die Probanden aufgefordert die Intensität ihrer emotionalen Reaktion einzuschätzen. Die Ergebnisse zeigen, dass die Psychotherapeutische Mikrointervention zu spezifischen Effekten, insbesondere auf der Ebene elektrokortikaler Veränderungen führte. Dabei wiesen die Probanden der Gruppe mit der psychotherapeutischen Mikrointervention größere mittlere frontale LPP Amplitudenwerte in Folge der Instruktionsbedingung "Umdeuten" auf. Die Ergebnisse werden im Sinne einer intensivierten kontrollierten Nutzung relevanter, über den präfrontalen Kortex vermittelter, kognitiver Verarbeitungsressourcen im Zusammenhang mit der Herunterregulierung emotionaler Reaktionen interpretiert.
During pregnancy every eighth woman is treated with glucocorticoids. Glucocorticoids inhibit cell division but are assumed to accelerate the differentiation of cells. In this review animal models for the development of the human fetal and neonatal hypothalamic-pituitary-adrenal (HPA) axis are investigated. It is possible to show that during pregnancy in humans, as in most of the here-investigated animal models, a stress hyporesponsive period (SHRP) is present. In this period, the fetus is facing reduced glucocorticoid concentrations, by low or absent fetal glucocorticoid synthesis and by reduced exposure to maternal glucocorticoids. During that phase, sensitive maturational processes in the brain are assumed, which could be inhibited by high glucocorticoid concentrations. In the SHRP, species-specific maximal brain growth spurt and neurogenesis of the somatosensory cortex take place. The latter is critical for the development of social and communication skills and the secure attachment of mother and child. Glucocorticoid treatment during pregnancy needs to be further investigated especially during this vulnerable SHRP. The hypothalamus and the pituitary stimulate the adrenal glucocorticoid production. On the other hand, glucocorticoids can inhibit the synthesis of corticotropin-releasing hormone (CRH) in the hypothalamus and of adrenocorticotropic hormone (ACTH) in the pituitary. Alterations in this negative feedback are assumed among others in the development of fibromyalgia, diabetes and factors of the metabolic syndrome. In this work it is shown that the fetal cortisol surge at the end of gestation is at least partially due to reduced glucocorticoid negative feedback. It is also assumed that androgens are involved in the control of fetal glucocorticoid synthesis. Glucocorticoids seem to prevent masculinization of the female fetus by androgens during the sexual gonadal development. In this work a negative interaction of glucocorticoids and androgens is detectable.
In Europa haben sich im Laufe der vergangenen Jahrhunderte zahlreiche Kriege und Auseinandersetzungen Art abgespielt, die die Menschen und Nationen, ihre Ideologien und Ansichten stark geprägt haben. Gerade im SaarLorLux-Raum, einer grenzüberschreitenden Region im Gebiet von Deutschland, Frankreich, Luxemburg und Belgien, wurden die Grenzen von den Siegermächten immer neu gezogen und verschoben. Heute leben hier Menschen mit sehr verschiedenen kulturellen Hintergründen in einer multikulturellen Gesellschaft zusammen, die aber oftmals stark von einem Nebeneinander und von Unterschieden geprägt ist. Für die Grenzräume haben sich mit dem Konzept "Europa der Regionen", das kleineren räumlichen Einheiten ein Mitwirken bei Entscheidungsprozessen ermöglicht, große Kooperationschancen eröffnet. Von politischer Seite wird der SaarLorLux-Raum oft als "Mitte Europas" (BRÜCHER, QUASTEN, REITEL 1982, S. 13) oder "einzige europäische Kernregion" bezeichnet, in die "besonders hohe Erwartungen gesetzt" (SANTER 1997) werden. Wie aber sieht das Leben jenseits der Politik auf der ganz alltäglichen Ebene aus? Welche Möglichkeiten bieten sich den Menschen, die kulturelle Vielfalt, die Andersartigkeit der Nachbarländer sowie die Vor- und Nachteile hautnah in Alltagssituationen zu erleben? Die Dissertation untersucht, inwieweit die Grenzen in den Köpfen der Menschen auch nach ihrer Öffnung durch das Schengener Abkommen verankert bleiben und ob die Bewohner einer Grenzregion diesen besonderen Lebensraum in ihrem Alltag nutzen und zu grenzüberschreitend agierenden Europäern werden. Dazu werden wahrnehmungsgeographische Forschungsmethoden (mental maps) genutzt und auf das konkrete Beispiel des SaarLorLux-Raumes angewendet. In drei Studien (2000, 2002 und 2006) wurden insgesamt 5865 Schüler und Bewohner in 20 Orten in den vier Ländern zu ihren Vorstellungen vom SaarLorLux-Raum, zu ihrem aktionsräumlichen Verhalten und zu ihrer Abgrenzung der Region befragt. Dabei wurden bewusst grenznahe und grenzferne Standorte ausgewählt wurden, um Unterschiede im Verhalten herauszuarbeiten. Ziel der Analyse ist es, das Leben in der Großregion über den Zeitraum von sechs Jahren zu untersuchen und mit dieser Langzeitstudie Veränderungen beziehungsweise Gemeinsamkeiten im Verhalten der Bewohner herauszuarbeiten. Die Wahrnehmung des Lebens im SaarLorLux-Raum aus der Sicht seiner Bewohner wird herausgearbeitet und -ausgehend von den Ergebnissen- werden Potentiale und Defizite im grenzüberschreitenden Zusammenleben abzuleiten. Die politische und ökonomische Liberalisierung ist seit mehr als einem halben Jahrhundert Realität in Westeuropa. Ob allerdings die sich daraus ergebenden Chancen von den Bewohnern der grenznahen Räume erkannt, erwünscht und erlebt werden, ist Gegenstand der Untersuchungen. Durch die Fokussierung auf die Befragung von Schülern, also den jungen Menschen, die die Zukunft darstellen, wird die Frage beantwortet, ob sich traditionelle und eventuell auch eingefahrene Sichtweisen von Generation zu Generation übertragen und somit das aktionsräumliche Verhalten beeinflussen und erstarren lassen. Einen Beitrag zu einer funktionierenden Zusammenarbeit leistet die kulturelle und regionale Identität, die dazu beiträgt, dass sich die Menschen über die Grenzen hinaus als Bewohner der gleichen Region definieren. Dabei sollen nicht die Unterschiede, die zwischen den Bewohnern mit unterschiedlichen Nationalitäten bestehen, geleugnet oder verwischt werden. Abschließend werden, losgelöst vom regionalen Beispiel, Möglichkeiten aufgezeigt, wie durch unterschiedliche Initiativen vor allem auf schulischer Ebene zur Stärkung einer gemeinsamen europäischen Identität bei der jungen Bevölkerung beigetragen werden kann. Die Dissertation endet "ausgerichtet auf die Hauptzielgruppe bei den Befragungen- mit dem Entwurf einer Unterrichteinheit zur Stärkung eines grenzüberschreitenden Wir-Gefühls. Der Schulunterricht kann einen Beitrag dazu leisten, dass die zukünftigen Generationen ein tieferes Bewusstsein für das Zusammenleben im Grenzraum und in Europa erhalten.
Einen literarischen Text entlang eines figürlichen Körperleibs zu lesen und zu deuten, lenkt die Lektüre zwangsläufig auf unwiderrufliche und unabänderliche Grunddispositionen des menschlichen Daseins wie Sterblichkeit, Verletzlichkeit, Verwundbarkeit, Bedürftigkeit und wechselseitige Angewiesenheit. Eine der korporalen Entsprechungen für die eigene Bedürftigkeit äußert sich in den Stücken der deutschsprachgigen Gegenwartsdramatik häufig als Suche nach oder Bitte um Beistand. Die eigene Schwäche bedarf der fremden Kraft, um aufgefangen zu werden. In der Korrespondenzfigur des fallenden und haltenden Körpers wird das Phänomen der Fürsorge entfaltet. Die Verweigerung von Fürsorge wird in der Zweifachfigur eines abwehrenden und eines zurückgewiesenen Körpers zugespitzt. Mit der leiblichen Präsenz der Figuren wird ein solidarisches Potenzial angeboten. Die Rücknahme des eigenen Körperleibs aus dem Blickfeld des Anderen suspendiert jedoch die Möglichkeit, dass die potenziell vorhandene Solidaritätsfähigkeit tatsächlich in Anspruch genommen werden kann. Im Rückzug der Figuren deutet sich meist die Entscheidung an, den eigenen Körperleib nicht als möglichen Halt oder Anhaltspunkt für den Anderen zu erkennen zu geben.
Die Ménage-Polynome (engl.: ménage hit polynomials) ergeben sich in natürlicher Weise aus den in der Kombinatorik auftretenden Ménage-Zahlen. Eine Verbindung zu einer gewissen Klasse hypergeometrischer Polynome führt auf die Untersuchung spezieller Folgen von Polynomen vom Typ 3-F-1. Unter Verwendung einer Modifikation der komplexen Laplace-Methode zur gleichmäßigen asymptotischen Auswertung von Parameterintegralen sowie einiger Hilfsmittel aus der Potentialtheorie der komplexen Ebene werden starke und schwache Asymptotiken für die in Rede stehenden Polynomfolgen hergeleitet.
Mechanical and Biological Treatment (MBT) generally aims to reduce the amount of solid waste and emissions in landfills and enhance the recoveries. MBT technology has been studied in various countries in Europe and Asia. Techniques of solid waste treatment are distinctly different in the study areas. A better understanding of MBT waste characteristics can lead to an optimization of the MBT technology. For a sustainable waste management, it is essential to determine the characteristics of the final MBT waste, the effectiveness of the treatment system as well as the potential application of the final material regarding future utilization. This study aims to define and compare the characteristics of the final MBT materials in the following countries: Luxembourg (using a high degree technology), Fridhaff in Diekirch/Erpeldange, Germany (using a well regulated technology), Singhofen in Rhein-Lahn district, Thailand (using a low cost technology): Phitsanulok in Phitsanulok province. The three countries were chosen for this comparative study due to their unique performance in the MBT implementation. The samples were taken from the composting heaps of the final treatment process prior to sending them to landfills, using a random sampling standard strategy from August 2008 onwards. The size of the sample was reduced to manageable sizes before characterization. The size reduction was achieved by the quartering method. The samples were first analyzed for the size fraction on the day of collection. They were screened into three fractions by the method of dry sieving: small size with a diameter of <10 mm, medium size with a diameter of 10-40 mm and large size with a diameter of >40 mm. These fractions were further analyzed for their physical and chemical parameters such as particle size distribution (total into 12 size fractions), particle shape, porosity, composition, water content, water retention capacity and respiratory activity. The extracted eluate was analyzed for pH-value, heavy metals (lead, cadmium and arsenic), chemical oxygen demand, ammonium, sulfate and chloride. In order to describe and evaluate the potential application of the small size material as a final cover of landfills, the fraction of small size samples were tested for the geotechnical properties as well. The geotechnical parameters were the compaction test, permeability test and shear strength test. The detailed description of the treatment facilities and methods of the study areas were included in the results. The samples from the three countries are visibly smaller than waste without pretreatment. Maximum particle size is found to be less than 100 mm. The samples are found to consist of dust to coarse fractions. The small size with a diameter of <10 mm was highest in the sample from Germany (average 60% by weight), secondly in the sample from Luxembourg (average 43% by weight) and lowest in the sample from Thailand (average 15% by weight). The content of biodegradable material generally increased with decreasing particle sizes. Primary components are organic, plastics, fibrous materials and inert materials (glass and ceramics). The percentage of each components greatly depends on the MBT process of each country. Other important characteristics are significantly reduced water content, reduced total organic carbon and reduced potential heavy metals. The geotechnical results show that the small fraction is highly compact, has a low permeability and lot of water adsorbed material. The utilization of MBT material in this study shows a good trend as it proved to be a safe material which contained very low amounts of loadings and concentrations of chemical oxygen demand, ammonium, and heavy metals. The organic part can be developed to be a soil conditioner. It is also suitably utilized as a bio-filter layer in the final cover of landfill or as a temporary cover during the MBT process. This study showed how to identify the most appropriate technology for municipal solid waste disposal through the study of waste characterization.
In der Tagespresse bestehen Berichte über Nordkorea meistens aus Schreckens-meldungen: Von Nuklearem Wahn, Menschenrechtsverletzungen oder Terror ist hier die Rede. Gleichzeitig ist die Informationspolitik dieses Landes so restriktiv, dass kaum anderweitige Informationen nach außen dringen. Dies macht es in den Augen vieler Menschen umso gefährlicher, weil es dadurch unbegreiflich und unkalkulierbar erscheint. Nach dem Zusammenbruch der DDR und der Öffnung von bislang unzugänglichen Archiven hat diese Undurchdringlichkeit Risse bekommen, und es erschlossen sich der Forschung vollkommen neue Quellen. Ziel der vorliegenden Arbeit ist es, mit Hilfe der nun zugänglichen Dokumente einen Teil der Informationslücken über Nordkorea und vor allem über seine Beziehungen zur DDR zu schließen. Neben der Entwicklung der bilateralen Beziehungen in den Bereichen Politik, Wirtschaft und Kultur wird hier auch ein besonderer Aspekt der bilateralen Beziehungen untersucht: Nordkoreas Umgang mit seiner Abhängigkeit von der DDR und dem damit verbundenen Sicherheitsrisiko. Zu diesem Zweck wird anhand konkreter Fallbeispiele die Zusammenarbeit zwischen der DDR und Nordkorea analysiert. Obwohl auch in anderen Gebieten Abhängigkeiten bestanden, ist die wirtschaftliche Abhängigkeit im Zusammenhang mit einem möglichen Sicherheitsrisiko von besonderer Relevanz. Dieses Risiko definiert sich in diesem Zusammenhang als Gefährdung der inneren Sicherheit Nordkoreas. Nordkorea ist seit seiner Gründung ein Staat, der seine Bürger aufs Äußerste überwacht, um ihre vollständige Indoktrination zu gewährleisten. Da die nord-¬koreanische Regierung eine eigene, künstliche Wirklichkeit für die Bewohner des Landes erschaffen hatte, musste alles, was diese Wirklichkeit in Frage stellte, als Sicherheitsrisiko eingeschätzt werden. Dazu gehörte z.B. das Sichtbarwerden von Abhängigkeit, weil hierdurch der selbsterhobene Anspruch der Chuch"e-Ideologie "alles aus eigener Kraft" konterkariert wurde. Gleichfalls musste der Kontakt mit einer anderen Wirklichkeit als der koreanischen ein Sicherheitsrisiko darstellen, wenn sich dadurch die Einstellung zur koreanischen Realität änderte. In diesem Zusammenhang spielen vor allem die nordkoreanischen Studenten, die in der DDR studierten, eine besondere Rolle. Die vorliegende Arbeit zeigt, dass der Umgang Nordkoreas mit seiner Abhängigkeit von der DDR durchaus einer Logik entsprach und sich daraus Handlungsmuster ergaben, die diesen Umgang prägten. Zunächst versuchte die nordkoreanische Regierung, sich immer aus bestehenden Abhängigkeiten zu befreien oder sie zum größtmöglichen eigenen Vorteil zu nutzen. Dabei schreckte sie auch nicht vor illegalen Maßnahmen wie Industriespionage zurück. Das oberste Primat der nordkoreanischen Politik lag jedoch in der Wahrung Innerer Sicherheit und damit in der Regimestabilität. Diesem Ziel wurden alle anderen Ziele wie auch Entwicklung der Wirtschaft untergeordnet. Ergaben sich für das Erreichen von Wirtschaftszielen Abhängigkeiten, dann wurden diese nur so lange in Kauf genommen, wie sie die Innere Sicherheit nicht gefährdeten. Wurde hier allerdings ein Sicherheitsrisiko wahrgenommen, dann wurden alle Mittel eingesetzt, um dieses auszuschalten oder zu minimieren. Dabei spielte es keine Rolle, wie drastisch diese Maßnahmen waren und wer von ihnen betroffen war. Vergleicht man dieses Verhalten mit der heutigen nordkoreanischen Politik, so finden sich kaum Unterschiede. Die Innere Sicherheit ist für Nordkorea das oberste Ziel geblieben. Um es durchzusetzen, werden alle als notwendig erachteten Maßnahmen ergriffen, von der Bespitzelung der eigenen Bevölkerung bis hin zu Internierung und Terror. Was für den Umgang der nordkoreanischen Regierung mit dem eigenen Volk gilt, lässt sich auch in seiner Außenpolitik nachvollziehen. Die Regimestabilität bleibt das oberste Ziel. Im Gegensatz zur weitverbreiteten Meinung, die Volksrepublik sei in ihrer Politik nicht kalkulierbar, macht das Wissen um dieses Ziel Nordkorea zu einem sehr berechenbaren Staat. In Übereinstimmung mit dem Primat der Inneren Sicherheit wird die nordkoreanische Führung alles ablehnen, was diese gefährden könnte. Konkret ergibt sich daraus z.B., dass Nordkorea sein Nuklearprogramm niemals aufgeben wird, weil das Einstellen seiner Ambitionen auf diesem Gebiet die Führung in P"yÅngyang angreifbar machen könnte.
Virtuelle Umgebungen erfreuen sich in den letzten Jahren einer großen Beliebtheit und können kontinuierlich wachsende Nutzerzahlen vorweisen. Deshalb wird erwartet, dass die ohnehin große Nutzergemeinde weiterhin wächst. Dieses Wachstum stellt jedoch die Entwickler und die Betreiber von virtuellen Umgebungen vor eine Herausforderung. Die meisten heutzutage erfolgreichen virtuellen Umgebungen basieren auf einer Client-Server-Infrastruktur, in der der Server für die Verwaltung der gesamten Umgebung zuständig ist. Bei einer gleichzeitigen Inanspruchnahme durch viele Nutzer werden die serverbasierten Umgebungen jedoch massiven Skalierbarkeits- und Lastverteilungsproblemen ausgesetzt. Diese Probleme führen beispielsweise dazu, dass Nutzer Wartezeiten beim Einloggen in Kauf nehmen müssen bzw. selbst im Falle eines erfolgreichen Logins die "überfüllten" virtuellen Regionen nicht betreten dürfen. Deshalb wird in dieser Arbeit untersucht, ob eine Verbesserung der Skalierbarkeit und der Lastverteilung in virtuellen Umgebungen durch die Verwendung alternativer Infrastrukturansätze erreicht werden kann. Außerdem werden Maßnahmen zur weiteren Entlastung der Basis-Infrastruktur entwickelt. Diese Verbesserung soll zum einen dadurch erzielt werden, dass anstelle eines Servers ein Server-Verbund (Peer-to-Peer-System) als eine Art Management-Schicht agieren soll, in der jeder Knoten nur einen bestimmten Teil der virtuellen Umgebung verwaltet. Dabei wird die gewünschte Lastverteilung durch die Aufteilung der Verantwortungsbereiche auf die Knoten der Management-Schicht erreicht. Gleichzeitig entsteht aber ein Mehraufwand für die Konstruktion bzw. Erhaltung einer solchen Management-Schicht. Deshalb werden in dieser Arbeit die Vor- und Nachteile eines Infrastrukturwechsels hin zu dezentralisierten Infrastruktur-Ansätzen untersucht. Zum anderen wird eine spürbare Entlastung der Management-Schicht und somit eine Verbesserung der Skalierbarkeit und der Lastverteilung durch die Übertragung einiger Verwaltungsaufgaben an die Clients angestrebt. Zu diesen Verwaltungsaufgaben zählen die Gruppenkommunikation und das Konsistenz-Handling. Dazu wird in dieser Arbeit erforscht, inwiefern die Clients, die sich innerhalb derselben virtuellen Region befinden, selbst die Gruppenkommunikation über eine Multicast-Infrastruktur regeln können bzw. in die Wahrung der Konsistenz eines gemeinsamen Zustandes und der gemeinsam genutzten Objekte involviert werden können. Bei dem clientbasierten Konsistenz-Handling sollte vor allem auf die besonderen Interaktivitäts- und Konsistenzanforderungen, die Nutzer an die virtuellen Umgebungen stellen, geachtet werden. Dazu wird ein neues Konsistenzmodell definiert, welches die Einhaltung der strengen Interaktivitätsanforderungen erzwingt und die Konsistenz mit einer bestimmten Wahrscheinlichkeit garantieren kann.
Im Fokus der Dissertation steht das Spannungsfeld zwischen betriebswirtschaftlichen Zielen und unternehmerischer Sozialverantwortung. Dieses wird im Hinblick auf die Ebene des Arbeitsmarktes und die Beschäftigung von Menschen mit Behinderung im Tourismus untersucht. Das Ziel der Untersuchung ist die Identifikation des durch die sozialwirtschaftlichen Intentionen integrativer Hotels entstehenden gesamtgesellschaftlichen Nutzens. Ob integrativen Hotels der Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen gelingt, wird hierbei ermittelt. Bei dem herangezogenen Untersuchungsobjekt integrativer Hotelbetrieb handelt es sich um Hotels, die Menschen mit und ohne Behinderung beschäftigen, als Integrationsprojekte anerkannt sind und vom Gesetzgeber als Unternehmen des allgemeinen Arbeitsmarktes definiert werden. Da es sich um ein in der Tourismuswissenschaft weitgehend unbekanntes Untersuchungsobjekt handelt, wird dieses grundlegend erläutert, sodass neben dem Konzept, den rechtlichen Rahmenbedingungen und den Fördermöglichkeiten auch eine situative Beschreibung integrativer Hotels in Deutschland Bestandteil der Arbeit ist. Da es sich um Betriebe handelt, die im Rahmen der Beschäftigung von Menschen mit Behinderung staatlich gefördert werden, ist darüber hinaus die fiskalische Bilanz der Beschäftigungssituation Integrationshotel Gegenstand der Untersuchung. Des Weiteren stehen die Werte, die integrative Hotels über monetär messbare Werte hinaus schaffen, im Mittelpunkt. Neben der sozial- und volkswirtschaftlichen Ebene findet auch die betriebswirtschaftliche Ebene Berücksichtigung. Sowohl Merkmale und interne Strukturen integrativer Hotelbetriebe als auch deren betriebswirtschaftliche Situation und deren Gäste werden in diesem Zusammenhang behandelt. Das Methodenspektrum der Untersuchung ist entsprechend des erläuterten Inhaltes der Arbeit vielschichtig. Neben der Analyse relevanter Literatur liefern Experteninterviews wesentliche Ergebnisse. Die Analyse der sozial- und volkswirtschaftlichen Ebene basiert zunächst auf der Sekundäranalyse vorhandener Daten und darüber hinaus auf der Analyse und Weiterentwicklung eines Bewertungsmodells. Im Rahmen der betriebswirtschaftlichen Analyse werden betriebliche/betriebsinterne Daten analysiert und die Methode der standardisierten Gästebefragung angewendet. Als Abschluss der Arbeit werden die Untersuchungsergebnisse zusammengefasst und die Übertragbarkeit sowie die gesellschaftliche Relevanz des Themas diskutiert. Durch die Zusammenfassung der zentralen Befunde wird der Nutzen, der durch das Wirken integrativer Hotels auf verschiedenen Ebenen entsteht, benannt. Mit der Identifikation des durch integrative Hotels entstehenden gesamtgesellschaftlichen Nutzens liefert die Arbeit einen erweiterten theoretischen Ansatz der Argumentationslinie für Integrationsprojekte in der Hotellerie und weist nach, dass diesen ein Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen gelingt. Die Balance zwischen den parallelen Motiven Wirtschaftlichkeit und Gemeinnützigkeit bzw. der Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen ist zugleich der kritischste als auch der für den Erfolg integrativer Hotels entscheidendste Punkt. Die Herstellung eines Ausgleiches zwischen konträren Zielen ist dementsprechend die Voraussetzung für den maximal erreichbaren Zusatznutzen. Die Schlussfolgerung der Arbeit zielt jedoch nicht auf die ausnahmslos überall umzusetzende Integration von Menschen mit Behinderung im Teilarbeitsmarkt Tourismus ab, sondern weist auf das Potential eines erfolgreichen Ansatzes hin, der für die Entstehung eines eigenständigen Hoteltyps geeignet ist. Die Wahrnehmung der sozialen Verantwortung sollte hierbei jedoch nicht in den Vordergrund rücken, denn auch unter Einsatz des Alleinstellungsmerkmals Beschäftigung von Menschen mit Behinderung muss die vom Gast gebuchte touristische Dienstleistung vordergründig sein.
WICHTIGER HINWEIS: Aufgrund eines Computerfehlers bei der Rohdatenaufbereitung, müssen die 5.2.3. Ergebnisse (S. 43 ff.) wie folgt korrigiert werden: Explizite Einstellungsmessung Die Ergebnisse ändern sich inhaltlich: Haupteffekt Wortvalenz F(1, 94) = 51.10, p < .001, η2 = .35, (Mpos= 5.06; Mneg= -28.51); Interaktionseffekt Wortvalenz und kognitive Belastung F(1, 94) = 7.90, p < .01, η2 = .08, (Mpos/load= -5.01; Mpos/kein load= 15.13; Mneg/load= -25.43; Mneg/kein load= -31.75); Haupteffekt Wortnegation F(1, 94) = 8.58, p < .01, η2 = .08, (Mkeine = -7.95; Mnegation= -15.58). Implizite Einstellungsmessung Die Ergebnisse bleiben inhaltlich gleich: Zweifach-Interaktion von Wortvalenz und Prime, F(1, 80) = 4.61, p < .05, η2 = .06, (Mpos/wahr= 20.33; Mpos/falsch= 3.85; Mneg/wahr= 4.44; Mneg/falsch = 14.14). ABSTRACT: Ziel der vorliegenden Arbeit war es Evidenz für die Existenz einer Antonymie-Heuristik bei der Falsifikation valenter Information zu finden. Es wird angenommen, dass die vorherige Ankündigung, dass eine nachfolgende valenzhafte Information falsch ist, zu einer Änderung der Enkodierungsstrategie der valenzhaften Information führt. Dies bedeutet, dass zu der Valenz der gegebenen Information automatisch eine Gegenvalenz oder antonyme Valenz aktiviert werden sollte. Dementsprechend sollten falsche positive Informationen negativer und falsche negative Informationen positiver beurteilt werden als ihre wahren Entsprechungen. In vier Studien konnte dieser Effekt nachgewiesen werden. Die Ankündigung, dass eine valenzhafte Information falsch ist, beeinflusst, unabhängig von kognitiver Belastung, die Valenzübertragung in einem evaluativen Konditionierungsparadigma in vorhergesagter Weise (Experiment1). Ebenso führen generierte Gegenvalenzen, wenn eine Information als falsch angekündigt wurde, zu einem Verarbeitungsvorteil in einer Valenzkategorisierungs-Aufgabe, bei welcher positive Informationen als negativ und negative Informationen als positiv eingeschätzt werden sollten (Experiment 2). Die Ankündigung, dass eine nachfolgende Information falsch ist, führt außerdem dazu, dass positive (negative) Eigenschaften schnell und effizient negativer (positiver) eingeschätzt werden als bei einer Ankündigung der Informationen als wahr (Experiment 3 und 4). Zusammenfassend werden diese Befunde als Evidenz für die Existenz einer Antonymie-Heuristik im Zuge der Falsifikation valenter Information interpretiert.
The brain is the central coordinator of the human stress reaction. At the same time, peripheral endocrine and neural stress signals act on the brain modulating brain function. Here, three experimental studies are presented demonstrating this dual role of the brain in stress. Study I shows that centrally acting insulin, an important regulator of energy homeostasis, attenuates the stress related cortisol secretion. Studies II and III show that specific components of the stress reaction modulate learning and memory retrieval, two important aspects of higher-order brain function.
Das Studium des christlichen Briefstils im spätantiken Ägypten steht im Zentrum dieser Arbeit. Anhand der dokumentarischen Papyrusbriefe berührt diese Arbeit hauptsächlich die Epistolographie des Altertums, besonders die Phraseologie des frühen Christentums. So sieht man in der Arbeit die Beobachtung, Analyse und Erklärung der griechischen christlichen Privatbriefe im Hinblick auf ihre Struktur und ihre typischen christlichen Elemente insbesondere in Anredeformen, Grußformeln und typischen Redewendungen. Für diese Forschung wurden etwa 200 christliche Briefe zur intensiven Auswertung als Textgrundlage ausgewählt; zum Vergleich wurden auch heidnische Briefe aus ptolemäischer und römischer Zeit herangezogen. Diese Studie, besonders bei der Untersuchung der Formeln, bezieht sich auf den Zeitraum, zwischen dem 3. und 4./5. Jh. n.Chr.
Legalisation cannot be fully explained by interest politics. If that were the case, the attitudes towards legalisation would be expected to be based on objective interests and actual policies in France and Germany would be expected to be more similar. Nor can it be explained by institutional agency, because there are no hints that states struggle with different normative traditions. Rather, political actors seek to make use of the structures that already exist to guar-antee legitimacy for their actions. If the main concern of governmental actors really is to accumulate legitimacy, as stated in the introduction, then politicians have a good starting position in the case of legalisation of illegal foreigners. Citizens" negative attitudes towards legalisation cannot be explained by imagined labour market competition; income effects play only a secondary role. The most important explanatory factor is the educational level of each individual. Objective interests do not trigger attitudes towards legalisation, but rather a basic men-tal predisposition for or against illegal immigrants who are eligible for legalisation. Politics concerning amnesties are thus not tied to an objectively given structure like the socio-economic composition of the electorate, but are open for political discretion. Attitudes on legalising illegal immigrants can be regarded as being mediated by beliefs and perceptions, which can be used by political agents or altered by political developments. However, politicians must adhere to a national frame of legitimating strategies that cannot be neglected without consequences. It was evident in the cross-country comparison of political debates that there are national systems of reference that provide patterns of interpretation. Legalisation is seen and incorporated into immigration policy in a very specific way that differs from one country to the next. In both countries investigated in this study, there are fundamental debates about which basic principles apply to legalisation and which of these should be held in higher esteem: a legal system able to work, humanitarian rights, practical considerations, etc. The results suggest that legalisation is "technicized" in France by describing it as an unusual but possible pragmatic instrument for the adjustment of the inefficient rule of law. In Germany, however, legalisation is discussed at a more normative level. Proponents of conservative immigration policies regard it as a substantial infringement on the rule of law, so that even defenders of a humanitarian solution for illegal immigrants are not able to challenge this view without significant political harm. But the arguments brought to bear in the debate on legalisation are not necessarily sound because they are not irrefutable facts, but instruments to generate legitimacy, and there are enough possibilities for arguing and persuading because socio-economic factors play a minor role. One of the most important arguments, the alleged pull effect of legalisation, has been subjected to an empirical investigation. In the political debate, it does not make any dif-ference whether this is true or not, insofar as it is not contested by incontrovertible findings. In reality, the results suggest that amnesties indeed exert a small attracting influence on illegal immigration, which has been contested by immigration friendly politicians in the French par-liament. The effect, however, is not large; therefore, some conservative politicians may put too much stress on this argument. Moreover, one can see legalisation as an instrument to restore legitimacy that has slipped away from immigration politics because of a high number of illegally residing foreigners. This aspect explains some of the peculiarities in the French debate on legalisation, e.g. the idea that the coherence of the law is secured by creating exceptional rules for legalising illegal immigrants. It has become clear that the politics of legalisation are susceptible to manipulation by introducing certain interpretations into the political debate, which become predominant and supersede other views. In this study, there are no signs of a systematic misuse of this constellation by any certain actor. However, the history of immigration policy is full of examples of symbolic politics in which a certain measure has been initiated while the actors are totally aware of its lack of effect. Legalisation has escaped this fate so far because it is a specific instrument that is the result of neglecting populist mechanisms rather than an ex-ample of a superficial measure. This result does not apply to policies concerning illegal immi-gration in general, both with regard to concealing a lack of control and flexing the state- muscles.
320 Probandinnen bekamen Portraitfotos von Männern und Frauen, kombiniert mit geschlechterstereotypkongruenten, -inkongruenten und -neutralen Eigenschaften unter verschiedenen Instruktions- und Rahmenbedingungen vorgelegt. Anschließend erfolgten, für Items und Assoziationen, explizite Gedächtnistests. Die Ergebnisse belegen einen wiederholten assoziativen Inkongruenzvorteil, stereotypkongruente Rateverzerrungen, ein moderierendes individuelles Stereotypizitätsniveau, Ausbleiben stereotypkongruenten Einflusses nach intentionaler Instruktion, die Interaktion von Gedächtnisleistung und instruktionsvermittelnder Fokussierung, einen Erinnerungsvorteil für assoziative im Vergleich zu Iteminformationen sowie Leistungsminderung bei paralleler Aufmerksamkeitsbelastung. In der zeitunbegrenzten Testphase bwz. der Erfassung der probandeneigenen Reaktionszeiten wird eine wichtige Aufklärungsquelle vermutet.
Stress and pain are common experiences in human lives. Both, the stress and the pain system have adaptive functions and try to protect the organism in case of harm and danger. However, stress and pain are two of the most challenging problems for the society and the health system. Chronic stress, as often seen in modern societies, has much impact on health and can lead to chronic stress disorders. These disorders also include a number of chronic pain syndromes. However, pain can also be regarded as a stressor itself, especially when we consider how much patients suffer from long-lasting pain and the impact of pain on life quality. In this way, the effects of stress on pain can be fostered. For the generation and manifestation of chronic pain symptoms also learning processes such as classical conditioning play an important role. Processes of classical conditioning can also be influenced by stress. These facts illustrate the complex and various interactions between the pain and the stress systems. Both systems communicate permanently with each other and help to protect the organism and to keep a homeostatic state. They have various ways of communication, for example mechanisms related to endogenous opioids, immune parameters, glucocorticoids and baroreflexes. But an overactivation of the systems, for example caused by ongoing stress, can lead to severe health problems. Therefore, it is of great importance to understand these interactions and their underlying mechanisms. The present work deals with the relationship of stress and pain. A special focus is put on stress related hypocortisolism and pain processing, stress induced hypoalgesia via baroreceptor related mechanisms and stress related cortisol effects on aversive conditioning (as a model of pain learning). This work is a contribution to the wide field of research that tries to understand the complex interactions of stress and pain. To demonstrate the variety, the selected studies highlight different aspects of these interactions. In the first chapter I will give a short introduction on the pain and the stress systems and their ways of interaction. Furthermore, I will give a short summary of the studies presented in Chapter II to V and their background. The results and their meaning for future research will be discussed in the last part of the first chapter. Chronic pain syndromes have been associated with chronic stress and alterations of the HPA axis resulting in chronic hypocortisolism. But if these alterations may play a causal role in the pathophysiology of chronic pain remains unclear. Thus, the study described in Chapter II investigated the effects of pharmacological induced hypocortisolism on pain perception. Both, the stress and the pain system are related to the cardiovascular system. Increase of blood pressure is part of the stress reaction and leads to reduced pain perception. Therefore, it is important for the usage of pain tests to keep in mind potential interferences from activation of the cardiovascular system, especially when pain inhibitory processes are investigated. For this reason we compared two commonly and interchangeably used pain tests with regard to the triggered autonomic reactions. This study is described in chapter III. Chapter IV and V deal with the role of learning processes in pain and related influences of stress. Processes of classical conditioning play an important role for symptom generation and manifestation. In both studies aversive eyeblink conditioning was used as a model for pain learning. In the study described in Chapter IV we compared classical eyeblink conditioning in healthy volunteers to patients suffering from fibromyalgia, a chronic pain disorder. Also, differences of the HPA axis, as part of the stress system, were taken in account. The study of Chapter V investigated effects of the very first stress reaction, particularly rapid non-genomic cortisol effects. Healthy volunteers received an intravenous cortisol administration immediately before the eyeblink conditioning. Rapid effects have only been demonstrated on a cellular level and on animal behavior so far. In general, the studies presented in this work may give an impression of the broad variety of possible interactions between the pain and the stress system. Furthermore, they contribute to our knowledge about theses interactions. However, more research is needed to complete the picture.
In this thesis, three studies investigating the impact of stress on the protective startle eye blink reflex are reported. In the first study a decrease in prepulse inhibition of the startle reflex was observed after intravenous low dose cortisol application. In the second study a decrease in reflex magnitude of the startle reflex was observed after pharmacological suppression of endogenous cortisol production. In the third study, a higher reflex magnitude of the startle reflex was observed at reduced arterial and central venous blood pressure. These results can be interpreted in terms of an adaption to hostile environments.
Die vorliegende Arbeit ist eine Fallstudie zu Gender- und ethnischen Identitäts- und Differenzkonstruktionen in einer indigenen Gemeinde im Tiefland Ecuadors. Sie sucht folgende Fragen zu beantworten: I. Wie wird Gender im sog. "Oriente" Ecuadors verhandelt und performativ produziert? Existieren Gegenstimmen und Subversionen zu dominanten Genderrollen, und wenn ja, in welcher Form? II. Wie entwerfen die Napo Runa von der sogenannten Peripherie aus ihre nationale und ethnische Identität? Welche Diskurse und praktischen Strategien entwickeln sie im Umgang mit den ethnisch "Anderen" innerhalb des nationalen, ecuadorianischen Kontextes? III. Auf welche Art und Weise sind die Kategorien Gender, Ethnizität und Nation ineinander verwoben? Wie werden Männlichkeiten und Weiblichkeiten in Abgrenzung und Anziehung zum ethnisch "Anderen" konstruiert? Wie werden dabei hegemoniale Gender-, ethnisch-rassische und nationale Diskurse und Praxen von den Runa aufgenommen, verarbeitet und umgedeutet? In der feministisch ausgerichteten Gender-Forschung dienen "nicht-westliche" Beispiele häufig dazu, Alternativen zur euro-amerikanischen binären, heteronormativen Geschlechterordnung aufzuzeigen und letztere somit zu dekonstruieren. Diese Fallstudie zu den Tiefland-Runa in Ecuador kann dazu nur sehr bedingt einen Beitrag leisten: Die Runa bestehen auf der Dichotomie weiblich-männlich, die nach dem biologischen Geschlecht des Kindes bei der Geburt bestimmt wird. Und dennoch erfordert das Herausbilden der "richtigen" Genderidentität aus indigener Perspektive von Kindheit an beständige Formung, was sich besonders in der früh einsetzenden Arbeitsteilung äußert, welche Wissen in den Körper "einschreibt". Wer die gegenderten, alltagspraktischen Techniken in seinen/ihren Körperhabitus übernommen hat, gilt als "richtiger Mann" resp. "richtige Frau", als erwachsen. Der biologischen Reifung des Körpers wird dagegen weniger Bedeutung beigemessen. Explizit ausformuliert wird die für gesellschaftliches Leben als unerlässlich angesehene Komplementarität beider Geschlechter. Die jüngere ethnographische Literatur zum Amazonastiefland tendiert mehrheitlich zur Gleichsetzung dieser Komplementarität mit einem egalitären Geschlechterverhältnis. Meine Daten deuten jedoch auf ein unausgeglichenes Machtverhältnis zwischen Männern und Frauen hin. Eine klare Hierarchie lässt sich in verschiedenen Bereichen ablesen, wie z.B. dem unterschiedlichen Zugang zu politischer Macht, spirituellem Wissen, ökonomischen Möglichkeiten, Arbeitszeitaufteilung, Bewegungsfreiheit und Verfügungsgewalt über den eigenen und fremde Körper. Auch in der Abgrenzung der Runa gegenüber anderen ethnischen Gruppen spielt die Kategorie Geschlecht eine zentrale Rolle. Entlang der Runa-Ideale von geschlechtsspezifischer Arbeitsteilung und Verhaltensidealen werden Grenzen gezogen. Dabei sind es die MestizInnen, welche die wichtigste Rolle in diesem fortwährenden identitätszeichnenden und -versichernden Prozess als direkte und dominanteste Gegenüber spielen. Einerseits sucht man sich gegen mestizische Dominanz und Vereinnahmung durch Betonung der eigenen, ethnisierten Kraft und Stärke und einer "reinen" Heiratspraxis zu erwehren. Andererseits eifert insbesondere die jüngere Generation, auch in ihren Genderentwürfen, einem mestizischen Lebensstil als Inbegriff von "Zivilisation", Modernität, Urbanität und Fortschrittlichkeit nach und versucht, dies besonders durch Bildung zu erreichen. Speziell in den Feminitätsentwürfen der ruralen, traditionellen runa warmi und ihrem Gegenstück "urbane Mestizin" findet dieser Widerspruch seinen Ausdruck. Für Männer stellt das Militär den größten außerdörflichen Einfluss auf jugendliche maskuline Runa-Identitätsbildung dar und drängt diese zusehends in die Richtung eines mestizisch-virilen Männlichkeitsideals, das eng verbunden ist mit einer nationalen Identität als Ecuadorianer. Beruhend auf Viveiros de Castros" Multinaturalismus-Theorie findet man in der wissenschaftlichen Literatur zum Amazonastiefland immer wieder die Darstellung äußerst aufnahmefähiger, flexibler Gesellschaften, welche starren ethnischen Grenzen mit größter Skepsis zu begegnen wüssten. Die Inkorporierung "Fremder", seien sie Affinalverwandte oder ethnisch different, geschehe über die konstante gemeinsame Produktion entlang der gegenderten Arbeitsteilung und den Konsum der gleichen Nahrung, die zusehends und fortlaufend die Unterschiede zwischen Menschen nivellieren. Ich halte diese Einschätzung amazonischen Gemeinschaftslebens für idealisiert. Sie mag partiell richtig sein, jedoch wird "Fremdartigkeit" nie ganz vergessen. Eine gewisse "fremde" Essenz, welcher Art diese auch immer sein möge, bleibt bestehen " unabhängig davon, ob die Betreffenden die geschlechtsspezifischen Runa-Körpertechniken erlernt haben. Es stehen hier m. E. zwei Diskurse nebeneinander.
Umweltschutz wird in dieser Arbeit als Soziales Dilemma betrachtet. Es wird mittels eines experimentellen Online-Spiels (N = 182) primär überprüft, inwieweit unkooperatives Verhalten von Akteuren zu genuinem Ungerechtigkeitserleben bei anderen Personen führt und ob diese in Folge u. a. das eigene kooperative Verhalten reduzieren. Somit wird im Gegensatz zu Erklärungen der Rational-Choice-Theorien angenommen, dass ein Teil des phänotypisch unkooperativen, umweltschädigenden Verhaltens nicht auf Egoismus, sondern auf einem genuinen Gerechtigkeitsmotiv beruht. Zur Erhöhung der internen Validität wird ebenfalls der moderierende Einfluss der Persönlichkeitseigenschaften "Eigeninteresse" und "Gerechtigkeitszentralität" untersucht. Die Hypothesentestungen zeigen, dass unkooperatives Verhalten anderer Akteure in Sozialen Dilemmata bei vielen Personen Ungerechtigkeitserleben auslöst, was sich u. a. in Emotionen der Empörung, Ungerechtigkeitskognitionen, Bestrafungsverhalten und einer Reduktion des eigenen kooperativen Verhaltens niederschlägt. Hierbei spielen interindividuelle Unterschiede hinsichtlich der Stärke des Gerechtigkeitsmotivs bei etlichen gefundenen Effekte eine moderierende Rolle. Es wird somit ein motivpluralistischer Ansatz bestätigt, der die Rolle des Gerechtigkeitsmotivs bei der Vorhersage und Veränderung von Verhalten in Sozialen Dilemmata hervorhebt. Implikationen in Hinblick auf Theorie, zukünftige Forschung und Interventionen in Sozialen-Dilemma-Situationen werden erörtert.
Bei der Realisierung einer nachhaltigen Entwicklung kommt dem Erhalt und der Sanierung des vorhandenen Altbaubestands zentrale Bedeutung zu. Sanierungen versprechen in erster Line Einsparpotentiale beim Energieverbrauch, bei den CO2-Emissionen und den anthropogen induzierten Stoffströmen. Auch im sozialen Bereich sind Verbesserungen möglich, weil sich beispielsweise attraktive und energetisch optimierte Wohnungen positiv auf die Bleibeabsichten der Bewohner auswirken und so Wohnquartiere sozial stabilisiert werden können. In der Arbeit wird untersucht, welchen signifikanten Beitrag Bestandssanierungen zur Realisierung einer global nachhaltigen Entwicklung leisten können. Zudem wird gefragt, warum Altbausanierungen bislang nur zögerlich umgesetzt werden. So soll die Kluft zwischen Wissen und Handeln bei der Realisierung einer nachhaltigen Entwicklung erklärt werden. Um die Forschungsfragen beantworten zu können, werden vier Sanierungsmaßnahmen in den Städten Ludwigshafen und Köln als Einzelfälle untersucht: (1) Ludwigshafen Brunckviertel, (2) Ludwigshafen Ebertsiedlung, (3) Köln Vingst und (4) Köln Zollstock. Gewählt wird ein qualitativer Forschungsansatz. Zur Anwendung kommen die Erhebungsmethoden teilstrukturierte Befragung und Dokumentenanalyse.
Diese Arbeit beschäftigt sich mit (frequent) universellen Funktionen bezüglich Differentialoperatoren und gewichteten Shiftoperatoren. Hierbei wird ein Charakteristikum von Funktionen vom Exponentialtyp untersucht, das bisher im Rahmen der Universalität noch nicht betrachtet wurde: Das konjugierte Indikatordiagramm. Dabei handelt es sich um eine kompakte und konvexe Menge, die einer Funktion vom Exponentialtyp zugeordnet ist und gewisse Rückschlüsse über das Wachstum und die mögliche Nullstellenverteilung zulässt. Mittels einer speziellen Transformation werden (frequent) universelle Funktionen vom Exponentialtyp bezüglich verschiedener Differentialoperatoren ineinander überführt. Hierdurch ist eine genaue Lokalisation der konjugierten Indikatordiagramme möglicher (frequent) universeller Funktionen für diese Operatoren ableitbar. Durch Konjugation der Differentiation mit gewichteten Shiftoperatoren über das Hadamardprodukt, wird auch für diese Operatoren eine Lokalisation möglicher konjugierter Indikatordiagramme ihrer (frequent) universellen Funktionen erreicht.
Die Beobachtung und Bewertung von Wäldern ist eins der zentralen Themen der Fernerkundung. Wälder sind auf der Erde die größten Speicher von Biomasse und damit, neben den Ozeanen, die größte Senke für Kohlendioxid. Eine genaue Kenntnis über Zusammensetzung, Zustand und Entwicklung der Wälder ist wegen ihrer vielfältigen Funktionen und ihres großen Anteils an der Landesfläche von großem wissenschaftlichem und gesellschaftlichem Wert. Eine flächen-deckende detaillierte Beobachtung ist nur mit fernerkundlichen Mitteln möglich. Eine vielversprechende moderne Technik für hochauflösende Waldfernerkundung ist luftgestütztes Laser-¬scanning. Für die Arbeit stand ein Laserscanner-Datensatz aus dem Idarwald bei Morbach in Einzelpunkten und als Wellenformdatensatz zur Verfügung, der zur Ableitung von strukturellen Waldparametern genutzt wurde. Als wichtigster Bestandsstrukturparameter wurde die Baumhöhe sowohl aus Einzelpunktdaten als auch aus gerasterten Bilddaten flächendeckend mit hoher Genauigkeit abgeleitet. Die Kronenuntergrenzen konnten anhand der Wellenformdaten identifiziert werden und stimmten ebenfalls in hoher Genauigkeit mit Geländemessungen überein. Aus Baumhöhen und Höhe der Kronenuntergrenzen konnte die jeweilige Kronenlänge bestimmt werden. Eine größere Herausforderung ist die Bestimmung der Anzahl der Bäume pro Hektar. Während die einzelnen Kronen älterer Nadelbäume gut erkennbar sind, lassen sich Laubbäume und jüngere Nadelbäume nur schwer identifizieren. Trotzdem konnte mit Hilfe eines adaptiven Moving-Window-Ansatzes eine hohe Übereinstimmung mit im Gelände bestimmten Stammzahlen erzielt werden. Aus dem Anteil der Laserstrahlen, die im Bestand den Boden erreichen, können der Kronenschlussgrad und der Blattflächenindex bestimmt werden. Beide Größen sind für den Strahlungstransfer im Bestand und für ökologische Fragestellungen von Bedeutung und konnten ebenfalls flächendeckend und mit hoher Genauigkeit gemessen werden. Eng verknüpft mit dem Blattflächenindex sind die Biomasse und der Holzvorrat. Der Holzvorrat kann zwar nicht direkt aus den Laser-¬scannerdaten abgeleitet werden, da aber enge Beziehungen zu Baumhöhe und Stammzahl bestehen, kann er aus diesen statistisch abgeleitet werden. Auch die Biomasse wurde indirekt bestimmt: aus den Baumhöhen und dem Bedeckungsgrad. Die detaillierteste Charakterisierung von Waldbeständen kann durch Kombination unterschiedlicher Datensätze erreicht werden. Neben dem Laserscanningdatensatz stand auch ein hyperspektrales Bild des Untersuchungsgebiets zur Verfügung. Um diese zu kombinieren, wurde aus den Wellenformen die jeweils über der Fläche eines Hyperspektralpixels zurückgestreute Laserenergie in Höhenschritten von 0.5 m berechnet. Diese Höhenprofile zeigen die Position und Dichte der Baumkronen. Der kombinierte Datensatz wurde für eine Klassifikation zwischen Fichten und Douglasien in jeweils mehreren Altersstufen verwendet und konnte gegenüber dem Hyperspektralbild alleine eine deutliche Verbesserung der Klassifikationsgenauigkeit erzielen. Als weitere Methode, die Vorteile von hyperspektraler Fernerkundung mit denen von Laser-scanning zu verbinden, wurden Methoden zur Verwendung von Laserscanning für die Invertierung von zwei Reflexionsmodellen entwickelt und getestet. Da mit Laserscanning Größen bestimmt werden können, die aus einem Reflexionsspektrum nicht eindeutig ableitbar sind, können die Daten verwendet werden, um den Parameterraum bei der Invertierung zu verkleinern und damit die Invertierung zuverlässiger zu machen.
In der vorliegenden Arbeit wurden potentielle Kandidatengene für Periodische Katatonie und Schizophrenie untersucht. Es erfolgte eine strukturelle und funktioneller Promotoranalyse des Megalencephalic leukoencephalopathy with subcortikal cysts 1 (Mlc1/MLC1)-Gens, welches eine Rolle bei der Entwicklung der Megalenzephalen Leukoenzephalopathie spielt und auch für die Ätiogenese der Periodischen Katatonie diskutiert wird. Die in silico Promotoranalyse ergab, daß Bindestellen für wichtige Transkriptionsfaktoren und gängige Promotorelemente wie TATA- und GC-Boxen fehlten. Ebenso konnte in vitro keine Aktivität des Promotors nachgewiesen werden, was vermuten läßt, daß ein noch nicht identifiziertes Enhancer-Element oder einen Ko-Faktor für die Aktivierung des Mlc1-Promotors nötig ist. Als ein weiteres Kandidatengen für die Periodische Katatonie wurde das Gen für die mitotic checkpoint kinase BUB1B auf eine mögliche Ätiologie für die Periodische Katatonie untersucht. Aufgrund fehlender kausativer Mutationen konnte BUB1B als Kandidatengen für die Periodische Katatonie ausgeschlossen werden. Ein weiterer Teil dieser Arbeit umfaßte eine Studie zur Untersuchung der Gene für den nikotinergen Acetylcholinrezeptor (CHRNA7), des D-aminosäure Aktivators (DAOA) und des bromodomain containing protein 1 (BRD1) mit einer Assoziation zur Schizophrenie. Es konnte hierbei eine Assoziation von BRD1 mit Schizophrenie bestätigt werden.
Im Rahmen der vorliegenden Dissertation wurden aus den umfassenden Daten der Umweltprobenbank des Bundes relative Vergleichsstandards abgeleitet, welche als Referenzsystem die allgemeine Belastungssituation und deren zeitliche Entwicklung in der Bundesrepublik widerspiegeln, eine Bewertung von gemessenen Schadstoffkonzentrationen in biologischen Matrizes sowie biometrischer Parameter der eingesetzten Bioindikatoren ermöglichen. Anhand der biometrischen Daten des Brassen und der rückstandsanalytischen Daten der Brassenmuskulatur wurde dieses Referenzsystem für die limnischen Systeme in der Bundesrepublik konzeptioniert und umgesetzt. Es handelt sich um ein Fünf-Klassen-System, bei dem die fünf Referenzbereiche durch vier Referenzwerte voneinander abgegrenzt werden. Die Referenzwerte sind aufgrund der repräsentativen Datenbasis in der Lage, die allgemeine Belastungssituation in der Bundesrepublik abzubilden. Da sie sich nur auf einen zweijährigen Bezugszeitraum beziehen und ständig fortgeschrieben werden, kann die zeitliche Entwicklung der allgemeinen Belastungssituation hervorragend dargestellt werden. Aufgrund ihrer rein naturwissenschaftlichen Basis sind Referenzwerte als Umweltqualitätskriterien zu verstehen. Mit den rückstandsanalytischen Umweltqualitätkriterien kann der stoffbezogene Gewässerzustand anhand von Bioindikatoren qualitativ bewertet werden, was eine deutliche Optimierung im stoffbezogenen Gewässerschutz darstellt. Zudem können die Referenzwerte als eine Basis für die Ableitung von hoheitlichen Umweltqualitätsstandards in Rechtsnormen herangezogen werden. Ergänzt werden die stoffbezogenen Umweltqualitätskriterien durch biometrischen Kenngrößen, die eine qualitative Bewertung der Lebensbedingungen des Bioindikators Brassen erlauben.
Es zählt zu den Gemeinplätzen der sozialwissenschaftlichen Forschung, dass politische Wirklichkeit sozial konstruiert ist. Wenig wissen wir hingegen darüber, wie politische Wirklichkeit entsteht, insbesondere wie Sprache bewirkt, dass etwas zu einer allgemein akzeptierten politischen Wirklichkeit wird. In Anknüpfung an die bisherige konstruktivistische Forschung rekonstruiert der Band auf methodisch innovative Weise den Gebrauch von Sprachbildern und Metaphern im deutschen Diskurs über den EU-Verfassungsvertrag. Durch die quantitative und qualitative Extrapolation des metaphorischen Sprechens in der Europadebatte lassen sich nicht nur signifikante Veränderungen in den Diskursen der bundesdeutschen Parteien offenlegen, sondern die Einzelmetaphern lassen sich auch zu machtvollen handlungsleitenden Narrativen verdichten. Dass die europäische Verfassungsfrage vor allem eine Frage der demokratischen Legitimation und europäischen Identität, des politischen Gestaltungswillens und der Finalität Europas ist, scheint dabei wenig überraschend. Dass die Frage der Konstitutionalisierung Europas aber auch und gerade ein Diskurs über neue Grenzziehungen und die partielle Schließung "offener Staatlichkeit" ist, kann hingegen als das eigentlich "Neue" in der deutschen Europapolitik angesehen werden.
The visualization of relational data is at the heart of information visualization. The prevalence of visual representations for this kind of data is based on many real world examples spread over many application domains: protein-protein interaction networks in the field of bioinformatics, hyperlinked documents in the World Wide Web, call graphs in software systems, or co-author networks are just four instances of a rich source of relational datasets. The most common visual metaphor for this kind of data is definitely the node-link approach, which typically suffers from visual clutter caused by many edge crossings. Many sophisticated algorithms have been developed to layout a graph efficiently and with respect to a list of aesthetic graph drawing criteria. Relations between objects normally change over time. Visualizing the dynamics means an additional challenge for graph visualization researchers. Applying the same layout algorithms for static graphs to intermediate states of dynamic graphs may also be a strategy to compute layouts for an animated graph sequence that shows the dynamics. The major drawback of this approach is the high cognitive effort for a viewer of the animation to preserve his mental map. To tackle this problem, a sophisticated layout algorithm has to inspect the whole graph sequence and compute a layout with as little changes as possible between subsequent graphs. The main contribution and ultimate goal of this thesis is the visualization of dynamic compound weighted multi directed graphs as a static image that targets at visual clutter reduction and at mental map preservation. To achieve this goal, we use a radial space-filling visual metaphor to represent the dynamics in relational data. As a side effect the obtained pictures are very aesthetically appealing. In this thesis we firstly describe static graph visualizations for rule sets obtained by extracting knowledge from software archives under version control. In a different work we apply animated node-link diagrams to code-developer relationships to show the dynamics in software systems. An underestimated visualization paradigm is the radial representation of data. Though this kind of data has a long history back to centuries-old statistical graphics, only little efforts have been done to fully explore the benefits of this paradigm. We evaluated a Cartesian and a radial counterpart of a visualization technique for visually encoding transaction sequences and dynamic compound digraphs with both an eyetracking and an online study. We found some interesting phenomena apart from the fact that also laymen in graph theory can understand the novel approach in a short time and apply it to datasets. The thesis is concluded by an aesthetic dimensions framework for dynamic graph drawing, future work, and currently open issues.
Während deutsche Einwanderer sich nur bedingt gegen die Institution der Sklaverei aussprachen, zeigten sie in ihrer Sicht auf African Americans ein weit höheres Maß an Geschlossenheit in ihrer ablehnenden Haltung. Um die Divergenz zwischen der Wahrnehmung von Sklaverei und African Americans sinnvoll zu kontextualisieren und zu erklären, erscheint die Kategorie der race als erhellende Untersuchungseinheit, welche hilft, die einseitige Wahrnehmung auf der menschlichen im Vergleich zur institutionellen Ebene zu beleuchten. Da der Begriff race weit weniger ideologisch belastet ist als der Begriff des Rassismus, bietet er ein Instrument, welches die nötige Offenheit für verschiedene Erklärungsansätze besitzt. Als Arbeitsgrundlage dient dabei die Definition von Stephen Cornell und Douglas Hartman. Die Autoren betonen besonders stark den menschlichen Ursprung der Kategorie race, ein für diese Untersuchung besonders wichtiger Aspekt, weil er auf die soziale Eingebundenheit des Konzepts verweist. Als solches handelt es sich bei race um eine historische Einheit, die Diskussionen und Wandlungen unterworfen war. Menschen schufen diese Kategorie als distinktes Merkmal für eine Gruppe von Menschen, die sie so eindeutig als von sich selbst unterschiedlich darstellten und damit eine möglichst große und eindeutige Differenz schufen. Diese Vorüberlegungen bilden die Basis für den Kontext, in dem die deutschen Einwanderer ihre Unterschiedlichkeit zu schwarzen Menschen wahrnahmen und davon ausgehend diese als Menschen beurteilten, was häufig mit einer Bewertung der Institution der Sklaverei einherging, der viele der in Amerika lebenden African Americans unterworfen waren. Die Divergenz zwischen dem Selbst und dem Gegenüber schlägt sich dabei in den komplementären Konzepten von blackness und whiteness nieder. Im Zusammenhang mit den deutschen Immigranten spielen diese beiden Perspektiven eine wichtige Rolle, weil so die Denkmuster der Deutschen zum Teil aus ihrem Fokus auf das Anderssein ihres Gegenübers, also der blackness, und zum Teil aus dem Gefühl der eigenen besonderen Stellung, also der whiteness, zu erklären sind. Deutsche Einwanderer schlossen sich Argumentationsmustern aus der Literatur oder der Populärwissenschaft in unterschiedlichen Ausprägung sowohl direkt auch indirekt an, was darauf hindeutet, dass sie wohl mit Gedanken um die Thematik blackness bereits schon in der alten Heimat in variierender Intensität konfrontiert worden waren und damit ihre Äußerungen zu schwarzen Menschen, welche sie nach ihrer Ankunft in den USA trafen, auch auf Vorstellungen beruhten, die sie vor einem direkten Kontakt mit Schwarzen geformt hatten. In Anlehnung an die Diskussionen innerhalb der USA zu schwarzen Menschen wurde Blackness für die deutschen Einwanderer zu einer gesellschaftlichen Kategorie, mit der sie sich in unterschiedlichen Intensitätsgraden auseinandersetzten mussten, weil sie potentiell enorme Auswirkungen auf die verschiedensten Aspekte des Lebens haben konnte. Die Institution der Sklaverei als eine auf race basierende Arbeitsform spielte dabei eine wichtige Rolle, weil hier eine institutionalisierte Manifestation der rassistischen Hierarchisierung in der amerikanischen Gesellschaft existierte. Innerhalb dieser hierarchisierten Gesellschaft stellte die Distanzierung von schwarzen Menschen und, damit einhergehend, die Integration in die Gruppe der weißen Amerikaner eine grundlegende Tendenz dar. Die Kategorie whiteness gewann also enorm an Wichtigkeit für die Einwanderer, wobei die sich daraus ergebenden Folgen etwa in wirtschaftlicher Hinsicht nicht unbedingt der Realität entsprechen mussten, sondern auch auf subjektive Wahrnehmungen beschränkt sein konnten. Vor diesem Hintergrund erklärt sich die hohe Zahl der deutschen Immigranten, die eine latente Abneigung oder sogar offene Abscheu gegenüber African Americans zeigte. Dieser Anreiz zur Differenzierung in Weiße und Schwarze war im Zusammenhang mit der Diskussion um die Institution der Sklaverei nicht gegeben, denn dabei ging es vor allem den intellektuellen Deutschen primär um abstrakte Ideen wie Freiheit und Gleichheit, die sie dann ohne oder nur mit geringem Bezug zu schwarzen Menschen diskutierten. Solange also die Distanz zu African Americans und damit die Zugehörigkeit zur Kategorie whiteness gewahrt blieb, konnten die Deutschen ihre Meinungen gegen die Sklaverei äußern. Es ging dann nicht um das Wohl der Schwarzen, sondern um die Institution und die damit verbundenen abstrakten Prinzipien.
Zu Beginn des 18. Jh. setzten sich der Franzose Jean-Baptiste Du Bos (Réflexions critiques sur la poësie et sur la peinture, Paris 1719) und der Italiener Francesco de Ficoroni (Le maschere sceniche e le figure comiche d"antichi romani, Rom 1736) mit der Frage auseinander, ob die antiken Theatermasken die Aufgabe gehabt haben könnten, die Stimme ihrer Träger zu verstärken. Beide kamen zu einem bejahenden Ergebnis, was zur Folge hatte, dass sich viele Handbücher der damaligen Zeit ihrer Meinung anschlossen. Bisweilen wurde dieser Ansicht widersprochen, die Frage offengelassen oder ganz übergangen. Mit der Veröffentlichung von Otto Dingeldeins Aufsatz "Haben die Theatermasken der Alten die Stimme verstärkt?" (Berlin 1890) schien das Interesse an dieser Thematik zu versiegen. Dingeldein erteilte der Stimmverstärkungsfunktion eine entschiedene Absage. Zahlreiche spätere Autoren folgten ihm, indem sie hinsichtlich der akustischen Funktion der Masken lediglich auf seine Abhandlung verwiesen. Kann die Frage der Stimmverstärkung durch die antiken Theatermasken wirklich als vollständig geklärt gelten? Die Tatsache, dass dieses Thema bisher überwiegend aus archäologisch-philologischer Sicht betrachtet wurde, gibt zu Bedenken Anlass, denn eine umfassende Untersuchung desselben erfordert unweigerlich interdisziplinäre Behandlung: Kenntnisse der alten Sprachen, der antiken Kultur (Religion, Theater- und Maskengeschichte, Theater- und Maskenbau), der Akustik sowie insbesondere der menschlichen Stimme. Die bisherigen Beiträge auf diesem Gebiet versuchten zwar teilweise, diesem Anspruch zu genügen, doch fördert eine Einsichtnahme derselben häufig ein unzureichendes phonetisches Verständnis zutage. Aus diesem Grund greift die vorliegende Arbeit die Überprüfung der Verstärkungsfunktion erneut auf, mit dem Ziel, sowohl archäologisch-philologischen als auch phonetischen Erwartungen zu entsprechen. Da die Maske nicht nur zu den Requisiten des antiken Theaters zählte, sondern auch ein Element der griechischen Religion bildete, ist der eigentlichen Untersuchung der Verstärkungsfähigkeit antiker Masken eine Einführung in das antike Theaterwesen und den mit diesem stets verbunden gebliebenen Dionysos-Kult vorangestellt. Ausgehend von einer knappen Skizzierung der antiken Maske (Definition, Aussehen, Handhabung) und ihrer Verankerung im religiösen Bereich (Herkunft) wird zunächst ein Einblick in die Entstehungsgeschichte des griechischen Theaters gegeben (der Gott Dionysos, seine Begleiter, seine Attribute und sein Kult). Danach erfolgt eine Einführung in das dem Kult entsprungene eigentliche Theater, das Theater als staatliche Institution: angefangen bei den attischen Dionysos-Festen, aus denen exemplarisch die Städtischen Dionysien herausgegriffen werden (Festverlauf, -vorbereitung, Ehrungen und Weihgeschenke, Chancengleichheit, Publikum, Schauspieler), über die außerattischen Aufführungen bis hin zu der Geschichte der antiken Maske als theatralischem Requisit, ihrer Entwicklung in der Tragödie und Komödie sowie ihrem Einfluss auf das Mienenspiel. Im Anschluss daran wird das Theaterwesen der Römer vorgestellt, da diese nicht nur das Bühnenspiel, sondern auch den Gebrauch der Maske (nicht aber deren religiöse Komponente) von den Griechen übernommen haben. So weit es möglich war, wurde hierbei versucht, die bei den Griechen besprochenen Aspekte auch bei den Römern Erwähnung finden zu lassen, so dass auch hier der Ursprung des Bühnenspiels den Anfang bildet, gefolgt von den verschiedenen "Spielen" (ludi), unter denen vor allem die "Bühnenspiele" (ludi scaenici) hervorgehoben werden, bis hin zu den Spielbedingungen, Schauspielern und Masken. Den Auftakt für die Untersuchung der akustischen Funktion der antiken Masken macht die Definition der Begriffe "Verstärkung" und "Verständlichkeit", die in der Vergangenheit oft miteinander in Zusammenhang gebracht wurden, deren phonetische Differenzierung für die Analyse der vorliegenden Fragestellung jedoch von erheblicher Wichtigkeit ist. Anschließend werden die für eine Verstärkungsfähigkeit der antiken Masken vorgebrachten Belege vorgestellt, unterteilt in literarische Zeugnisse (Angaben antiker und spätantiker Autoren, aus denen eine Stimmverstärkungsfunktion hervorzugehen scheint), architektonische Beobachtungen (häufig sehr auffallende Mundöffnungen der antiken Masken, für die man eine andere Erklärung als Stimmverstärkung nicht zu finden wusste) sowie pragmatische Überlegungen (Glaube an die Unerlässlichkeit einer künstlichen Stimmverstärkung angesichts der gewaltigen Größe der antiken Freilufttheater und der damit verbundenen Zuschauermassen; befremdende Wirkung maskierter Schauspieler, woraus geschlossen wurde, dass die Masken eine spezielle Bedeutung gehabt haben müssen), deren Gültigkeit detailliert untersucht wird. Als Abschluss werden die Ergebnisse zusammengefasst.
Im Fokus dieser Untersuchung steht die Evaluation allgemeinpsychiatrischer tagesklinischer Behandlung, einerseits zur Überprüfung der Wirksamkeit der teilstationären Intervention bzgl. der Symptomatik, andererseits unter der speziellen Berücksichtigung von generalisierten Vertrauensaspekten (Vertrauenstrias) auf dem theoretischen Hintergrund des Handlungstheoretischen Partialmodells der Persönlichkeit (Krampen, 1987) und ihren Zusammenhängen zu psychischen Erkrankungen. Dem wurde in einer Fragebogenstudie mit 200 tagesklinischen Patienten im Alter von 16 bis 80 Jahren, die im Zeitraum von Oktober 2002 bis Februar 2004 in einer südwestdeutschen Kleinstadt teilstationär aufgenommen worden waren, nachgegangen. Die Patienten unterscheiden sich sowohl in den soziodemographischen Variablen als auch in Diagnosen und Behandlungszeiträumen. Wie in den Hypothesen angenommen, kann in dieser Studie gezeigt werden, dass die teilstationäre Behandlung eine deutliche Verringerung der psychischen Belastung mit sich bringt und Vertrauen " mit Ausnahme von interpersonalem " gesteigert wird. Weiterhin wurden negative Zusammenhänge zwischen Vertrauen und psychischer Krankheit/Gesundheit und Unterschiede bezüglich einzelner Störungsbilder angenommen. Die einzelnen Hypothesen hierzu werden ebenfalls durch diese Studie größtenteils bestätigt.
Ausgangspunkt ist der demographische Wandel und die damit einhergehende älter werdende Erwerbsbevölkerung. Es wird davon ausgegangen, dass aufgrund dieser Entwicklung einige Unternehmen senioritätsorientierte Entgeltstrukturen grundlegend verändern bzw. abschaffen müssen. Es gibt bisher einige wenige theoretische Überlegungen, wie diese veränderten Entgeltstrukturen aussehen könnten. Jedoch wird hierbei nicht berücksichtigt, wie ältere Beschäftigte auf eine derartige Veränderung reagieren könnten. Dieser Frage wird im Rahmen der Dissertation nachgegangen. Ein gesondertes Augenmerk, wird zudem auf die möglichen Reaktionen älterer Arbeitnehmer auf eine Anhebung des Renteneintrittsalters auf 67 Jahre gelegt. Zu diesem Zweck werden aus verschiedenen theoretischen Perspektiven mögliche Verhaltensreaktionen älterer Arbeitnehmer abgeleitet. Grund für die breitangelegte Betrachtung des Sachverhaltes ist die mehrdeutige Bedeutung von Einkommen. Die Höhe der Entlohnung ist nicht nur als Gegenleistung der erbrachten Arbeitsleistung zu sehen, sondern immer auch als Ausdruck von Macht, Prestige, sozialen Status etc. Berücksichtigung finden klassische ökonomische Theorien, Motivationstheorien, Wertwandeltheorien, Theorien zur Arbeitszufriedenheit und Machttheorien. Bei der Behandlung der verschiedenen Theorien wurde des Weiteren der Frage nach alternativen Anreizen zu monetären Anreizen nachgegangen, welche eine spezifische Wirkung auf ältere Arbeitnehmer entwickeln können. Durch eine weiterentwickelte Typologie drei verschiedener Typen der Arbeitsorientierung werden als Ergebnis mögliche Verhaltensreaktionen näher erläutert und auf mögliche alternative Anreize eingegangen.
Seuchen und Krieg waren jedem einzelnen Individuum der spätmittelalterlichen Gesellschaft als elementare Bedrohungen des eigenen Lebens stets gegenwärtig. Welch hohen Stellenwert diese Katastrophen im Bewußtsein der Bevölkerung einnahmen, läßt sich anhand der vielfältigen zeitgenössischen Bild- und Textzeugnisse erschließen. Während diese vor der Mitte des 15. Jahrhunderts aufgrund der manuellen Fertigung in Skriptorien und den Werkstätten von Kartenmalern nur einem relativ kleinen Personenkreis zugänglich waren, herrschten nach der Erfindung des Buchdrucks völlig neue Voraussetzungen bei der Produktion, Reproduktion und Vervielfältigung von Schriftlichkeit. Mit der Druckkunst stand erstmals eine Technologie zur Verfügung, welches es erlaubte, in kurzer Zeit Abbildungen und Texte in bisher nicht geahnter Auflagenhöhe zu fertigen. Mit den Einblattdrucken wurde früh eine Form gefunden - der erste datierbare Einblattdruck ist ein Mainzer Ablaßbrief aus dem Jahre 1454 -, die es erlaubte, mit niedrigem Aufwand einen großen Personenkreis zu erreichen. Die inhaltliche Bandbreite dieser Sonderform des frühen Drucks war beträchtlich. Sowohl textliche als auch bildliche Elemente wurden genutzt, um Ablaßbriefe, Almanache, Lehr- und Mahnblätter sowie Wunderberichte, Sensationsmeldungen usw. zu gestalten. Auftraggeber dieser Blätter waren in der Regel kirchliche und weltliche Institutionen. Neben den bereits genannten Ablaßbriefen bildeten die sogenannten "Andachtsblätter" eine weitere wichtige Gruppe dieser Druckgattung. Nachweislich ist diese besondere Form der Gebets-Fokussierung bereits für das 14. Jahrhundert. Mit dem Aufkommen des Typendrucks setzte eine erste serielle Herstellung von Andachtsblättern ein. Speziell Blätter, welche die Seuchenabwehr thematisierten, wurden bald in großer Vielfalt verlegt. Der Schutz vor Pest und Syphilis nahm hierbei einen hohen Stellenwert ein.rnDas inhaltliche Spektrum dieser "Pestblätter" reichte von der einfachen Fürbitte um Interzession durch den jeweils angerufenen Krankheitspatron bis hin zu komplexen medizinisch, diätetischen Anweisungen in Bild und Text. Neben diesem eher anleitenden Charakter verband der mittelalterliche Mensch mit dieser Variante des Einblattdrucks auch die Funktion eines apotropäischen Talismans.rnAußer der Bedrohung durch Krankheiten sah sich die mittelalterliche Gesellschaft des 15. Jahrhunderts mit einer weiteren existentiellen Bedrohung konfrontiert - dem Krieg. Auch wenn die deutschen Territorien im 15. Jahrhundert weitgehend von großen kriegerischen Auseinandersetzungen verschont blieben, so reichte der sogenannte Schweizer- oder Schwabenkrieg sowie der Bayerisch-Pfälzische (oder Landshuter) Erbfolgekriege aus, die gravierenden Folgen der Kriegsführung für die zivile Gesellschaft vor Augen zu führen. Zu einer weiteren Steigerung der "Kriegsangst" führten die in diesem Zeitraum stattfindenden Auseinandersetzungen mit dem expandierenden Osmanischen Reich. Diese dezidierte Untersuchung der frühesten Einblattdrucke baut auf mehreren grundsätzlichen Fragestellungen auf: Wie, von wem, warum und wann wurden Einblattdrucke hergestellt? Wie und wo erfolgte die Verbreitung von Einblattdrucken? Wer erwarb wann Einblattdrucke und aus welcher Absicht heraus tat er dies? Diese recht komplexen Fragestellungen lassen sich auf drei Schlagworte reduzieren: »Produktion - Diffusion - Rezeption« Aus diesen drei Aspekten des "Lebenslaufes" eines Einblatts ergeben sich die zentralen Forschungsschwerpunkte dieses Projekts. Daher wird auch nach einer einführenden Begriffsdefinition des "Katastrophenblattes" das Hauptaugenmerk zunächst auf der Produktion dieser Druckgattung - den Einblattdrucken - liegen. Bei der anschließend untersuchten Diffusion ist von besonderem Interesse, an welchen Orten, zu welchem Zeitpunkt die Drucke vom Hersteller oder Auftraggeber in den Besitz des "Endverbrauchers" gelangten. Dieses Detail der Untersuchung ist auch daher von besonderer Bedeutung, da über die hier zu ermittelnden Ergebnisse eine Zuordnung erfolgen kann, in welchem gesellschaftlichen Umfeld die Blätter ihre Verwendung fanden. Der Kreis der Rezipienten schließlich ist in mehr als einer Beziehung für dieses Projekt von Bedeutung. Zunächst erlaubt die Kenntnis um ihren gesellschaftlichen Stand eine Einordnung in ein soziales Umfeld. Hieraus wiederum sind Rückschlüsse auf die Formen des Gebrauchs, in diesem Zusammenhang ist insbesondere die Lesefähigkeit von außerordentlicher Relevanz, der Einblattdrucke, welche Katastrophen thematisieren - möglich. Die somit gleichsam am Ende stehenden Gebrauchsformen - diese lassen sich nicht nur aus den Textinhalten der Blätter, sondern auch anhand von Benutzungsspuren, Fundorten usw. ermitteln - bieten Erkenntnisse, wie katastrophalen Ereignissen auf die spätmittelalterliche Gesellschaft einwirkten und welche Schlußfolgerungen diese daraus zog, um letztlich eine Antwort auf sie zu finden.
Theoretischer Hintergrund der vorliegenden Arbeit bildet das Persönlichkeitskonstrukt der Kontrollüberzeugungen (locus of control). Es wurde im Rahmen der sozialen Lerntheorie von Rotter (1954, 1966) entwickelt und beinhaltet generalisierte Handlungs-Ergebnis-Erwartungen. Die zunächst eindimensionale Erfassung der internalen versus externalen Kontrollüber-zeugungen erfuhr " nicht zuletzt aufgrund widersprüchlicher empirischer Befunde " durch Levenson (1972) eine Differenzierung in eine sozial bedingte und eine fatalistische Externalität. In Bezug auf die Vorhersage des Behandlungserfolgs bei Alkoholabhängigkeit hat sich in bisherigen Studien die mehrdimensionale, bereichsspezifische Erfassung der Kontrollüberzeugungen etabliert. In den zahlreichen Untersuchungen, die sich in ihrer Methodik stark voneinander unterscheiden, stellte sich eine höhere Internalität als prädiktiv für eine günstige, eine erhöhte fatalistische Externalität hingegen als prädiktiv für eine ungünstige Prognose heraus. Dabei wird von einem umgekehrt u-förmigen Verlauf eines günstigen Kontrollüberzeugungsstils ausgegangen, wonach sowohl eine zu hohe als auch eine zu niedrige Internalität zu einer inadäquaten Wahrnehmung der eigenen Kontrollmöglichkeiten führen. In dieser Arbeit interessieren die Veränderungen in den generalisierten und bereichsspezifischen Kontroll- und Kompetenzüberzeugungen bei stationär behandelten alkoholabhängigen Patienten. Unter Berücksichtigung weiterer Variablen wie Therapiemotivation, psychopathologische Symptombelastung, Suchtverlangen und komorbide depressive Erkrankung sollen Prädiktoren für die Rückfälligkeit während der Behandlung sowie bis zu einem Jahr danach identifiziert werden. Im Weiteren werden bedeutsame Zusammenhänge zwischen der Ausprägung der Kontrollüberzeugungen und kognitiven Leistungsbeeinträchtigungen vermutet. Externale Kontrollüberzeugungen werden dabei mit Leistungsdefiziten in Verbindung gebracht. Zur Untersuchung der Frage, ob eine hohe Internalität mit einer generellen Überschätzung der eigenen Fähigkeiten und damit einem ungünstigeren Behandlungsergebnis einhergeht, soll die Selbsteinschätzung in fünf neuropsychologischen Testverfahren herangezogen werden. Es wurden 102 alkoholabhängige Patienten in die Studie eingeschlossen. 81 davon konnten sowohl am Anfang als auch am Ende einer durchschnittlich zehnwöchigen stationären Behandlung untersucht werden. 51 Patienten wurden zusätzlich nach einem Jahr schriftlich befragt. Während der Behandlung konnten bei der gesamten Stichprobe, insbesondere bei Patienten mit einem ungünstigeren Kontrollüberzeugungsstil, Veränderungen in die gewünschte Richtung beobachtet werden: Das Selbstkonzept und die Internalität nahmen zu, während sich die sozial bedingte und fatalistische Externalität verringerten. Als einziger signifikanter Prädiktor für die Ein-Jahres-Abstinenz stellte sich das bereichsspezifische, prospektiv ausgerichtete Selbstkonzept zu Beginn der Behandlung heraus. Die bei Behandlungsende erhobenen Variablen besassen keinen Vorhersagewert. Insofern kann angenommen werden, dass die Veränderungen während der Behandlung in nicht unerheblichem Masse durch kurzzeitige Hospitalisations- und soziale Erwünschtheitseffekte beeinflusst worden sind. Patienten, die bereits während der Behandlung rückfällig wurden, zeichneten sich im Vergleich zu abstinenten Patienten bereits zu Beginn durch ein niedrigeres Selbstkonzept, eine niedrigere Internalität sowie eine erhöhte fatalistische Externalität aus. Sie waren psychisch belasteter, hatten ein grösseres Suchtverlangen und wiesen häufiger eine komorbide depressive Störung auf. Bezüglich der bereichsspezifischen, nicht jedoch der generalisierten Kontrollüberzeugungen unterschieden sie sich am Ende der Behandlung noch deutlicher von abstinen-ten Patienten. Die Differenzen blieben bis zur Ein-Jahres-Katamnese bestehen. Insgesamt stellten für die Rückfälligkeit während der Behandlung ein ungünstigerer Kontrollüberzeugungsstil, eine depressive Erkrankung, ein hohes Suchtverlangen und kognitive Leistungseinbussen Risikofaktoren dar, die sich wechselseitig beeinflussten. Patienten mit sehr hoher Internalität zeichneten sich durch eine generelle Überschätzung ihrer kognitiven Leistungsfähigkeit aus. Übereinstimmend damit schützte eine sehr hohe Internalität nicht vor Rückfälligkeit. Eine niedrige Internalität ging hingegen mit einer Unterschätzung der Leistungsfähigkeit in zwei von fünf Tests einher. Die Ergebnisse entsprechen grösstenteils den Erwartungen. Sie werden abschliessend unter Berücksichtigung der methodischen Stärken und Schwächen der vorliegenden empirischen Untersuchung erörtert, in den aktuellen Kenntnisstand eingeordnet und im Hinblick auf zukünftige Forschungsperspektiven diskutiert.
Die vorliegende Arbeit widmet sich der Beantwortung der Fragestellung, inwieweit die NATOisierung Polens und Tschechiens im Bereich der zivil-militärischen Beziehungen erfolgreich war, und aufgrund welcher Akteure, Praktiken und Bedingungen die Normübernahme (nicht) erfolgte. NATOisierung wird hierbei als Sozialisationsprozess im Politikfeld Sicherheit begriffen. Konzeptioneller Ausgangspunkt für die theoriegeleiteten Fallstudien bildet die Entwicklung eines Forschungsdesigns, mittels dessen der rational-institutionalistische und der konstruktivistisch-institutionalistische Strang der internationalen Sozialisations-forschung für die Analyse der NATOisierung postkommunistischer Sicherheitspolitik nutzbar gemacht werden kann. In Kritik an der Mehrheit der Sozialisationsstudien, die die Übernahme von Normen internationaler Institutionen seitens der postkommunistischen Staaten entweder als Verhandlungs- und Anpassungsprozess strategisch handelnder Akteure oder als sozialen Lern- und normativen Überzeugungsprozess intrinsisch motivierter Akteure betrachten, argumentiert diese Studie, dass die Wahl eines komplementären Zugangs sowohl aus theoretisch-konzeptionellen als auch empirisch-phänomenologischen Erwägungen unabdingbar ist. Die hierbei zu Grunde liegende Methode der doppelten Interpretation, mittels derer der Verlauf und das Ergebnis der NATOisierung Polens und Tschechiens im Bereich der zivil-militärischen Beziehungen sowohl aus Sicht des rationalen als auch des konstruktivistischen Institutionalismus beleuchtet worden sind, hat sich als tragfähig erwiesen. In der Tat variiert die Erklärungskraft beider theoretischer Ansätze im Hinblick auf die unterschiedlichen Akteure, Phasen und/oder Kontexte des sicherheitspolitischen Sozialisationsprozesses. Wenngleich die NATO durch ihre Sozialisationspolitik den Demokratisierungsprozess Polens und Tschechiens im Politikfeld Sicherheit begünstigte, bestätigt die empirische Analyse die weit verbreitete Betrachtungsweise der 'Partnerschaft für den Frieden' als ausschließliche Erfolgsgeschichte nicht. Vielmehr war die Erweiterungs- und Sozialisationspolitik der NATO mit gravierenden (nichtintendierenden) Konsequenzen verbunden, die sich hinderlich auf die Transformation der zivil-militärischen Beziehungen postkommunistischer Staaten auswirkten.
Aggression is one of the most researched topics in psychology. This is understandable, since aggression behavior does a lot of harm to individuals and groups. A lot is known already about the biology of aggression, but one system that seems to be of vital importance in animals has largely been overlooked: the hypothalamic-pituitary-adrenal (HPA) axis. Menno Kruk and Jószef Haller and their research teams developed rodent models of adaptive, normal, and abnormal aggressive behavior. They found the acute HPA axis (re)activity, but also chronic basal levels to be causally relevant in the elicitation and escalation of aggressive behavior. As a mediating variable, changes in the processing of relevant social information is proposed, although this could not be tested in animals. In humans, not a lot of research has been done, but there is evidence for both the association between acute and basal cortisol levels in (abnormal) aggression. However, not many of these studies have been experimental of nature. rnrnOur aim was to add to the understanding of both basal chronic levels of HPA axis activity, as well as acute levels in the formation of aggressive behavior. Therefore, we did two experiments, both with healthy student samples. In both studies we induced aggression with a well validated paradigm from social psychology: the Taylor Aggression Paradigm. Half of the subjects, however, only went through a non-provoking control condition. We measured trait basal levels of HPA axis activity on three days prior. We took several cortisol samples before, during, and after the task. After the induction of aggression, we measured the behavioral and electrophysiological brain response to relevant social stimuli, i.e., emotional facial expressions embedded in an emotional Stroop task. In the second study, we pharmacologically manipulated cortisol levels 60min before the beginning of the experiment. To do that, half of the subjects were administered 20mg of hydrocortisone, which elevates circulating cortisol levels (cortisol group), the other half was administered a placebo (placebo group). Results showed that acute HPA axis activity is indeed relevant for aggressive behavior. We found in Study 1 a difference in cortisol levels after the aggression induction in the provoked group compared to the non-provoked group (i.e., a heightened reactivity of the HPA axis). However, this could not be replicated in Study 2. Furthermore, the pharmacological elevation of cortisol levels led to an increase in aggressive behavior in women compared to the placebo group. There were no effects in men, so that while men were significantly more aggressive than women in the placebo group, they were equally aggressive in the cortisol group. Furthermore, there was an interaction of cortisol treatment with block of the Taylor Aggression Paradigm, in that the cortisol group was significantly more aggressive in the third block of the task. Concerning basal HPA axis activity, we found an effect on aggressive behavior in both studies, albeit more consistently in women and in the provoked and non-provoked groups. However, the effect was not apparent in the cortisol group. After the aggressive encounter, information processing patterns were changed in the provoked compared to the non-provoked group for all facial expressions, especially anger. These results indicate that the HPA axis plays an important role in the formation of aggressive behavior in humans, as well. Importantly, different changes within the system, be it basal or acute, are associated with the same outcome in this task. More studies are needed, however, to better understand the role that each plays in different kinds of aggressive behavior, and the role information processing plays as a possible mediating variable. This extensive knowledge is necessary for better behavioral interventions.
In dieser Abhandlung wird die Stellung der Mädchenbildung in der staatlichen Bildungspolitik in der Phase verdichteter staatlicher Reformbestrebungen an der Wende vom 18. zum 19. Jahrhundert untersucht. Dazu wird ein Vergleich zwischen der preußischen Kurmark und dem Land Österreich unter der Enns in Österreich durchgeführt.
This work addresses the algorithmic tractability of hard combinatorial problems. Basically, we are considering \NP-hard problems. For those problems we can not find a polynomial time algorithm. Several algorithmic approaches already exist which deal with this dilemma. Among them we find (randomized) approximation algorithms and heuristics. Even though in practice they often work in reasonable time they usually do not return an optimal solution. If we constrain optimality then there are only two methods which suffice for this purpose: exponential time algorithms and parameterized algorithms. In the first approach we seek to design algorithms consuming exponentially many steps who are more clever than some trivial algorithm (who simply enumerates all solution candidates). Typically, the naive enumerative approach yields an algorithm with run time $\Oh^*(2^n)$. So, the general task is to construct algorithms obeying a run time of the form $\Oh^*(c^n)$ where $c<2$. The second approach considers an additional parameter $k$ besides the input size $n$. This parameter should provide more information about the problem and cover a typical characteristic. The standard parameterization is to see $k$ as an upper (lower, resp.) bound on the solution size in case of a minimization (maximization, resp.) problem. Then a parameterized algorithm should solve the problem in time $f(k)\cdot n^\beta$ where $\beta$ is a constant and $f$ is independent of $n$. In principle this method aims to restrict the combinatorial difficulty of the problem to the parameter $k$ (if possible). The basic hypothesis is that $k$ is small with respect to the overall input size. In both fields a frequent standard technique is the design of branching algorithms. These algorithms solve the problem by traversing the solution space in a clever way. They frequently select an entity of the input and create two new subproblems, one where this entity is considered as part of the future solution and another one where it is excluded from it. Then in both cases by fixing this entity possibly other entities will be fixed. If so then the traversed number of possible solution is smaller than the whole solution space. The visited solutions can be arranged like a search tree. To estimate the run time of such algorithms there is need for a method to obtain tight upper bounds on the size of the search trees. In the field of exponential time algorithms a powerful technique called Measure&Conquer has been developed for this purpose. It has been applied successfully to many problems, especially to problems where other algorithmic attacks could not break the trivial run time upper bound. On the other hand in the field of parameterized algorithms Measure&Conquer is almost not known. This piece of work will present examples where this technique can be used in this field. It also will point out what differences have to be made in order to successfully apply the technique. Further, exponential time algorithms for hard problems where Measure&Conquer is applied are presented. Another aspect is that a formalization (and generalization) of the notion of a search tree is given. It is shown that for certain problems such a formalization is extremely useful.
N-acetylation by N-acetyltransferase 1 (NAT1) is an important biotransformation pathway of the human skin and it is involved in the deactivation of the arylamine and well-known contact allergen para-phenylenediamine (PPD). Here, NAT1 expression and activity were analyzed in antigen presenting cells (monocyte-derived dendritic cells, MoDCs, a model for epidermal Langerhans cells) and human keratinocytes. The latter were used to study exogenous and endogenous NAT1 activity modulations. Within this thesis, MoDCs were found to express metabolically active NAT1. Activities were between 23.4 and 26.6 nmol/mg/min and thus comparable to peripheral blood mononuclear cells. These data suggest that epidermal Langerhans cells contribute to the cutaneous N-acetylation capacity. Keratinocytes, which are known for their efficient N-acetylation, were analyzed in a comparative study using primary keratinocytes (NHEK) and different shipments of the immortalized keratinocyte cell line HaCaT, in order to investigate the ability of the cell line to model epidermal biotransformation. N-acetylation of the substrate para-aminobenzoic acid (PABA) was 3.4-fold higher in HaCaT compared to NHEK and varied between the HaCaT shipments (range 12.0"44.5 nmol/mg/min). Since B[a]P induced cytochrome p450 1 (CYP1) activities were also higher in HaCaT compared to NHEK, the cell line can be considered as an in vitro tool to qualitatively model epidermal metabolism, regarding NAT1 and CYP1. The HaCaT shipment with the highest NAT1 activity showed only minimal reduction of cell viability after treatment with PPD and was subsequently used to study interactions between NAT1 and PPD in keratinocytes. Treatment with PPD induced expression of cyclooxygenases (COX) in HaCaT, but in parallel, PPD N-acetylation was found to saturate with increasing PPD concentration. This saturation explains the presence of the PPD induced COX induction despite the high N-acetylation capacities. A detailed analysis of the effect of PPD on NAT1 revealed that the saturation of PPD N-acetylation was caused by a PPD-induced decrease of NAT1 activity. This inhibition was found in HaCaT as well as in primary keratinocytes after treatment with PPD and PABA. Regarding the mechanism, reduced NAT1 protein level and unaffected NAT1 mRNA expression after PPD treatment adduced clear evidences for substrate-dependent NAT1 downregulation. These results expand the existing knowledge about substrate-dependent NAT1 downregulation to human epithelial skin cells and demonstrate that NAT1 activity in keratinocytes can be modulated by exogenous factors. Further analysis of HaCaT cells from different shipments revealed an accelerated progression through the cell cycle in HaCaT cells with high NAT1 activities. These findings suggest an association between NAT1 and proliferation in keratinocytes as it has been proposed earlier for tumor cells. In conclusion, N-acetylation capacity of MoDCs as well as keratinocytes contribute to the overall N-acetylation capacity of human skin. NAT1 activity of keratinocytes and consequently the detoxification capacities of human skin can be modulated by the presence of exogenous NAT1 substrates and endogenous by the cell proliferation status of keratinocytes.
Die Arbeit beschäftigt sich mit der Interaktion zwischen den Juden des Regnum Teutonicum und den verschiedenen Herrschaftsträgern, mit denen die Juden in Kontakt kamen. Dies waren neben dem König auch geistliche und weltliche Landes- und Stadtherren. Chronologisch an vier Herrschaftsphasen Rudolfs ausgerichtet, analysiert die Studie sämtliche überlieferte schriftliche Zeugnisse, um insbesondere der Frage nach der Bedeutung der Kammerknechtschaft im Reich nachzugehen. Diese stellt sich als höchst ambivalente und keinesfalls nur negative Beziehungsform heraus, die zudem nur in einem europäischen Kontext verständlich wird.
Stress is a common phenomenon for animals living in the wild, but also for humans in modern societies. Originally, the body's stress response is an adaptive reaction to a possibly life-threatening situation, and it has been shown to impact on energy distribution and metabolism, thereby increasing the chance of survival. However, stress has also been shown to impact on mating behaviour and reproductive strategies in animals and humans. This work deals with the effect of stress on reproductive behavior. Up to now, research has only focused on the effects of stress on reproduction in general. The effects of stress on reproduction may be looked at from two points of view. First, stress affects reproductive functioning by endocrine (e.g. glucocorticoid) actions on the reproductive system. However, stress can also influence reproductive behavior, i.e. mate choice and mating preferences. Animals and humans do not mate randomly, but exhibit preferences towards mating partners. One factor by which animals and humans choose their mating partners is similarity vs. dissimilarity: Similar mates usually carry more of one's own genes and the cooperation between similar mates is, at least theoretically, less hampered by expressing diverse behaviors. By mating with dissimilar mates on the other hand one may acquire new qualities for oneself, but also for one's offspring, useful to cope with environmental challenge. In humans we usually find a preference for similar mates. Due to the high costs of breeding, variables like cooperation and life-long partnerships may play a greater role than the acquaintance of new qualities.The present work focuses on stress effects on mating preferences of humans and will give a first answer to the question whether stress may affect our preference for similar mates. Stress and mating preferences are at the centre of this work. Thus, in the first Chapter I will give an introduction on stress and mating preferences and link these topics to each other. Furthermore, I will give a short summary of the studies described in Chapter II - Chapter IV and close the chapter with a general discussion of the findings and directions for further research on stress and mating preferences. Human mating behavior is complex, and many aspects of it may not relate to biology but social conventions and education. This work will not focus on those aspects but rather on cognitive and affective processing of erotic and sexually-relevant stimuli, since we assume that these aspects of mating behaviour are likely related to psychobiological stress mechanisms. Therefore, a paradigm is needed that measures such aspects of mating preferences in humans. The studies presented in Chapter II and Chapter III were performed in order to develop such a paradigm. In these studies we show that affective startle modulation may be used to indicate differences in sexual approach motivation to potential mating partners with different similarity levels to the participant. In Chapter IV, I will describe a study that aimed to investigate the effects of stress on human mating preferences. We showed that stress reverses human mating preferences: While unstressed individuals show a preference for similar mates, stressed individuals seem to prefer dissimilar mates. Overall, the studies presented in this work showed that affective startle modulation can be employed to measure mating preferences in humans and that these mating preferences are influenced by stress.
During and after application, pesticides enter the atmosphere by volatilisation and by wind erosion of particles on which the pesticide is sorbed. Measurements at application sites revealed that sometimes more than half of the amount applied is lost into the atmosphere within a few days. The atmosphere is an important part of the hydrologic cycle that can transport pesticides from their point of application and deposit them into aquatic and terrestrial ecosystems far from their point of use. In the region of Trier pesticides are widely used. In order to protect crops from pests and increase crop yields in the viniculture, six to eight pesticide applications take place between May and August. The impact that these applications have on the environmental pollution of the region is not yet well understood. The present study was developed to characterize the atmospheric presence, temporal patterns, transport and deposition of a variety of pesticides in the atmosphere of the area of Trier. To this purpose, rain samples were weekly collected at eight sites during the growing seasons 2000, 2001 and 2002, and air samples (gas and particle phases) were collected during the growing season 2002. Multiresidue analysis methods were developed to determine multiple classes of pesticides in rain water, particle- and gas-phase samples. Altogether 24 active ingredients and 3 metabolites were chosen as representative substances, focussing mainly on fungicides. Twenty-four of the 27 measured pesticides were detected in the rain samples; seventeen pesticides were detected in the air samples. The most frequently detected pesticides and at the highest concentrations, both in rain and air, were compounds belonging to the class of fungicides. The insecticide methyl parathion was also detected in several rain samples as well as two substances that are banned in Germany, such as the herbicides atrazine and simazine. Concentration levels varied during the growing season with the highest concentrations being measured in the late spring and summer months, coinciding with application times and warmer months. Concentration levels measured in the rain samples were, generally, in the order of rnng l-1. Though average concentrations for single substances were less than 100 ng l-1, total concentrations were considerable and in some instances well above the EU drinking water quality standard of 500 ng l-1 for total pesticides. Compared to the amounts applied for pest control, the amounts deposited by rain resulted between 0,004% and 0,10% of the maximum application rates. These low pesticide inputs from precipitation to surface-water bodies is not of concern in vinicultural areas where the impact of other sources, such as superficial runoff inputs from the treated areas and cleaning of field crop sprayers, is more important. However, the potential impacts of these aerial pesticide inputs to non-target sites, such as organic crops, and sensitive ecosystems are as yet not known. Concentration levels in the air samples were in the order of ng m-3 at sites close to the fields were pesticides were applied, while lower values, in the order of pg m-3, were detected at the site located further away from fields where applications were performed. The measured air concentration levels found in this study do not represent a concern for human health in terms of acute risk. Inhalation toxicity studies have shown that an acute potential risk only arises at air concentrations in the range of g m-3. Finally, it must be kept in mind that only a small number of chemicals that were applied in the area were analysed for in this study. In order to gain a better evaluation of the local atmospheric load of pesticides, a wider spectrum of applied substances (including metabolites) needs to be investigated.
Tropospheric ozone (O3) is known to have various detrimental effects on plants, such as visible leaf injury, reduced growth and premature senescence. Flux models offer the determination of the harmful ozone dose entering the plant through the stomata. This dose can then be related to phytotoxic effects mentioned above to obtain dose-response relationships, which are a helpful tool for the formulation of abatement strategies of ozone precursors. rnOzone flux models are dependant on the correct estimation of stomatal conductance (gs). Based on measurements of gs, an ozone flux model for two white clover clones (Trifolium repens L. cv Regal; NC-S (ozone-sensitive) and NC-R (ozone-resistant)) differing in their sensitivity to ozone was developed with the help of artificial neural networks (ANNs). White clover is an important species of various European grassland communities. The clover plants were exposed to ambient air at three sites in the Trier region (West Germany) during five consecutive growing seasons (1997 to 2001). The response parameters visible leaf injury and biomass ratio of NC-S/NC-R clone were regularly assessed. gs-measurements of both clones functioned as output of the ANN-based gs model, while corresponding climate parameters (i.e. temperature, vapour pressure deficit (VPD) and photosynthetic active radiation (PAR)) and various ozone concentration indices were inputs. The development of the model was documented in detail and various model evaluation techniques (e.g. sensitivity analysis) were applied. The resulting gs model was used as a basis for ozone flux calculations, which were related to above mentioned response parameters. rnThe results showed that the ANNs were capable of revealing and learning the complex relationship between gs and key meteorological parameters and ozone concentration indices. The dose-response relationships between ozone fluxes and visible leaf injury were reasonably strong, while those between ozone fluxes and NC-S/NC-R biomass ratio were fairly weak. The results were discussed in detail with respect to the suitability of the chosen experimental methods and model type.
Markenaufbau von Destinationen ist eine kostenintensive und langfristige Angelegenheit. In den vergangenen Jahren stieg das Interesse von Kommunen, Regionen und Ländern die Markenbildung zu verstärken. Gleichzeitig wird aber auch immer mehr der Ruf lauter ein Instrument zu schaffen, das Markenbewertung für Destinationen vornimmt. Vor allem in der Konsumgüter und Investitionsgüterindustrie finden sich zahlreiche Ansätze zur Markenbewertung, im Destinationsmanagement gibt es das bisher kaum. Es gibt drei verschiedene Arten von Verfahren, die meist von Unternehmensberatungen oder Wissenschaftlern entwickelt wurden: Messung des Markenwertes, Messung der Markenstärke und hybride Verfahren. Für Destinationen machen rein quantitative Verfahren wenig Sinn, da es beim Thema "Reise" auch auf eine Vielzahl von qualitativen Merkmalen ankommt. Von daher wurde im Rahmen dieser Dissertation entschieden, sich primär auf ein qualitatives Verfahren zu konzentrieren und verschiedene Modelle der Markenbewertung zu überprüfen. Das Resultat der Überprüfung zeigte, dass es notwendig war verschiedene Modelle zu kombinieren, um damit die Markenstärke einer Destination zu messen. Als empirisches Beispiel wurde hier Spanien ausgewählt, da dies als ein erfolgreiches Beispiel für Branding in der Fachliteratur gesehen wird. Dieses neu entwickelte Verfahren wurde an der Destination Spanien überprüft im Rahmen einer Projektstudie mit Studierenden der Universität Trier. Das Ergebnis zeigte, dass der Ansatz eines qualitativen Verfahrens richtig war, allerdings könnte es in ein hybrides Verfahren überführt werden. Kooperationspartner für die Dissertation war Turespana, Berlin.
For the first time, the German Census 2011 will be conducted via a new method the register based census. In contrast to a traditional census, where all inhabitants are surveyed, the German government will mainly attempt to count individuals using population registers of administrative authorities, such as the municipalities and the Federal Employment Agency. Census data that cannot be collected from the registers, such as information on education, training, and occupation, will be collected by an interview-based sample survey. Moreover, the new method reduces citizens' obligations to provide information and helps reduce costs significantly. The use of sample surveys is limited if results with a detailed regional or subject-matter breakdown have to be prepared. Classical estimation methods are sometimes criticized, since estimation is often problematic for small samples. Fortunately, model based small area estimators serve as an alternative. These methods help to increase the information, and hence the effective sample size. In the German Census 2011 it is possible to embed areas on a map in a geographical context. This may offer additional information, such as neighborhood relations or spatial interactions. Standard small area models, like Fay-Herriot or Battese-Harter-Fuller, do not account for such interactions explicitly. The aim of our work is to extend the classical models by integrating the spatial information explicitly into the model. In addition, the possible gain in efficiency will be analyzed.
This thesis introduces a calibration problem for financial market models based on a Monte Carlo approximation of the option payoff and a discretization of the underlying stochastic differential equation. It is desirable to benefit from fast deterministic optimization methods to solve this problem. To be able to achieve this goal, possible non-differentiabilities are smoothed out with an appropriately chosen twice continuously differentiable polynomial. On the basis of this so derived calibration problem, this work is essentially concerned about two issues. First, the question occurs, if a computed solution of the approximating problem, derived by applying Monte Carlo, discretizing the SDE and preserving differentiability is an approximation of a solution of the true problem. Unfortunately, this does not hold in general but is linked to certain assumptions. It will turn out, that a uniform convergence of the approximated objective function and its gradient to the true objective and gradient can be shown under typical assumptions, for instance the Lipschitz continuity of the SDE coefficients. This uniform convergence then allows to show convergence of the solutions in the sense of a first order critical point. Furthermore, an order of this convergence in relation to the number of simulations, the step size for the SDE discretization and the parameter controlling the smooth approximation of non-differentiabilites will be shown. Additionally the uniqueness of a solution of the stochastic differential equation will be analyzed in detail. Secondly, the Monte Carlo method provides only a very slow convergence. The numerical results in this thesis will show, that the Monte Carlo based calibration indeed is feasible if one is concerned about the calculated solution, but the required calculation time is too long for practical applications. Thus, techniques to speed up the calibration are strongly desired. As already mentioned above, the gradient of the objective is a starting point to improve efficiency. Due to its simplicity, finite differences is a frequently chosen method to calculate the required derivatives. However, finite differences is well known to be very slow and furthermore, it will turn out, that there may also occur severe instabilities during optimization which may lead to the break down of the algorithm before convergence has been reached. In this manner a sensitivity equation is certainly an improvement but suffers unfortunately from the same computational effort as the finite difference method. Thus, an adjoint based gradient calculation will be the method of choice as it combines the exactness of the derivative with a reduced computational effort. Furthermore, several other techniques will be introduced throughout this thesis, that enhance the efficiency of the calibration algorithm. A multi-layer method will be very effective in the case, that the chosen initial value is not already close to the solution. Variance reduction techniques are helpful to increase accuracy of the Monte Carlo estimator and thus allow for fewer simulations. Storing instead of regenerating the random numbers required for the Brownian increments in the SDE will be efficient, as deterministic optimization methods anyway require to employ the identical random sequence in each function evaluation. Finally, Monte Carlo is very well suited for a parallelization, which will be done on several central processing units (CPUs).
Die Fauna-Flora-Habitat-Richtlinie (Richtlinie 92/43/EWG) stellt derzeit das umfangreichste Instrument des internationalen Naturschutzes zur Erhaltung der europäischen Biodiversität dar. Das Grundkonzept der FFH-RL beruht hierbei sowohl auf dem Schutz gefährdeter Arten als auch auf dem Erhalt natürlicher Lebensräume. Dieser ganzheitliche Ansatz verursacht jedoch infolge der großen Anzahl zu berücksichtigender Schutzgüter einen hohen personellen wie finanziellen Aufwand bei der Umsetzung der Richtlinienvorgaben. Daher wurde in der vorliegenden Arbeit am Beispiel der Schmetterlingsart Euphydryas aurinia (Anhang II FFH-RL) überprüft, inwieweit die Konzepte von ESUs (Evolutionarily Significant Units) und MUs (Management Units) geeignete Möglichkeiten bieten, um die Prioritätensetzung bei der Auswahl besonders schützenswerter Vorkommen gefährdeter Arten zu erleichtern. Zu diesem Zweck wurden mit drei verschiedenen Subspezies von E. aurinia (E. aurinia beckeri, E. aurinia debilis, E. aurinia aurinia) Fang-Markierung-Wiederfangstudien durchgeführt, sowie mit Hilfe von Allozym-Elektrophoresen populationsgenetische Parametern in europäischem Kontext und auf regionaler Ebene (Westtschechien) erfasst. Die drei untersuchten Subspezies zeigten hierbei spezifische ökologische Adaptationen an die jeweiligen Habitatbedingungen (z.B. bzgl. der Populationsdichte, Demographie und Mobilität). Ferner wiesen die genetischen Analysen starke Differenzierungen bei E. aurinia in Europa nach, die u.a. Antworten auf phylogeographische und taxonomische Fragestellungen ermöglichen. Auch auf regionaler Ebene (Westtschechien) konnten genetische Differenzierungen festgestellt werden. Auf Basis der erhobenen populationsökologischen und -genetischen Daten wird abschließend die generelle Anwendbarkeit und der Nutzen der Konzepte von ESUs und MUs bei der Etablierung von Schutzkonzepten für E. aurinia und andere Arten der FFH-RL diskutiert. rnDer zweite Teil der vorliegenden Arbeit beschäftigt sich exemplarisch mit dem aktuellen Schutzverfahren für deutsche E. aurinia-Vorkommen im Rahmen der FFH-RL und den damit verbundenen Problemen. Der Schwerpunkt lag hierbei auf der Schutzgebietsauswahl, dem Monitoring und dem Gebietsmanagement. In diesem Kontext werden u.a. Problematiken angesprochen, die sich aus der großen ökologischen Variabilität der Art ergeben bzw. die aufgrund von Koordinierungsschwierigkeiten zwischen einzelnen Bundesländern bestehen. Vor dem Hintergrund dieser Erkenntnisse werden Lösungsvorschläge unterbreitet, wie das aktuelle Schutzverfahren für E. aurinia in Deutschland weiter verbessert werden könnte.
The subject of this thesis is a homological approach to the splitting theory of PLS-spaces, i.e. to the question for which topologically exact short sequences 0->X->Y->Z->0 of PLS-spaces X,Y,Z the right-hand map admits a right inverse. We show that the category (PLS) of PLS-spaces and continuous linear maps is an additive category in which every morphism admits a kernel and a cokernel, i.e. it is pre-abelian. However, we also show that it is neither quasi-abelian nor semi-abelian. As a foundation for our homological constructions we show the more general result that every pre-abelian category admits a largest exact structure in the sense of Quillen. In the pre-abelian category (PLS) this exact structure consists precisely of the topologically exact short sequences of PLS-spaces. Using a construction of Ext-functors due to Yoneda, we show that one can define for each PLS-space A and every natural number k the k-th abelian-group valued covariant and contravariant Ext-functors acting on the category (PLS) of PLS-spaces, which induce for every topologically exact short sequence of PLS-spaces a long exact sequence of abelian groups and group morphisms. These functors are studied in detail and we establish a connection between the Ext-functors of PLS-spaces and the Ext-functors for LS-spaces. Through this connection we arrive at an analogue of a result for Fréchet spaces which connects the first derived functor of the projective limit with the first Ext-functor and also gives sufficient conditions for the vanishing of the higher Ext-functors. Finally, we show that Ext^k(E,F) = 0 for a k greater or equal than 1, whenever E is a closed subspace and F is a Hausdorff-quotient of the space of distributions, which generalizes a result of Wengenroth that is itself a generalization of results due to Domanski and Vogt.
Der Forschungsbereich der Systembiologie hat sich in den letzten Jahren mit unvergleichlicher Dynamik entwickelt und sich als interdisziplinäres Feld in den Biowissenschaften etabliert. Die Systembiologie verfolgt hierbei unter anderem das Ziel, biologische Systeme als Ganzes zu betrachten. Die analytische Erfassung der Stoffwechselzwischenprodukte, auch Metaboliten genannt, eröffnet hierbei neue Möglichkeiten. Metaboliten stellen Zwischenprodukte in vivo ablaufender biochemischer Reaktionen dar und stehen in enger Abhängigkeit zu Vorgängen, welche auf der Ebene von Transkriptom und Proteom gesteuert und ermöglicht werden. In dieser Arbeit wurden Zeitreihen von Metabolitkonzentrationen untersucht, welche im Rahmen von Fermentationsexperimenten mit dem nicht-pathogenen Bodenbakterium Corynebacterium glutamicum erfasst worden sind. Die Fermentationsexperimente wurden auf unterschiedlichen Ausgangssubstraten durchgeführt, wobei die Erfassung der Metabolitkonzentration in äquidistanten zeitlichen Abständen gehandhabt wurde. Zur Korrektur von Messfehlern und zur optimalen Vorverarbeitung der Daten wurde ein maßgeschneidertes System der Datenprozessierung entwickelt. Eine unüberwachte Datenstrukturanalyse ergab, dass sich die Metaboliten ihrer zeitlichen Ausprägung nicht uniform oder gar zufällig verhalten, sondern sich in Gruppen unterschiedlichen Prozessverhaltens einordnen lassen. Diese unüberwachte Eingruppierung anhand der in den Zeitreihen vorhandenen Strukturen erlaubte eine erste grundlegende funktionelle Zuordnung der Metaboliten. Weiterhin konnten in den Konzentrationsdaten Strukturen gefunden werden, welche deutliche Übereinstimmungen mit den physiologischen Phasen des bakteriellen Wachstums zeigten. Die Analyse der Metabolomdaten wurde in einem nächsten Schritt durch eine theoretische Betrachtungsweise erweitert. Hierzu wurde der Stoffwechsel von C. glutamicum rechnergestützt modelliert. Zu diesem Zweck wurde eine Genomannotation durchgeführt, mit dem Ziel einen möglichst umfangreichen und qualitativ hochwertigen Katalog über das enzymatische Repertoire von C. glutamicum aus Sequenzinformation abzuleiten. Generiertes Wissen über vorhandene Enzyme wurde in biochemische Reaktionen übersetzt, welche zu Reaktionsnetzwerken zusammengefügt wurden. Die erzeugten Reaktionsnetzwerke wurden unter Verwendung graphentheoretischer Ansätze analysiert. Die integrative Analyse experimenteller und theoretischer Daten ergab, dass sich Eigenschaften von Metabolitzeitreihen deutlich topologischen Merkmalen zuordnen lassen. So zeigt sich beispielsweise, dass ein auffälliger Zusammenhang zwischen der experimentell erfassten Sensitivität im Konzentrationsverlauf eines Metaboliten und seinem theoretischen Verknüpfungsgrad existiert. Weiterhin konnte gezeigt werden, dass eine hochsignifikante Prozessähnlichkeit zwischen Metaboliten sowohl in direkter Nachbarschaft als auch in größeren Reaktionsabständen auftreten kann, jedoch vorzugsweise dann existiert, wenn beide Metaboliten ihrerseits wenige Reaktionspartner haben. Die integrative Datenanalyse wurde in einem weiteren Schritt abermals erweitert, indem Transkriptominformation weiterer Studien integriert wurde. Im Detail wurde in dieser Analyse die Prozessähnlichkeit theoretisch benachbarter Metaboliten des Zentralstoffwechsels in Zusammenschau mit der Transkription enzymkodierender Gene untersucht. Die Ergebnisse zeigten deutlich, dass eine erhöhte Prozessähnlichkeit benachbarter Metaboliten dann existiert, wenn die entsprechenden enzymkodierenden Gene in Abhängigkeit des verwendeten Ausgangssubstrates signifikant exprimiert waren. Somit konnte ein Zusammenhang zwischen der Prozessähnlichkeit benachbarter Metaboliten in Abhängigkeit zur Genexpression als Resultat substratinduzierter Anpassungsvorgänge gezeigt werden. Es konnte folglich im systembiologischen Kontext belegt werden, dass auf der Ebene des Transkriptoms stattfindende Vorgänge sich deutlich bis in die Zeitreiheneigenschaften erfasster Metabolitkonzentrationen durchpausen können. Darüber hinaus zeigte sich, dass die Berechnung paarweiser Prozessähnlichkeiten das Potenzial zur Charakterisierung der zugrundeliegenden Systemeigenschaften besitzt. So ermöglichte die Betrachtung paarweiser Prozessähnlichkeiten aus allen untersuchten Fermentationsexperimenten, signifikante substrat-induzierte Veränderungen als auch invariante Merkmale im Stoffwechsel von C. glutamicum zu detektieren.
Die vorliegende Arbeit umfasst ein Modell der Zusammenhänge zwischen Führungsverhalten und psychologischen Kontrakten als Einflussfaktoren mitarbeiterbezogener Einstellungen. Auf Seiten der Konsequenzen liegt der Fokus insbesondere auf der Entgeltzufriedenheit der Mitarbeiter. Jede der drei in der Dissertation dargestellten Studien trägt zu dem Verständnis bei, wie sich das Führungsverhalten und psychologische Kontrakte auf die Entgeltzufriedenheit auswirken. Die erste Studie stellt den Zusammenhang zwischen transformationaler Führung und Arbeits- und Entgeltzufriedenheit sowie dem Commitment in den Vordergrund. Zusätzlich wird untersucht, inwiefern der Effekt des Führungsverhaltens durch verschiedene Formen des psychologischen Kontrakts vermittelt wird. Auf Basis dieser Ergebnisse wird in einer zweiten Studie geprüft, inwiefern Entgeltzufriedenheit als multidimensionales Konstrukt betrachtet werden kann. Ferner wird transformationales mit transaktionalem Führungsverhalten kontrastiert, um deren differentielle Effekte zu analysieren. In einer dritten Studie werden die kausalen Beziehungen fokussiert, indem eine Stichprobe von 169 Mitarbeitern aus acht caritativen Unternehmen, in denen leistungsabhängige Vergütungssysteme implementiert wurden, analysiert wird. Zusammenfassend zeigen die Ergebnisse, dass die perzeptuellen Variablen Führung und psychologische Kontrakte als entscheidende Einflussfaktoren der Entgeltzufriedenheit dienen. Eine Diskussion der theoretischen und praktischen Implikationen schließt die Arbeit ab.
Large scale non-parametric applied shape optimization for computational fluid dynamics is considered. Treating a shape optimization problem as a standard optimal control problem by means of a parameterization, the Lagrangian usually requires knowledge of the partial derivative of the shape parameterization and deformation chain with respect to input parameters. For a variety of reasons, this mesh sensitivity Jacobian is usually quite problematic. For a sufficiently smooth boundary, the Hadamard theorem provides a gradient expression that exists on the surface alone, completely bypassing the mesh sensitivity Jacobian. Building upon this, the gradient computation becomes independent of the number of design parameters and all surface mesh nodes are used as design unknown in this work, effectively allowing a free morphing of shapes during optimization. Contrary to a parameterized shape optimization problem, where a smooth surface is usually created independently of the input parameters by construction, regularity is not preserved automatically in the non-parametric case. As part of this work, the shape Hessian is used in an approximative Newton method, also known as Sobolev method or gradient smoothing, to ensure a certain regularity of the updates, and thus a smooth shape is preserved while at the same time the one-shot optimization method is also accelerated considerably. For PDE constrained shape optimization, the Hessian usually is a pseudo-differential operator. Fourier analysis is used to identify the operator symbol both analytically and discretely. Preconditioning the one-shot optimization by an appropriate Hessian symbol is shown to greatly accelerate the optimization. As the correct discretization of the Hadamard form usually requires evaluating certain surface quantities such as tangential divergence and curvature, special attention is also given to discrete differential geometry on triangulated surfaces for evaluating shape gradients and Hessians. The Hadamard formula and Hessian approximations are applied to a variety of flow situations. In addition to shape optimization of internal and external flows, major focus lies on aerodynamic design such as optimizing two dimensional airfoils and three dimensional wings. Shock waves form when the local speed of sound is reached, and the gradient must be evaluated correctly at discontinuous states. To ensure proper shock resolution, an adaptive multi-level optimization of the Onera M6 wing is conducted using more than 36, 000 shape unknowns on a standard office workstation, demonstrating the applicability of the shape-one-shot method to industry size problems.
Die Verwendung von unbestimmten Rechtsbegriffen bereitet Schwierigkeiten bei der Anwendung und gefährdet die Rechtssicherheit. In vielen Rechtsnormen des Umweltrechts (u. a. UVPG) findet der unbestimmte Rechtsbegriff "voraussichtliche erhebliche Umweltauswirkungen" Verwendung. In dieser Arbeit wird ein Beitrag zur Konkretisierung dieses Begriffes im Rahmen der strategischen Umweltprüfung (SUP) geleistet. Dabei wird ein interdisziplinärer Forschungsansatz gewählt, der durch juristische, wie naturwissenschaftliche Methodik geprägt ist und dazu beiträgt das Schutzgut der Biodiversität genauer zu bestimmen. Dazu wird zunächst auf juristischer Ebene geprüft, ob aus dem UVPG sowie weiteren Rechtsnormen des Umweltrechts Informationen zur Konkretisierung dieses Begriffes zu gewinnen sind. Hiernach ergibt sich, dass der Erheblichkeitsbegriff insbesondere dazu dient, Bagatellfälle auszuklammern und Angleichungen zwischen den Rechtsnormen zu erreichen. Da die SUP seit 2005 geltendes Recht ist, ist es wichtig zu sehen, wie in der Gutachtenpraxis mit diesem unbestimmten Rechtsbegriff umgegangen wird. Daher sind vier Umweltberichte gemäß -§14g Satz 2 Nr.5 UVPG überprüft worden. Es stellte sich heraus, dass die Umweltberichte weder in der Lage sind die voraussichtlichen erheblichen Umweltauswirkungen zu Konkretisieren, noch wie es vom UVPG gemäß -§14g Satz 2 Nr.3 UVPG gefordert wird das Schutzgut der Biodiversität hinreichend darzustellen. Aus naturwissenschaftlicher Sicht wurden zunächst natürliche und anthropogene Auswirkungen auf die Biodiversität geprüft, um so die Faktoren zu ermitteln, die die Biodiversität besonders negativ zu beeinflussen vermögen. Demnach gilt es die Faktoren Habitatfragmentierung, Angleichungsprozesse (Biotic homogenization) und Intensität der Landnutzung im Rahmen der SUP frühzeitig zu vermeiden. Die "Convention of Biodiversity" zählt neben den Arten und Landschaften auch die genetische Ebene zum Begriff der Biodiversität. So ist es sinnvoll auch genetische Aspekte in die Schadensbewertung zu integrieren. Daher wurden in einer phylogeographischen Analyse die zwei Genorte Cytochrom Oxidase I und die Control Region der mtDNA des silbergrünen Bläuling, Polyommatus coridon (30 Populationen) untersucht. Es konnte gezeigt werden, dass genetische Analysen zwar wichtige Informationen für die Konkretisierung des unbestimmten Rechtsbegriffes liefern, aber dennoch mit Vorsicht diesbezüglich zu behandeln sind. Letztendlich stellte sich heraus, dass die Konkretisierung des unbestimmten Rechtbegriffes der voraussichtlichen erheblichen Umweltauswirkungen sich im Rahmen der strategischen Umweltprüfung mehr als schwierig und in Hinblick auf der Konzeption der SUP wenig sinnvoll erweist.
Von erinnerungsinduziertem Vergessen wird gesprochen, wenn die Gedächtnisleistung für bestimmte Information dadurch beeinträchtigt wird, dass zu ihr assoziierte Information zuvor abgerufen wurde. Die vorliegende Arbeit beschäftigt sich mit Effekten von Generierung und Selbstreferenz, die aus der Gedächtnisforschung als meist günstige Arten der Enkodierung bekannt sind, auf dieses Phänomen. Die bislang weitgehend vernachlässigt gebliebenen Gemeinsamkeiten von Generierung und Selbstreferenz sind der Ausgangspunkt für die Prüfung von Hypothesen über das Ausmaß erinnerungsinduzierten Vergessens generierter und selbstreferentiell enkodierter Items und dessen Moderation durch die Stimulusqualität der emotionalen Tönung von Items. Dabei wird auch eine funktionale Perspektive eingenommen, nach der erinnerungsinduziertes Vergessen als Ergebnis eines adaptiven Mechanismus verstanden wird und gefragt wird, nach welchen selbstdienlichen und handlungsrelevanten Funktionen erinnerungsinduziertes Vergessen verhindert werden mag und wie solche Funktionen mit verschiedenen Informationsverarbeitungsprozessen assoziiert sind.rnNachdem zunächst Enkodierungsprozesse und gespeicherte mentale Repräsentationen als Determinanten des Erinnerns, sowie die bisherige Forschung zu erinnerungsinduziertem Vergessen, Generierung und Selbstreferenz dargestellt werden, werden vier eigene Experimente geschildert. In Experiment 1 findet sich eine kontraintuitive Intensivierung erinnerungsinduzierten Vergessens infolge von Generierung, die zugleich aber in Einklang mit bestehenden Theorien steht und diese stützt. Außerdem ergeben sich Hinweise auf eine mit Generierung assoziierte Funktion, die durch die Aktivierung selbstrelevanter Repräsentationen gekennzeichnet ist. Beginnend mit Experiment 2 wird dann das Vorhaben verfolgt, Generierung und Selbstreferenz direkt gegenüberzustellen. Während die Experimente 2 und 3 zwar die Generalität des Phänomens erinnerungsinduzierten Vergessens weiter bestätigen und dessen Beeinflussung durch die emotionale Tönung demonstrieren, aber noch keine Ergebnisse zu Tage fördern, die eine Bewertung hinsichtlich unterschiedlicher oder identischer Konsequenzen von Generierung und Selbstreferenz erlauben, zeigt Experiment 4 schließlich eine Äquivalenz der Effekte von Generierung und Selbstreferenz auf, die in der identischen Moderation erinnerungsinduzierten Vergessens durch diernemotionale Tönung besteht. Diese Äquivalenz wird als Beleg der mit beiden Arten der Enkodierung gleichermaßen assoziierten Funktion selbstrelevanter Informationsverarbeitung interpretiert.
Die Breite und Tiefe der zu bewältigenden Aufgaben der Unternehmensführung, der Grad und die Geschwindigkeit der Veränderung der Umwelt der Unternehmung, die Interdependenz von Entscheidungen und ein schier unüberschaubares Netzwerk von Wechselbeziehungen mit den, von den Aktivitäten der Unternehmung betroffenen Individuen und Gruppen resultieren in sich laufend verändernden Ausgangslagen für die Unternehmung und verleihen der Notwendigkeit eines Gestaltungs-, Lenkungs- und Entwicklungsrahmens für das erforderliche Wechselspiel von Stabilisierung und Wandel der Unternehmung ihre Aktualität und Bedeutung. Die Hauptaufgabe der Unternehmensführung im Spannungsfeld komplexer systeminterner und systemexterner Beziehungsgeflechte ist der Umgang und die Bewältigung der sich aus diesen Beziehungsgeflechten bzw. deren Wandel ergebenden Komplexität. Der Paradigmenwechsel von einem reduktionistischen Unternehmensführungsverständnis, welches sich auf die Lenkung der Unternehmung auf Basis monistischer Zielvorstellungen versteht hin zu einem systemisch-evolutorischen Unternehmensführungsverständnis, welches sich auf die Gestaltung und Entwicklung der Unternehmung aufgrund von pluralistischen Zielsystemen und multiplen Kausalitätsbeziehungen versteht, ist noch nicht vollzogen. Auch sieht sich die Unternehmensführung den, im Wettbewerb stehenden Prämissen der opportunistischen Management-Philosophie des Shareholder-Value-Ansatzes und der verpflichteten Management-Philosophie des Stakeholder-Value-Ansatzes gegenüber. Diese Transitionsphase in Wissenschaft und Praxis sieht ein "Ringen zweier Paradigmen um ihre Durchsetzung", wobei diese Entwicklungsdynamik vom Spannungsverhältnis zwischen Bewahrung und Proliferation geprägt ist. Das vorgelegte systemisch-koevolutionäre Modell der strategischen Unternehmensführung stellt einen solchen Beitrag zum Paradigmenwechsel in der Unternehmensführung hin zu einem systemisch-evolutorischen Unternehmensführungsverständnisses auf Basis einer verpflichteten Management-Philosophie dar. Das, auf den dargelegten erkenntnistheoretischen Grundannahmen, Beschreibung von Wirkungszusammenhängen und Handlungsheuristiken der betrachteten Fallstudie aufbauende Modell für die langfristig erfolgreiche Unternehmensführung wird als ein Erklärungsmodell einerseits, welches die Wirkungszusammenhänge erfassen und verstehen helfen soll, und ein Gestaltungsmodell andererseits, welches den Entscheidungsprozess unterstützen soll, verstanden. Die strategische Unternehmensführung - als Prozess der Orientierung und Animation verstanden - soll in diesem Zusammenhang die nachhaltige Sicherung und den Aufbau von Erfolgspositionen, sowie die Aufrechterhaltung der bestehenden Koalitionen bzw. Schaffung der Voraussetzungen für die Bildung zukünftiger, nutzenstiftender Koalitionen zur Sicherung der sinnvollen langfristigen Lebensfähigkeit der Unternehmung, ermöglichen. Die Strategieentwicklung im "10-Stufen-Strategiemodell" wird durch die Komplementarität von marktorientierten und ressourcen- bzw. fähigkeitenorientierten Prozessen und Ansätzen geprägt, um die Wettbewerbsfähigkeit der Unternehmung im Zeitalter der "Hypercompetition" und Streben nach dynamischen und differenzierenden Fähigkeiten zu entwickeln und nachhaltig zu sichern. Dieser Strategieentwicklungsprozess erhält seinen Rahmen durch ein übergelagertes Stakeholdermanagementsystem, welches die Anspruchsbefriedigung und Nutzenoptimierung aller relevanten Stakeholdergruppen zur nutzenstiftenden Verankerung der Unternehmung in seiner Stakeholderumwelt zum Ziel hat. Das so genannte "Strategic Corporate Social Performance Modell" gibt diesem Stakeholdermanagementsystem Namen, Orientierung, Prozesse und Kontrollinstrumente und soll die gegenseitige Anerkennung der Ansprüche der so unterschiedlichen Stakeholdergruppen ermöglichen und zur Sicherung der wirtschaftlichen Basis, zur Wertsteigerung der Unternehmung und der Steigerung der Nutzenbefriedigung aller relevanter Stakeholder führen.
Die vorliegende Arbeit untersucht zwei grundlegende Fragestellungen im Hinblick auf den Betrieb von Genbanken als Beitrag zur Sicherung der genetischen Diversität. Das erste Kapitel behandelt aus rechtlicher Sicht die juristischen Fragen nach dem Zugang zu genetischen Ressourcen, nach dem Ausgleich aus der Nutzung entstehender Vorteile (Access and Benefit Sharing, ABS) und nach den Möglichkeiten des Handels mit Proben gefährdeter Tierarten, dies sowohl im Hinblick auf die rein wissenschaftliche Forschung als auch in Bezug auf kommerziell orientierte Zwecke. Grundlegend für die Bearbeitung dieser Fragen war die detaillierte Betrachtung des Übereinkommens über die biologische Vielfalt (CBD) und des Übereinkommens über den internationalen Handel mit gefährdeten Arten freilebender Tiere und Pflanzen (CITES). Da das CBD im Hinblick auf den Zugang zu genetischen Ressourcen in der Bundesrepublik Deutschland bisher nicht umgesetzt ist, bleibt dem Betreiber einer Genbank zur rechtlichen Absicherung und Klarheit nur die Aushandlung von Materialübertragungsverträgen mit den Ursprungsländern der genetischen Ressourcen. Der nachfolgende Handel mit gelagerten Proben gefährdeter Tierarten ist möglich, wenn dies nicht-kommerziell zur wissenschaftlichen Forschung erfolgt und die beteiligten Institutionen bei ihren Regierungen als wissenschaftliche Institutionen registriert sind. Bei kommerziellen Absichten unterliegt der Handel streng den durch das CITES vorgegebenen Regulierungen. Ausnahmen des Handelsverbotes sind möglich, z.B. dann wenn es sich um Proben von Tieren handelt, die in Gefangenschaft gezüchtet worden sind. Das zweite Kapitel behandelt aus naturwissenschaftlicher Sicht die Möglichkeit der direkten Gewinnung genetischer Materialien von Tieren. Hierbei wurde die Isolierung adulter Stammzellen aus der Haut von Säugetieren als Zielzellen zur Lagerung in Genbanken fokussiert. Am Modellorganismus Hausschwein (Sus scrofa domestica) wurde eine Methode zur Isolation adulter stammzellähnlicher Zellen aus der Haut etabliert. Durch nachfolgende Laborversuche wurden die isolierten stammzellähnlichen Zellen (pSSCs, porcine skin derived stem cell-like cells) charakterisiert. Wie mesenchymale Stammzellen haben pSSCs eine fibroblasten-ähnliche Morphologie und exprimieren die Oberflächenproteine CD9, CD29, CD44 , CD105 und sehr gering CD90. Neben diesen konnte die Expression der stammzellasoziierten Gene Stat3, Oct3/4, Sox2, Nestin, Bcrp1/ABCG2 und Bmi1 nachgewiesen werden. Weitere Versuche zeigten die induzierte Differenzierung der pSSCs zu Zellen zweier embryonaler Keimblätter, dem Ektoderm (Neuronen, Astrozyten) und dem Mesoderm (glatte Muskelzellen und Adipozyten). Zur vollständigen Charakterisierung und gänzlichen Ermittlung des Differenzierungspotentials bedarf es allerdings weiterer Versuche, die wegen der Kostspieligkeit und einem erhöhten zeitlichen Aufwand hier nicht realisierbar waren. Die Expansion und die Kryokonservierung der pSSCs zeigten geringfügige Auswirkungen auf den Phänotyp und das Differenzierungspotential. In Bezug auf die Kryokonservierung konnte wegen der geringen Anzahl an Versuchen eine definitive Aussage über ihre Folgen nicht getroffen werden. Folglich bedarf es weiterer Untersuchungen zur Ermittlung der Auswirkungen der Kryokonservierung auf adulte Stammzellen, die aus der Haut gewonnen werden können. Durch ihre Lagerung in Genbanken eröffnen aus der Haut isolierbare Stammzellen neue Möglichkeiten für den Artenschutz, dies vor allem durch ihre Anwendbarkeit im Rahmen modernster Reproduktionsmethoden und als nahezu unendliche DNA-Quelle für phylogenetische Studien, die zum Populationsmanagement unerlässlich sind. Trotz der sich aus dieser Arbeit ergebenden neuen Fragen - im Hinblick auf den Zugang, die Gewinnung und auch die Lagerung genetischer Materialien gefährdeter Tierarten -, bleibt festzuhalten, dass Genbanken generell die Möglichkeit bieten, vitales, biologisches Material bereitzuhalten. Dies ist sowohl bedeutend für die Grundlagenforschung als auch für den Einsatz dieser Materialien zur Steigerung der Reproduktion gefährdeter Arten, letztlich mit dem Ziel, genetische Variationen zu erhalten, die anderenfalls verloren gehen würden.
The catechol-O-methyltransferase gene (COMT) plays a crucial role in the metabolism of catecholamines in the frontal cortex. A single nucleotide polymorphism (Val158Met SNP, rs4680) leads to either methionine (Met) or valine (Val) at codon 158, resulting in a three- to fourfold reduction in COMT activity. The aim of the present study was to assess the COMT Val158Met SNP as a risk factor for attention-deficit/hyperactivity disorder (ADHD), ADHD symptom severity and co-morbid conduct disorder (CD) in 166 children with ADHD. The main finding of the present study is that the Met allele of the COMT Val158Met SNP was associated with ADHD and increased ADHD symptom severity. No association with co-morbid CD was observed. In addition, ADHD symptom severity and early adverse familial environment were positive predictors of lifetime CD. These findings support previous results implicating COMT in ADHD symptom severity and early adverse familial environment as risk factors for co-morbid CD, emphasizing the need for early intervention to prevent aggressive and maladaptive behavior progressing into CD, reducing the overall severity of the disease burden in children with ADHD.
Although it has been demonstrated that nociceptive processing can be modulated by heterotopically and concurrently applied noxious stimuli, the nature of brain processes involved in this percept modulation in healthy subjects remains elusive. Using functional magnetic resonance imaging (fMRI) we investigated the effect of noxious counter-stimulation on pain processing. FMRI scans (1.5 T; block-design) were performed in 34 healthy subjects (median age: 23.5 years; range: 20-31 yrs.) during combined and single application (duration: 15 s; ISI=36 s incl. 6 s rating time) of noxious interdigital-web pinching (intensity range: 6-15 N) and contact-heat (45-49 -°C) presented in pseudo-randomized order during two runs separated by approx. 15 min with individually adjusted equi-intense stimuli. In order to control for attention artifacts, subjects were instructed to maintain their focus either on the mechanical or on the thermal pain stimulus. Changes in subjective pain intensity were computed as percent differences (∆%) in pain ratings between single and heterotopic stimulation for both fMRI runs, resulting in two subgroups showing a relative pain increase (subgroup P-IN, N=10) vs. decrease (subgroup P-DE, N=12). Second level and Region of Interest analysis conducted for both subgroups separately revealed that during heterotopic noxious counter-stimulation, subjects with relative pain decrease showed stronger and more widespread brain activations compared to subjects with relative pain increase in pain processing regions as well as a fronto-parietal network. Median-split regression analyses revealed a modulatory effect of prefrontal activation on connectivity between the thalamus and midbrain/pons, supporting the proposed involvement of prefrontal cortex regions in pain modulation. Furthermore, the mid-sagittal size of the total corpus callosum and five of its subareas were measured from the in vivo magnetic resonance imaging (MRI) recordings. A significantly larger relative truncus size (P=.04) was identified in participants reporting a relative decrease of subjective pain intensity during counter-stimulation, when compared to subjects experiencing a relative pain increase. The above subgroup differences observed in functional and structural imaging data are discussed with consideration of potential differences in cognitive and emotional aspects of pain modulation.
Allergische Kontaktdermatitis ist eine zellvermittelte verzögerte Überempfindlichkeitsreaktion auf niedermolekulare Substanzen, die häufig Hautreaktionen hervorrufen und dadurch sowohl persönliche als auch berufliche Probleme verursachen. Chemikalien wie para-Phenylendiamin (PPD) und andere verwandte para-Aminobenzole werden häufig in Farben eingesetzt und erlangen aufgrund ihrer starken Allergenität eine immer größere Aufmerksamkeit. Bis jetzt ist das Wissen über zelluläre Immunantworten auf PPD nur begrenzt verstanden. In dieser Studie haben wir das immunmodulatorische Potential vonrnPPD untersucht, vor allem hinsichtlich der Fragestellung, ob PPD selber naive T-Zellen sensibilisieren kann oder ob PPD letztendlich nur ein Allergen ist. In Anbetracht der Tatsache das dendritische Zellen (DZ) eine vorherrschende Rolle bei der allergischen Kontaktdermatitis spielen, haben wir untersucht, in wie weit PPD in der Lage ist, funktionelle Reifung zu modulieren. Um abschätzen zu können, welcher Anteil an PPD nach der Stimulation zur potentiellen Aktivierung tatsächlich zur Verfügung steht, haben wir die metabolische Kompetenz von "monocyte derived dendritic cells" (MoDC) untersucht, PPD zurnacetylieren. Dazu haben wir die N-Acetyltransferase 1 (NAT-1) und N-Acetyltransferase 2(NAT-2) mRNA Expression charakterisiert und weitergehend die metabolische Aktivität von NAT-1 Enzym bestimmt. Mit diesen Versuchen konnten wir zeigen, dass MoDC von 9 aus 10 Spendern das NAT-1 Enzym exprimieren und konnten in 4 von 6 Spendern acetyliertes PPD in Extrakten aus Zellkulturüberständen detektieren. In Anbetracht der Tatsache, dassrnacetyliertes PPD nicht in der Lage ist, MoDC zu aktivieren, können wir davon ausgehen,dass der Anteil an acetyliertem PPD zur DC Aktivierung nicht zur Verfügung steht. Um das sensibilisierende Potential von PPD herauszufinden, haben wir nach Stimulation mit verschiedenen PPD Konzentrationen die Expression von Oberflächenmolekülen, die für die Antigenpräsentation, Co-Stimulation, späte Migration und dendritische Zell-/T-Zell-Wechselwirkung entscheidend sind, zu verschiedenen Zeitpunkten mittels Durchflusszytometrie Messungen (FACS) gemessen. Zusammengefasst konnten wir zeigen,dass PPD signifikant die "chemokine receptor 7" (CCR7) Expression und nicht signifikant die "human leukocyte antigen " DR" HLA-DR, "DC-specific C-type lectin intercellular adhesion molecule-3-grabbing nonintegrin" (DC-SIGN) und "cluster domain" 11c (CD11c) Expression erhöht. Die erhöhte CCR7 Expression ermutigte uns, weiter nachzuforschen, ob PPD trotz der Tatsache, dass es keine traditionelle CD80 und CD86 Expression induzieren kann, fähig ist, DCs zu aktivieren. Ausgiebige Zytokinkinetikmessungen konnten diese Hypothese bestätigen. Mit Cytometric Beat Array (CBA) Messungen konnten wir gleichzeitig Mediatoren wie "Interleukin -1ß" (IL-1ß), "tumor necrosis factor-alpha" (TNF-α), IL-8, IL-6, IL-12P70 undrnIL-10 messen und damit demonstrieren, dass PPD in der Lage ist, bei allen Spendern "Danger Signals" zu induzieren. Zudem konnten wir zeigen, dass die PPD induzierte Zytokinausschüttung interindividuell schwankte und zu unterschiedlichen Zeitpunkten erfolgte. Überraschenderweise war die qualitative Zusammensetzung der Zytokine vergleichbar. Während in 3 von 4 Spendern die Zytokinexpression eher schwach erhöht war und von kurzer Dauer, haben wir in einem Spender vor allem mit den Konzentrationen von 10μM und 50μM PPD verblüffend hohe Zytokinausschüttungen gemessen. Dieser Spenderrnscheint eine Person zu repräsetieren, die empfänglicher für eine PPD Sensibilisierung ist als andere. Unabhängig davon, hat uns die Tatsache, dass PPD in allen Spendern "Danger Signals", aber keine gesteigerte Expressionsrate von traditionellen Reifungsmarkern (mit Ausnahme von CCR7) induzierte, veranlasst zu untersuchen, ob PPD anderweitig fähig ist,in MoDC Immunantworten zu modulieren. Daraufhin haben wir den Einfluss von PPD aufrnaktivierte DCs gemessen und die Ergebnisse bestätigten die Annahme. Weiterhin konnten wir zeigen, dass PPD immunogenes Potential aufweist. Aufgrund der Tatsache, dass die LPS induzierten Signaltransduktionswege in MoDC gut charakterisiert sind, konnten wir mit dieser Studie zusätzlich Hinweise über die PPD induzierte Signalgebung liefern.
Der Radtourismus hat in den letzten 15 bis 20 Jahren eine dynamische Entwicklung genommen, die ihn zu einer wichtigen Tourismusart für viele Regionen in vor allem ländlich geprägten Regionen werden ließ. Die Konsequenz war und ist ein erheblicher Ausbau der radtouristischen Infrastruktur, die hauptsächlich aus öffentlichen Mitteln finanziert wurde. Die radtouristische Nachfrage umfasst in Deutschland - je nach zu Grunde gelegten Daten - zwischen 4,2 und 7,9 Mio. Bundesbürger. Dabei ist die Entwicklung dieser Nachfrage in den letzten Jahren eher stagnierend verlaufen, trotzdem steht ihr ein weiter wachsendes radtouristisches Angebot gegenüber. Die Frage, ob sich diese Investitionen über die durch den Radtourismus ausgelösten regionalwirtschaftlichen Effekte bezahlt machen, steht im Zentrum dieser Arbeit und wurde mit Hilfe einer empirischen Erhebung untersucht. Für das Bundesland Rheinland-Pfalz insgesamt konnte eine Spannweite von 4,2 bis 7,7 Mio. Radtouristen pro Jahr ermittelt werden, wovon zwischen 2,9 und 6,0 Mio. Tagesgäste sind. Auf Grund der während der Radurlaube getätigten Ausgaben lassen sich die durch den Radtourismus induzierten regionalwirtschaftlichen Effekte in einer Größenordnung von 275 Mio. € bis 327 Mio. € bestimmen, was rund 10% der gesamttouristischen Wertschöpfung in Rheinland-Pfalz entspricht. Werden die Investitionskosten für die vier untersuchten Radwege " Mosel-Radweg, Nahe-Radweg, Maare-Mosel-Radweg und Kraut und Rüben-Radweg " der jährlich auf diesen Wegen erzielten Wertschöpfung in Höhe von ca. 62 Mio. € gegenübergestellt, muss festgestellt werden, dass sich die Investitionen schon nach kurzer Zeit über die positiven, indirekten wirtschaftlichen Effekte in den Regionen bezahlt gemacht haben. Insgesamt gesehen stellt sich somit der Radtourismus als attraktives, wirtschaftlich tragfähiges touristisches Segment dar, welches in der Lage ist, auch in peripheren Regionen touristische Wertschöpfung zu erzeugen. Voraussetzung hierfür ist aber die Beachtung der dargestellten Anforderungen, welche die Nachfrage an das Produkt Radtourismus stellt und die Einhaltung von verschiedenen Qualitätsanforderungen. Erst wenn Radtourismus als Qualitätsprodukt verstanden wird, hinter dem auch die touristischen Leistungsträger einer Region stehen, kann Radtourismus zu einem wichtigen Wirtschaftsfaktor innerhalb einer Region entwickelt werden.
Interoception - the perception of bodily processes - plays a crucial role in the subjective experience of emotion, consciousness and symptom genesis. As an alternative to interoceptive paradigms that depend on the participants" active cooperation, five studies are presented to show that startle methodology may be employed to study visceral afferent processing. Study 1 (38 volunteers) showed that startle responses to acoustic stimuli of 105 dB(A) intensity were smaller when elicited during the cardiac systole (R-wave +230 ms) as compared to the diastole (R +530 ms). In Study 2, 31 diabetic patients were divided into two groups with normal or diminished (< 6 ms/mmHg) baroreflex sensitivity (BRS) of heart rate control. Patients with normal BRS showed a startle inhibition during the cardiac systole as was found for healthy volunteers. Diabetic patients with diminished BRS did not show this pattern. Because diminished BRS is an indicator of impaired baro-afferent signal transmission, we concluded that cardiac modulation of startle is associated with intact arterial baro-afferent feedback. Thus, pre-attentive startle methodology is feasible to study visceral afferent processing. rnVisceral- and baro-afferent information has been found to be mainly processed in the right hemisphere. To explore whether cardiac modulation of startle eye blink is lateralized as well, in Study 3, 37 healthy volunteers received 160 unilateral acoustic startle stimuli presented to both ears, one at a time (R +0, 100, 230, 530 ms). Startle response magnitude was only diminished at R +230 ms and for left-ear presentation. This lateralization effect in the cardiac modulation of startle eye blink may reflect the previously described advantages of right-hemispheric brain structures in relaying viscero- and baro-afferent signal transmission. rnThis lateralization effect implies that higher cognitive processes may also play a role in the cardiac modulation of startle. To address this question, in Study 4, 25 volunteers responded first by 'fast as possible' button pushes (reaction time, RT), and second, rated perceived intensity of 60 acoustic startle stimuli (85, 95, or 105 dB; R +230, 530 ms). RT was divided into evaluation and motor response time. Increasing stimulus intensity enhanced startle eye blink, intensity ratings, and RT components. Eye blinks and intensity judgments were lower when startle was elicited at a latency of R +230 ms, but RT components were differentially affected. It is concluded that the cardiac cycle affects the attentive processing of acoustic startle stimuli. rnBeside the arterial baroreceptors, the cardiopulmonary baroreceptors represent another important system of cardiovascular perception that may have similar effects on startle responsiveness. To clarify this issue, in Study 5, Lower Body Negative Pressure at gradients of 0, -10, -20, and -30 mmHg was applied to unload cardiopulmonary baroreceptors in 12 healthy males, while acoustic startle stimuli were presented (R +230, 530 ms). Unloading of cardiopulmonary baroreceptors increased startle eye blink responsiveness. Furthermore, the effect of relative loading/unloading of arterial baroreceptors on startle eye blink responsiveness was replicated. These results demonstrate that the loading status of cardiopulmonary baroreceptors also has an impact on brainstem-based CNS processes. rnThus, the cardiac modulation of acoustic startle is feasible to reflect baro-afferent signal transmission of multiple neural sources, it represents a pre-attentive method that is independent of active cooperation, but its modulatory effects also reach higher cognitive, attentive processes.rn
Auf der Grundlage von bodenphysikalischen Standortdaten wurden mit dem physikalisch basierten Modell CATFLOW Bodenwassergehalte und Abflussprozesse von verschiedenen Standorten im Mesozoikum der Trierer Bucht auf der Plotskale simuliert. Die Standorte unterscheiden sich durch das Ausgangssubstrat der Bodenbildung (lehmig-tonig, schluffig-sandig) und die Landnutzung (Acker, Grünland, Wald). Für die Modellvalidierung standen wöchentliche Bodenwassergehaltsmessungen, monatliche Sickerwassersummen aus Lysimetermessungen und Oberflächen- und Zwischenabflusskurven von Beregnungsversuchen zur Verfügung. Ziel der Arbeit ist es zu untersuchen, inwieweit Retentionseigenschaften, Abflussprozesse und Abflussmengen aus Standortdaten ohne eine weitere Kalibrierung des Modells abgeleitet werden können. Besonderer Wert wird dabei auf die Parametrisierung des Bodens gelegt. Das Modell simuliert den Wassertransport in der Bodenmatrix über die zweidimensionale Richardsgleichung und den schnellen Wassertransport in Makroporen über ein einfaches Bulk-Modell. Daneben werden Oberflächenrauhigkeit, Durchwurzelungstiefe und Vegetationsbedeckung im Jahresgang berücksichtigt. Um den Einfluss von unterschiedlichen Parametrisierungen des Bodens aufzuzeigen, werden verschiedene Parametrisierungsvarianten untersucht. Die van Genuchten/Mualem-Parameter, welche die Retentions- und Leitfähigkeitseigenschaften der einzelnen Bodenhorizonte beschreiben, wurden zum einen über die Bodenart und Trockenrohdichte bestimmt und zum anderen über die Anpassung von Retentionskurven an im Labor bestimmte Punkte der Wasserspannungskurve ermittelt. Die Ergebnisse der Simulationen für die Standorte mit Bodenfeuchtemessung zeigen, dass mit dem Modell der Jahresgang der Bodenfeuchte prinzipiell nachvollzogen werden kann. Jedoch führt keine der drei Parametrisierungsvarianten zu einer eindeutigen Überlegenheit bei der Simulationsgüte. Um neben den üblichen Gütemaßen ein weiteres Kriterium für den Erfolg oder Misserfolg einer Standortsimulation zu gewinnen, wurden die Simulationsergebnisse mit den Messwerten der anderen Standorte verglichen. An vier von zehn Standorten führt der Vergleich der Messwerte mit den Simulationen von anderen Standorten zu einer deutlich besseren Übereinstimmung als die Simulation für diesen Standort. Die Ergebnisse der Simulationen der Lysimeterstandorte zeigen, dass mit dem Makroporenansatz ein schneller Wasserfluss im Sommer nicht simuliert werden kann, da das "Anspringen" der Makroporen im Modellkonzept an den Bodenwassergehalt geknüpft ist. Auch hier wurden die Simulationsergebnisse mit den Messwerten der anderen Standorte verglichen. Für fünf von acht Standorten konnte mit den simulierten Sickerwassermengen von anderen Standorten eine bessere Übereinstimmung erzielt werden. Die Simulation der Sickerwassermenge aus Lysimetern scheint daher auf Grundlage der vorliegenden Datenbasis den jeweiligen Standort nicht in seiner Einzigartigkeit charakterisieren zu können. Die mit den Beregnungsversuchen bestimmten Abflussprozesse konnten für die Mehrheit der 18 Standorte mit dem Modell abgebildet werden. Der Oberflächenabfluss konnte für Standorte, die nicht zur Verschlämmung neigen, unter Berücksichtigung von Infiltrationsdaten sehr gut nachgezeichnet werden. Zwischenabfluss wird zwar simuliert, bleibt aber auf der Plotskale in Dynamik und Abflussmenge hinter dem Realsystem zurück. Mit der Untersuchung konnte gezeigt werden, dass sich sowohl die zeitliche Entwicklung des Bodenwassergehaltes, als auch die gemessenen Abflussprozesse allein über die Standortdaten, ohne eine weitere Kalibrierung des Modells, abbilden lassen. Die Trennschärfe der Modellierung ist bei Standorten mit relativ ähnlicher bodenphysikalischer Ausstattung begrenzt. Andererseits müssen aber auch Messungenauigkeiten, besonders bei der thermogravimetrischen Bestimmung des Bodenwassergehaltes, berücksichtigt werden. Eine standortbezogene Aussage über Retentions- und Abflussverhalten ist über eine Simulation möglich, jedoch bleibt die quantitative Aussagekraft begrenzt.
Diese Arbeit stellt eine Methodik zur Analyse kundenbezogener Arbeitsanforderungen personenbezogener Dienstleistungen am Beispiel der Verkäufertätigkeit im Einzelhandel vor. Eine Besonderheit der Arbeit ist die Einbeziehung des Kunden als Arbeitsanalytiker. Sie umfasst drei aufeinander aufbauende Studien. In der ersten Studie wurden mit Hilfe von Critical-Incident-Technique-Interviews mit Vorgesetzten (N = 35) und Verkäufern (N = 39) von drei Einzelhandelsvertriebsformen (Warenhaus, SB-Warenhaus, Supermarkt) sowie Kunden (N = 29) erfolgsrelevanten Verhaltensweisen von Verkäufern im Kontakt mit Kunden ermittelt. Darauf aufbauend wurde KAVEK V_VG/VK/K - ein Instrument zur Analyse kundenbezogener Arbeitsanforderungen und -aufgaben von Verkäufern im Einzelhandel " konzipiert und im Rahmen der zweiten Studie in den Stichproben der Vorgesetzten (N = 52), der Verkäufer (N = 157) und der Kunden (N= 511) der genannten Einzelhandelsvertriebsformen erprobt und validiert. Schließlich untersucht die dritte Studie Antezedenten kundenbezogener Arbeitsanforderungen sowie deren Effekte auf die arbeitsbezogenen Einstellungen und Befinden von Verkäufern (N = 155). Die Diskussion der Implikationen der Ergebnisse für die Forschung und Praxis schließt die Arbeit ab.
International private equity development is highly volatile with increasing global diversification. This thesis examines the transaction patterns of cross-border private equity investment with a particular focus on the affinity of country pairs. Analysis is based on a comprehensive dataset of 99 countries over 25 years. A three-dimensional gravity model analysis covering source and host country over time exposes the effects of the country determinants: economic mass, economic distance, banking system, corporate endowment, as well as legal, political, and institutional system on the transactions. A new method is developed to examine countries in their dual roles as investor and target. This approach verifies their global importance as source and host, and also makes possible an analysis of overall private equity investment. For private equity-specific multi-investor deals, a scheme is designed to measure cross-border activity with more precision by participation, proportional deal participation, and deal flow. The analysis identifies intense level of affinity between country pairs and reveals that no single country is ideal for private equity activity. Instead, the findings show that the specific push and pull factors within each country constellation define the optimal country as trading partner. The results verify a correlation between cross-border deals and economic masses and reduced economic distance of countries. Geographic distance and cultural similarities, such as language and legal system, intensify the likelihood of initiating transactions. International trade-oriented countries with a high level of development lower the entrance barriers and increase the chances of deal success. A well-funded financial system for the investor and an efficient and competitive banking system of target countries enhance the probability of investment between countries. Also relevant for the likelihood of starting cross-border deals are low corporate tax burdens and advanced scientific competitiveness, and a well-developed stock market in the investor country. Fundamental to frequency and likelihood of success are well-established, high standards of a country- social, political, and legal systems with widespread confidence in the rules of society. In particular, the reliability of contract enforcement, with proven quality of regulations that promote private sector development, proves to be crucial for deal success.
In this study, candidate loci for periodic catatonia (SCZD10, OMIM #605419) on chromosome 15q15 and 22q13.33 have been fine mapped and investigated. Previously, several studies found evidences for a major susceptibility locus on chromosome 15q15 and a further potential locus on 22q13.33 pointing to genetic heterogeneity. Fine mapping was done in our multiplex families through linkage and mutational analysis using genomic markers selected from public databases. Positional candidate genes like SPRED1 and BRD1, and ultra-conserved elements were investigated by direct sequencing in these families. The results narrow down the susceptibility locus on chromosome 15q14-15q15.1 to a region between markers D15S1042 and D15S968, as well as exclusion of SPRED1 and ultra-conserved elements as susceptibility candidates. Fine mapping for two chromosome 23q13.33-linked families showed that the recombination events would place the disease-causing gene to a telomeric ~577 Kb interval and SNP rs138880 investigation revealed an A-allele in the affected person, therefore excludes BRD1 as well as confirmed MLC1 to be the candidate gene for periodic catatonia.
In Beloved, Jazz and Paradise, Toni Morrison negotiates ways of individual and collective identity formation through figurations of space and trauma. In geographical spaces that are public and private, open and closed, inclusive and exclusive, space of the past and spaces of the present, Morrison writes discursive spaces in which to create individual and communal African American history and identity, based on the traumatic hi-stories at the core of the Black American experience: the Middle Passage, slavery, Jim Crow and the Civil Rights Movement, just to name a few. In the three novels, Toni Morrison subscribes to a postmodern notion of space and place, presenting it as relative to the individual- frame of mind. Places are used as metonymies for the protagonists" traumatized minds and their different ways of dealing with trauma. Trauma that is not worked through and transcended is presented by Morrison as impacting the protagonists- ability to fashion a home out of a vast and often hostile space. The physical and mental space of Morrison- protagonists is occupied by historical traumata that disables the protagonists to find a place in the present without revisiting the places of their troubled past. While this burdens their lives, it also opens up a historical and metahistorical discourse that allows the revision of mainstream historiography to include minority histories of oppression and trauma. Morrison reconfigures the American historical landscape by emphasizing the subjectivity of any history and offering alternatives to historical grand narratives through her historiographic metafiction. All three novels explore the possibility of reconciliation between past trauma and present life. Doing so requires Morrison to send her protagonists on strenuous journeys through time and space in order to visit the past trauma that keeps them from making a home in the here and now. The protagonists venture back to the primal scenes that bear major significance for their lives but have been suppressed for being too painful to remember. Their pain thus awakens anew, but out of it grow the possibility of a life in the present and the hope for a future. The pasts Morrison thus digs up serve as anchors to situate the African American place in the American historical landscape. Those primal places have a geographical as well as a historical and psychological quality, as places in Morrison- novels are often used as metonymies for the protagonists" traumatized minds, containing the memory of the traumatic past. By spatializing time, Morrison makes history accessible to a communal working through, thus countering the modernist impulse to treat memory as a private faculty embedded in the individual- psyche. This makes it difficult, for African Americans with individual recollections of slavery and racist oppression for example, to use traumatic memory as the basis for a common sense of identity. Morrison uses spatialized time as a forum to discover this basis, to allow for the establishment of a common historical bond. At the same time, she warns against instrumentalizing a common history to exclude those who do not share it. Any history, for Morrison, should be open and flexible enough to accommodate different perspectives. Essentially, Morrison suggests that western historiography is a discursive construct. By allowing, in all three novels, a polyphonic weaving of different equal histories to destablize a single, authoritative, hegemonic historiography, Morrison gives African Americans the power to construct her own past, her own present, and thereby claim back her identity. Moreover, Morrison destabilizes the duality of private space and public space that has long served to distinguish subjective individual memory from objective communal history and thus to legitimize certain accounts of history at the expense of others. The gendered as well as the racial other, by virtue of being excluded from the public sphere, have been excluded from their own historicization. By opening up the private sphere of personal trauma and loss, Morrison spatializes personal memory in a way that it forms a parallel public sphere in which African Americans may negotiate their historicity, move out of the timelessness of the private into the historicized public. By opening up the traditionally private sphere of the home to the public and turning it into a deeply political place, Morrison redefines home in a way that it does not necessarily conform to the classic view of a closed-off shelter but rather a transient place with flexible boundaries that allows for the formation of liberated individual and communal identities out of (hi)stories of pain and trauma.
Zehn Jahre nach dem Beginn des Eurosystems haben die beteiligten Euro-Zentralbank den Umfang ihrer Gold- und Devisenreserven in der Summe nahezu beibehalten. Hingegen wurde vor der Euro-Einführung erwartet, dass die Europäische Währungsunion einen substanziellen Abbau des Reservevolumens begünstigt. Vor diesem Hintergrund hat die Arbeit das Ziel,die Haltung von Währungsreserven im Eurosystem zu analysieren, deren Höhe, Struktur und Management zu prüfen und strategische Optionen für eine Optimierung aufzuzeigen. Im Ergebnis lässt sich ein signifikanter Abbau von Währungsreserven sowie eine Neuausrichtung im Management der Reservebestände hinsichtlich deren Struktur und Verwaltung begründen. Exemplarisch für das Notenbanksystem der Eurozone werden hierzu die Reservepolitiken der Europäischen Zentralbank und der Deutschen Bundesbank als Fallstudien ausführlich untersucht und Vorschläge für eine Optimierung dieser volkswirtschaftlichen Vermögensbestände aufgezeigt.
Zurzeit werden gesundheitliche Auswirkungen von Mobilfunkstrahlung auf den Menschen kontroversiell diskutiert. Die vorliegende Arbeit untersuchte mögliche Auswirkungen auf Befindlichkeit und psychische Variablen in zwei Studien. Es zeigte sich ein Trend bei einer Variable, es gab jedoch keine signifikanten Effekte. Bei den nicht-experimentellen Befunden wiesen Anrainer von Mobilfunksendeanlagen (self-rater) höhere psychische Belastung auf.
One mechanism underlying the acquisition of interpersonal attitudes is the formation of an association between a valenced unconditioned stimulus (US) and an affectively neutral conditioned stimulus (CS). However, a stimulus (e.g., a person) is not always and necessarily perceived to be unambiguously positive or negative. An individual can be negative regarding abstract (trait) information but at the same time display a positive (concrete) behavior. The present research deals with the question of whether the valence of abstract or concrete information about a US is encoded and subsequently transferred to an associated CS. The central assumptions are that the valence of the concrete information is more important for the evaluation of the US, whereas the abstract information is more important for the evaluation of the CS. The rationale behind these assumptions is that the US is a psychologically proximal stimulus because it elicits a more direct affective reaction. The CS, however, is psychologically more distal because it is merely associated with the US and is therefore only experienced indirectly. It is postulated that the associative relation between US and CS constitutes a dimension of psychological distance. In four studies, the valence of abstract and concrete information about a number of USs was manipulated. Within an evaluative learning paradigm, these stimuli were associated with affectively neutral CSs. As predicted, ambivalent USs were evaluated according to the valence of the concrete information. The evaluation of CSs, however, was influenced more strongly by the valence of the abstract information. Moreover, in a subsequent lexical decision task, participants were faster to categorize abstract (vs. concrete) stimuli when the stimuli were preceded by a CS prime as compared to a US prime. The results provide first evidence that perceived psychological distance influences the evaluations of US and CS in an associative evaluative learning paradigm.
Ziel der vorliegenden Forschungsarbeit war es, den Einfluss des dispositionellen Bedürfnisses nach kognitiver Geschlossenheit (NCC) auf Entscheidungen unter Unsicherheit zu untersuchen. Es wurde vorhergesagt, dass NCC Entscheidungsphänomene moderiert, die sich durch unterschiedliche Ausmaße an Unsicherheit kennzeichnen. Um diese Annahme zu testen, wurden im Rahmen dreier Studien klassische Entscheidungsprobleme vorgegeben, die eine Wahl zwischen Entscheidungsalternativen mit unterschiedlichen Ausmaßen an Unsicherheit, aber gleichem Erwartungswert erforderten. Studien 1 bis 3 untersuchten den Einfluss des NCC auf den fundamentalen Ambiguitätsaversionseffekt im Ellsberg-Paradigma (Ellsberg, 1961). Hierzu wurde eine Adaption des klassischen Zwei-Farben-Urnenproblems vorgegeben, in dem eine Wahl zwischen einer Urne mit bekanntem Risiko und einer ambiguen Urne getroffen werden musste. Hypothesenkonform erwies sich NCC als signifikanter Prädiktor der Urnenwahl. Einzelanalysen zeigten, dass der Ambiguitätsaversionseffekt, der als Präferenz der bekannten (versus der ambiguen) Urne definiert ist, nur in der Gruppe mit hohem NCC auftrat. In der Gruppe mit niedrigem NCC zeigte sich keine systematische Präferenz. Dieser Effekt konnte in allen drei Studien nachgewiesen werden und erwies sich somit als besonders robust und reliabel. Zudem wurde in der dritten Studie der Einfluss des NCC auf Risikoframingeffekte im Asian-Disease-Paradigma untersucht. Hierbei mussten sich die Teilnehmer und Teilnehmerinnen zwischen einer sicheren und einer riskanten Option entscheiden, die in zwei kontextuellen Bedingungen dargeboten wurden: einem Gewinnframe und einem Verlustframe. Die Ergebnisse dieser Studie zeigten, dass sich Individuen mit einem hohen und einem niedrigen NCC in ihren Präferenzen in Abhängigkeit vom jeweiligen Problemframe unterschieden. In der Gruppe mit einem hohen NCC zeigte sich unter Gewinnframing eine starke Präferenz der sicheren Alternative (Risikovermeidung), wohingegen unter Verlustframing keine Option bevorzugt wurde. Individuen mit einem niedrigen NCC wiesen hingegen unter Gewinnframing keine systematische Präferenz auf, wohingegen sie unter Verlustframing stark die riskante Option bevorzugten. Zudem zeigte eine Betrachtung des Verhaltens über die untersuchten Entscheidungsprobleme hinweg, dass Individuen mit einer starken Ausprägung auf dieser Variablen dazu neigten, sich über die untersuchten Entscheidungssituationen hinweg konsistent zu verhalten. Insgesamt unterstützen die Ergebnisse die Annahme, dass NCC eine Persönlichkeitsvariable darstellt, die Entscheidungsverhalten unter Unsicherheit bedeutsam beeinflusst. Implikationen und Konsequenzen dieser Ergebnisse werden diskutiert.
The reduction of information contained in model time series through the use of aggregating statistical performance measures is very high compared to the amount of information that one would like to draw from it for model identification and calibration purposes. It is readily known that this loss imposes important limitations on model identification and -diagnostics and thus constitutes an element of the overall model uncertainty as essentially different model realizations with almost identical performance measures (e.g. r-² or RMSE) can be generated. In three consecutive studies the present work proposes an alternative approach towards hydrological model evaluation based on the application of Self-Organizing Maps (SOM; Kohonen, 2001). The Self-Organizing Map is a type of artificial neural network and unsupervised learning algorithm that is used for clustering, visualization and abstraction of multidimensional data. It maps vectorial input data items with similar patterns onto contiguous locations of a discrete low-dimensional grid of neurons. The iterative training of the SOM causes the neurons to form a discrete, data-compressed representation of the high-dimensional input data. Using appropriate visualization techniques, information on distributions, patterns and relationships in complex data sets can be extracted. Irrespective of their potential, SOM applications have earned very little attention in hydrological modelling compared to other artificial neural network techniques. Therefore, the aim of the present work is to demonstrate that the application of Self-Organizing Maps has very high potential to address fundamental issues of model evaluation: It is shown that the clustering and classification of model time series by means of SOM can provide useful insights into model behaviour. In combination with the diagnostic properties of Signature Indices (Gupta et al., 2008; Yilmaz et al., 2008) SOM provides a novel tool for interpreting the model parameters in the hydrological context and identifying parameter sets that simultaneously meet multiple objectives, even if the corresponding model realizations belong to different models. Moreover, the presented studies and reviews also encourage further studies on the application of SOM in hydrological modelling.
Das Ziel dieser Forschungsarbeit liegt in der Entwicklung einer innovativen Klassifikationsstrategie zur satellitengestützten Forstinventur in einem europäischen Mittelgebirgsraum. Über die Ableitung von thematischen Karten der flächenscharfen Verbreitung von fünf Baumartengruppen (Eiche, Buche, Fichte, Douglasie und Kiefer) sowie drei Entwicklungsphasen (Qualifizierung, Dimensionierung und Reife) werden wichtige für eine nachhaltige Bewirtschaftung von Wäldern erforderliche Grundlagendaten bereitgestellt. rnDie nachhaltige Bewirtschaftung der Vielfachfunktionen von Wäldern (Nutz-, Schutz- und Erholungsfunktionen) sowie der steigende Informationsbedarf in Folge nationaler und internationaler Monitoring- und Berichtspflichten (u.a. Montréal Prozess und Kyoto Protokoll) erfordern aktuelle und flächendeckende Informationen über den Zustand der Wälder. In diesem Kontext können fernerkundliche Daten und Methoden zur Unterstützung konventioneller terrestrischer Verfahren zum Einsatz kommen.rnDas Untersuchungsgebiet dieser Studie umfasst den südlichen und östlichen Teil der rheinland-pfälzischen Eifel mit einer Fläche von mehr als 5200 km-², davon rund 2080 km-² bewaldet. Die naturräumliche Heterogenität, die wuchsklimatischen Unterschiede, die Variabilität von Relief und Topographie, die große Zahl vorkommender Baumarten sowie die kulturhistorische Waldentwicklung in der Eifel stellen eine besondere Herausforderung für satellitengestützte Inventurmethoden dar.rnDurch die bevorzugte Verwendung von Referenzdaten aus der unmittelbaren räumlichen Umgebung eines zu klassifizierenden Bereichs wird bei der Parametrisierung des Klassifikationsansatzes die jeweilige naturräumliche und wuchsklimatische Charakteristik berücksichtigt. Der Vergleich dieses räumlich adaptiven Klassifikationsansatzes mit einer konventionellen Maximum-Likelihood Klassifikation zeigt, dass eine Verbesserung der Klassifikationsgenauigkeit um 12 Prozentpunkte erreicht werden konnte. Die Adaptierung der Klassifikationsstrategie an die naturräumlichen und wuchsklimatischen Bedingungen sowie die Anpassung an bestehende Erhebungsmethoden und Datenorganisation bilden die Grundlage für eine erfolgreiche Anwendung des Verfahrens in einem heterogenen Mittelgebirgsraum. Die hohe erreichte Gesamtgenauigkeit des Klassifikationsergebnisses von rund 74% (über 87% für die fünf Hauptbaumarten) erlaubt die Einbindung der Methode in operationelle Erhebungsverfahren zur Unterstützung der terrestrischen Forstinventur.
Quantitative Untersuchungen im Französischen: Häufigkeitsverteilungen und funktionale Zusammenhänge
(2009)
Die Quantitative Linguistik ist eine relativ junge Disziplin, deren Hauptziel es ist, Gesetzmäßigkeiten zu erforschen, denen sprachliche Phänomene folgen, und gesetzmäßige Zusammenhänge zwischen sprachlichen Variablen zu erklären. Es hat sich inzwischen in einer ganzen Reihe von Untersuchungen immer wieder gezeigt, dass solche Gesetzmäßigkeiten aufgedeckt und erklärt werden können. Die vorliegende Untersuchung stellt einen Beitrag zu dieser Thematik dar. Sie dient der Überprüfung bestimmter lexikalischer und syntaktischer Hypothesen an französischem Sprachmaterial unter der Anwendung quantitativer Methoden. Diese Hypothesen betreffen zweidimensionale Zusammenhänge zwischen den operational definierten quantitativen Eigenschaften der Länge, Frequenz und Polylexie von sprachlichen Einheiten und die Häufigkeitsverteilungen der Einheiten hinsichtlich dieser Eigenschaften. Jede Untersuchungshypothese wird mathematisch modelliert, wobei eine direkte Anwendung der Statistik betrieben wird. D.h.: Bereits existierende theoretische Modelle, die als wahres Bild der zu überprüfenden Hypothesen angesehen werden, werden verwendet. Die Güte der Anpassung des jeweiligen Modells an die empirischen Daten wird aus den Differenzen zwischen den empirischen und den entsprechenden theoretischen Werten abgeschätzt. Bei der empirischen Überprüfung der Hypothesen werden zwei Testverfahren eingesetzt: die Berechnung des Determinationskoeffizienten für die Zusammenhänge zwischen zwei quantitativen Größen und der Chiquadrat-Test für die Verteilungshypothesen. Die durchgeführten Tests bestätigen im Großen und Ganzen die Verträglichkeit der Daten mit den aufgestellten Hypothesen.
Welche Ziele verfolgen Forscher/innen in interdisziplinären Kooperationen mit welchen Handlungen und unter welchen Bedingungen? Ausgehend von dieser Frage ergänzt diese Arbeit die Wissenschaftsforschung zur Interdisziplinarität und die psychologische Forschung zur handlungsleitenden Wissensbasis langfristiger Vorhaben. Mentale Modell von Handlungsstrategien werden aufbauend auf kognitiven und handlungstheoretischen Ansätzen als kognitiv-motivationale Aggregate von Ziel-, Handlungs- und Bedingungswissen konzipiert. Derartige Handlungsstrategien können als Wissensrepräsentationen zur Planung, Regulation und Bewertung des Handelns genutzt werden. Zur theoriegeleiteten Erhebung von Handlungsstrategien wird die Struktur-Lege-Technik Action Strategy Mapping (ASM) neu entwickelt und empirisch validiert. Die ASM-Technik erweist sich als sehr praktikabel, gut erlernbar sowie qualitativ reliable und valide zur Repräsentation handlungsleitenden Wissens im Rahmen eines teilstrukturierten Interviews. Die Analysen der in drei Sonderforschungsbereichen bei 57 Wissenschaftler/innen erhobenen Handlungsstrategien interdisziplinärer Forschungskooperation belegen empirisch sehr heterogene aufgabenbezogene, koorientierte und persönliche Ziele. Der kommunikative Austausch bestätigt sich als zentrale und besonders häufige Handlung interdisziplinärer Kooperation. Die Interdependenz der Handlungsstrategien hängt zudem mit der Projektinterdependenz der Forscher/innen zusammen. Ein Vergleich der Handlungsstrategien von Forscher/innen mit hoher, mittlerer und niedriger Projektinterdependenz zeigt mehrere Zusammenhänge: Bei mittlerer Interdependenz korrelieren inhaltliche und strukturelle Merkmale der Handlungsstrategien positiv mit dem selbst berichteten Erfolg. Bei hoher und niedriger Projektinterpendenz zeigen sich aber negative Zusammenhänge mit dem Erfolg. Die Ergebnisse werden diskutiert im Hinblick auf den Einsatz der ASM-Technik als Diagnose- und Reflexionsmethode sowie inhaltlich auf ihre Bedeutung für das Management interdisziplinärer Forschungskooperation in Sonderforschungsbereichen, insbesondere einer zweckmäßigen Kommunikation und Interdependenz der Wissenschaftler/innen.
Ziel der durchgeführten Arbeit war mittels einer geophysikalischen Untersuchungsmethode die Wasserverteilung in Deponien nach einer Infiltration zu beobachten. Für den Nachweis der Wasserverteilung unterhalb von Infiltrationsstellen wurde die geoelektrische Impedanztomografie eingesetzt. Um das Messverfahren auf seine Eignung zur Detektierung der Infiltrationsauswirkungen in der Deponie zu überprüfen, wurde ein mehrjähriges Untersuchungsprogramm durchgeführt. Dabei hat sich herausgestellt, dass Deponiesickerwasser eine Verringerung des spezifischen Widerstandes im Untersuchungsgebiet verursacht und dieser Tatbestand vom Messsystem gut detektiert wird. Durch das Aufreihen der Ergebnisse als Tomogrammsequenzen wurden die Infiltrationsauswirkungen unterhalb der Infiltrationsstelle visualisiert. Anhand der entstandenen Tomogrammsequenzen und aufgestellten Modellbetrachtungen werden die Einschränkungen und Rahmenbedingungen des eigens dafür entwickelten Darstellungs- und Auswertungsalgorithmus der Arbeit erörtert.
This thesis presents a study of tsunami deposits created by the 2004 Indian Ocean tsunami at the Thai Andaman coast. The outcomes of a study are the characteristics of tsunami deposit for paleo-tsunami database, the identification of major sediment layers in tsunami deposit and the reconstructing tsunami run-ups from the characteristics of tsunami deposit for a coastal development program. The investigations of tsunami deposit are made almost 3 years after the event. Field investigations characterize the tsunami deposit as a distinct sediment layer variable in thickness of gray sand deposited with an erosional basis on a pre-existing soil. The best location for the observation of recent tsunami deposit is the area located about 50-200 m inland from the coastline. In most cases, the deposit layer is normally graded. In some cases, the deposit contains rip-up clasts of muddy soils and/or organic matters. The tsunami deposits are compared with three deposits from coastal sub-environments. The mean grain-size and standard deviation of deposits show that the shoreface deposits are fine to very fine sand, poorly to moderately well sorted; the swash zone deposits are coarse to fine sand, poorly to well sorted; the berm/dune deposits are medium to fine sand, poorly to well sorted; and the tsunami deposits are coarse to very fine sand, poorly to moderately well sorted. The plots of deposit mean grain-size versus sorting indicate that the tsunami deposits are composed of shoreface deposits, swash zone deposits and berm/dune deposits as well. The vertical variation of the texture of tsunami deposit shows that the mean grain-size fines upward and fining landward. The analysis and interpretation of the run-up numbers from the characteristics of tsunami deposits get three run-ups for the 2004 Indian Ocean tsunami at the Thai Andaman coast. It corresponds to field observations from the eye-witness reports and local people- affirmations. The total deposition is a major transportation pattern of onshore tsunami sediments. The sediments must fine in the direction of transport. In general, the major origins of the sediment are the swash zone and berm/dune zone where coarse to medium sand is a significant material, the minor origin of tsunami sediment is a shoreface where a significant material is fine to very fine sand. Only at an area with flat slope shorface, the major origin of tsunami sediment is the shoreface. The thicknesses, the mean grain-sizes, and the standard deviations of tsunami deposits are used to evaluate the influences of coastal morphology on the sediment characteristics. The evaluations show that the tsunami affected areas were attacked by the variable energy waves. Wave energies at the direct tsunami wave affected areas are higher than at the indirect tsunami wave affected areas. Tsunami wave energy is highly dissipated at an area with steep slope shoreface. In the same way, tsunami run-up energy is highly dissipated at an area with steep slope onshore. A channel paralleled to the coastline decreases the run-up velocity, slightly dissipates run-up energy. The road and pond highly influence the characteristics of tsunami deposit and tsunami run-up. A road obstructs the run-up velocity, dissipates run-up energy. A pond decreases run-up velocity, dissipates run-up energy. The characteristics of tsunami deposit can be interpreted for reconstructing the characteristics of tsunami run-up such as a run-up height and a flow velocity. Soulsby et al.(2007)- model is applied for reconstructing tsunami run-up at the study areas. The input parameters are sediment grain-size and sediment inundation distance. Ao Kheuy beach and Khuk Khak beach, Phang Nga province, Thailand are the areas listed for reconstructing tsunami run-up. The evaluated run-up heights are 4.2-4.9 m at Ao Kheuy beach, and 5.4-9.4 m at Khuk Khak beach. The evaluated run-up velocities are 12.8-19.2 m/s (maximum) and 0.2-1.9 m/s (mean) at the coastline and onshore, respectively. Hence, a reasonably good agreement between the evaluated and observed run-up is found. Tsunami run-up height and velocity can be used for coastal development and risk management in the tsunami affected areas. The case studies from the Thai Andaman coast suggest that in the area from coastline to about 70-140 m inland was flooded by the high velocity (high energy) run-ups, and those run-up energies were dissipated there. That area ought to be a non-residential area or a physical protection construction area (flood barrier, forest planting, etc.).
Auf der Grundlage der Beobachtung, dass Städte und Regionen in Deutschland signifikant unterschiedliche durchschnittliche Lohnniveaus aufweisen, macht es sich die Dissertation zur Aufgabe, die Gründe für die Divergenz regionaler Lohnniveaus in Westdeutschland zu erforschen. Theoretischer Ausgangpunkt der Analyse ist das Konzept der lokalen Humankapitalexternalitäten. Dieses besagt, dass der individuelle Bildungsstand eines Arbeitnehmers nicht nur für diesen selbst produktivitätsbestimmend ist, sondern darüber hinaus auch einen Einfluss auf die Produktivität anderer Arbeitnehmer in räumlicher Nähe ausüben kann. Das Vorliegen von Humankapitalexternalitäten ist für den deutschen Fall potenziell relevant, da sich beträchtliche Unterschiede in den durchschnittlichen regionalen Bildungsniveaus feststellen lassen. Die Dissertation untersucht daher, in welchem Umfang regionale Lohndisparitäten in Deutschland auf externe Produktivitätseffekte des regionalen Bildungsniveaus zurückzuführen sind und durch welche mikroökonomischen Mechanismen derartige Effekte entstehen. Diese Frage wird in vier thematisch eng miteinander verknüpften Artikeln beantwortet. Der erste Artikel stellt eine Überblicksstudie dar, in der die Literaturen zu regionalen Humankapitalexternalitäten und zur städtischen Lohnprämie hinsichtlich ihrer Ergebnisse und Methodik miteinander verglichen werden. Der Literaturvergleich zeigt, dass sowohl Agglomerationseffekte, als auch Humankapitalexternalitäten gültige Erklärungen für regionale Lohnunterschiede darstellen. Weiterhin werden die ökonometrische Methodik und die Identifikationsstrategien, die beiden Literaturen zugrunde liegen, verglichen. Es wird gezeigt, dass ein beträchtliches gegenseitiges Lernpotenzial zwischen beiden Literaturen besteht. Der zweite Artikel untersucht empirisch die Bedeutung von Humankapitalexternalitäten für die Divergenz regionaler Lohnniveaus in Deutschland. Es werden individuelle Lohngleichungen geschätzt, die um regionale Variablen erweitert werden. Einer möglichen Inkonsistenz der Schätzer wird durch den Einsatz von Instrumentvariablen begegnet. Die Ergebnisse weisen darauf hin, dass ebenso wie in anderen Ländern der regionale Humankapitalbestand auch in Deutschland einen signifikanten Einfluss auf die Löhne von Arbeitnehmern ausübt und somit zum Auftreten regionaler Lohndifferenziale beiträgt. Der dritte Artikel untersucht das Auftreten von Matchingeffekten als möglichen mikroökonomischen Mechanismus, durch den Humankapitalexternalitäten individuelle Löhne beeinflussen. Konkret wird überprüft, ob in humankapitalintensiven Regionen stärker ausgeprägte lokale Karrierenetzwerke bestehen, die durch einen besseren Informationsfluss im Hinblick auf Karrierechancen zu einer erhöhten Matchingeffizienz und damit zu höheren Löhnen in regionalen Arbeitsmärkten führen. Hierzu wird untersucht, ob sich signifikante Unterschiede zwischen humankapitaintensiven und humankapitalschwachen Regionen hinsichtlich des Lohnanpassungs- und Arbeitsplatzwechselverhaltens von Arbeitnehmern feststellen lassen. Die empirischen Ergebnisse zeigen, dass regionale Humankapitalexternalitäten unter anderem durch verbesserte Matches zwischen Arbeitnehmern und Unternehmen in humankapitalintensiven Regionen entstehen. Der vierte Artikel untersucht, ob erfolgreicher industrieller Wandel und regionale Humankapitalexternalitäten insoweit zwei Seiten derselben Medaille sind, als dass die produktivitätsbestimmende Wirkung des einen Einen das Vorliegen des Anderen voraussetzt. Die Ergebnisse deuten auf eine Komplementarität dynamischer Arbeitsmärkte und regionaler Humankapitalausstattungen hin. So weisen lokale Industrien eine signifikant höhere Produktivität auf, wenn sie in regionalen Arbeitsmärkten beheimatet sind, die gleichermaßen einen hohen Anteil hochqualifizierter Arbeitnehmer und eine überdurchschnittliche Arbeitsmarktdynamik aufweisen. Die Ergebnisse zeigen weiterhin, dass Humankapitalexternalitäten vor allem dann entstehen, wenn Arbeitnehmer ihren Arbeitsplatz innerhalb einer Region wechseln und damit zum Auftreten von produktivitätssteigernden Wissenspillovers und einer erhöhten Matchingeffizienz beitragen. Die Ergebnisse aus allen vier Artikeln untermauern die Bedeutung regionaler Humankapitalexternalitäten für das Entstehen regional unterschiedlicher Lohnniveaus. Hieraus erwachsen zwei zentrale Implikation für die regionale Bildungs- und Infrastrukturpolitiken, die im Schlusskapitel der Dissertation erörtert werden. So können staatliche Investitionen in Humankapital effizienzsteigernd wirken, da eine Unterinvestition in Bildung eine wahrscheinliche Folge beim Vorliegen von Humankapitalexternalitäten ist. Weiterhin können Infrastrukturinvestitionen zu einem Verschmelzen von humankapitalarmen mit humankapitalintensiven Arbeitsmärkten führen und somit eine größere Zahl an Arbeitnehmern an den positiven Produktivitätseffekten, die durch regionale Humankapitalexternalitäten entstehen, teilhaben lassen.
Diese Dissertation behandelt das Thema des Sprachkontakts zwischen der Maya-Sprache k'iche' und das Spanische in Guatemala. Der Sprachkontakt ist seit der Eroberung des Eroberung des K'iche'-Königreichs durch Don Pedro de Alvarado im 16. Jahrhundert von verschiedenen Faktoren geprägt worden: Diese sind ethnohistorischer, sprachpolitischer, religiöser und soziokultureller Natur. So waren die ersten, die sich mit den indigenen Sprachen in der Neuen Welt befassten, die katholischen Missionaren, die Katechismen und Gebetsbücher in einheimische Sprachen übersetzten. Die Renaissance der Erforschung dieser Sprachen wiederum verdankt man den modernen Missionaren, die in den 70er Jahren des vergangenen Jahrhunderts nach Guatemala kamen. Heute versteht man die Maya-Lingustik als Teil einer soziokulturellen Bewegung, die in den letzten 20 Jahren ganz Lateinamerika verändert hat: der sogenannte indigenismo. Das Spanische Guatemalas zeigt sich in der Gegenwart von der Jahrhunderte lange Koexistenz mit den Mayasprachen (hier vor allem der Mayasprache k'iche') geprägt. Diese Prägung ist, wie in dieser Arbeit dargelegt wird, auf phonologischer, morphologischer, morphosyntaktischer und pragmatischer Weise zu erkennen.
This thesis presents a study of the visual change detection mechanism. This mechanism is thought to be responsible for the detection of sudden and unexpected changes in our visual environment. As the brain is a capacity limited system and has to deal with a continuous stream of information from its surroundings only a part of the vast amount of information can be completely processed and be brought to conscious awareness. This information, which passes through attentional filters, is used for goal-directed behaviour. Therefore, the change detection mechanism is a very useful aid to cope with important information which is outside the focus of our attention. rnIt is thought that a neural memory trace of repetitive visual information is stored. Each new information input is compared to this existing memory trace by a so-called change or mismatch detection system. Following a sudden change, the comparison process leads to a mismatch and the detection system elicits a warning signal, to which an orienting response can follow. This involves a change in the focus of attention towards this sudden environmental change which can then be evaluated for potential danger and allows for a behavioural adaptation to the new situation. rnTo this purpose a paradigm was developed combining a 2-choice response time task with in the background a mismatch detection task of which the subjects were not aware. This paradigm was implemented in an ERP and an fMRI study and was used to study the the change detection mechanism and its relationship with impulsivity.rnIn previous studies a change detection system for auditory information had already been established. As the brain is a very efficient system it was thought to be unlikely that this change detection system is only available for the processing of auditory information. rnIndeed, a modality specific mismatch response at the sensory specific occipital cortex and a more general response at the frontocentral midline, both resembling the components shown in auditory research, were found in the ERP study.rnAdditionally, magnetic resonance imaging revealed a possible functional network of regions, which responded specifically to the processing of a deviant. These regions included the occipital gyrus, premotor cortex, inferior frontal cortex, thalamas, insula, and parts of the cingular cortex. rnThe relationship between impulsivity measures and visual change detection was established in an additional study. More impulsive subjects showed less detection of deviant stimuli, which was most likely due to too fast and imprecise information processing.rnIn summary it can be said, that the work presented in this thesis demonstrates that visual mismatch negativity was established, a number of regions could be associated with change detection and additionally the relevance of change detection in information processing was shown.rn
Das Konzept psychologischer und philosophischer Hilfe des niederländischen Psychologen und Philosophen Jac van Essen (1908-1989) ist in der wissenschaftlichen Literatur bislang weitgehend unbekannt. Es beruht auf dem sog. Allmenschlichkeitsgedanken. Zunächst wird Theorie und Praxis der Allmenschlichkeit eingehend als eigenständiger Ansatz dargestellt. Danach werden exemplarisch diverse Konzepte psychologischer Hilfe (Freud, Jung, Adler, Kognitive Therapie, Rogers u.a.) im Licht dieses Ansatzes diskutiert. Er erweist sich als geeigneter Prüfstein dafür, inwieweit Theorie und Praxis jener Konzepte zugleich wissenschaftlich und integral humanitär befriedigen, auch in bezug auf existentielle Aspekte.
Die Studie beschäftigt sich mit der kommunalen Armenfürsorge in Galway und Gort,im Westen Irlands und ihrem Einfluss auf die Entwicklung der lokalen Verwaltung. Der zeitliche Rahmen wird von der Einführung der irischen Armengesetzgebung 1838 und der Unabhängigkeit Irlands 1921 bestimmt. Im Mittelpunkt der Arbeit steht die Frage,welche Bedeutung der Armenverwaltung bei der generellen Ausbildung staatlicher Administration in Irland zukam. Im ersten Teil werden zunächst die sozioökonomischen Rahmenbedingungen in Galway und Gort vorgestellt. Die Lage und Größe,aber auch die wirtschaftliche Situation des Untersuchungsgebietes beeinflusste die Arbeitsweise der lokalen Aufsichtsgremien der Armenverwaltung. Von zentraler Bedeutung ist der rechtliche Rahmen,innerhalb dessen die Aufsichtsgremien der Armenverwaltung operierten. Um die "spezifische Ausprägung" der irischen Institutionen der Armenverwaltung zu analysieren,wird der Vergleich zur englischen und schottischen Armengesetzgebung gezogen. Die Studie untersucht jedoch nicht nur die normative Ebene der Armengesetzgebung zwischen 1838 und 1921,sondern beschäftigt sich vor allem mit der alltäglichen Praxis der Verwaltung vor Ort. Im Mittelpunkt stehen dabei die Akteure auf der lokalen und zentralen Ebene: die Board of Guardians und die Poor Law Commission bzw das Local Government Board. Andere lokale Verwaltungseinrichtungen,wie die Grand Juries oder die Town Commissioners,werden in die Betrachtung einbezogen,soweit sie mit den Aufsichtsgremien der Armenverwaltung in Berührung kamen. Dabei werden besonders parallele und/oder konkurrierende Zuständigkeitsbereiche in den Blick genommen. Diese Analyse der Akteure ermöglicht die Untersuchung von Ausdifferenzierungs- und Veränderungsprozessen in der lokalen Verwaltung in Irland. Der zweite Teil der Arbeit untersucht detailliert die Aufsichtsgremien der Armenverwaltung von Galway und Gort in vergleichender Perspektive. Durch den Stadt-Land Vergleich sollen Unterschiede und Gemeinsamkeiten in der personellen Zusammensetzung und der Arbeitsweise der lokalen Aufsichtsgremien der Armenverwaltung herauspräpariert werden. Dabei werden zunächst die (Armen-)Steuerzahler analysiert. Sie wählten einen Teil der Mitglieder der lokalen Armenverwaltung und beeinflussten so die Zusammensetzung der Aufsichtsgremien. Ein Kapitel im zweiten Teil der Arbeit untersucht die Mitglieder der Aufsichtsgremien der Armenadministration. Sozioökonomische, familiäre, religiöse und berufliche Hintergründe sowie Angaben zu anderen Ämtern dienen dazu, deren Auswirkungen auf die Arbeitsweise der Personen in der lokalen Armenadministration zu untersuchen. Wie regelmäßig nahmen die einzelnen Mitglieder an den Sitzungen teil? In diesem Kapitel können nicht alle der erfassten Mitglieder behandelt werden, so dass besonders die Vorsitzenden und ihre Stellvertreter analysiert werden. Weiterhin werden Mitglieder, die einflussreiche politische Funktionsträger waren, untersucht. Ein weiteres Kapitel widmet sich der Professionalisierung der Aufsichtsgremien der Armenadministration in der zeitlichen Entwicklung nach 1838. Es wird der Frage nachgegangen, ob mit der Aufgabenakkumulation über die eigentliche Armenadministration hinaus auch eine Zunahme des Einflusses der Aufsichtsgremien der Armenverwaltungen im Hinblick auf ihr Verhältnis zur Dienststelle in Dublin einherging. Der Kontakt zur zentralen Behörde war sehr ausgeprägt und regelmäßig, so dass die Kommunikation mit der übergeordneten Verwaltungsebene als sehr wichtig angesehen werden kann. Wie wirkten sich die umfassenden Kontroll- und Weisungsbefugnisse auf die Arbeitsweise der lokalen Armenadministration aus und welchen Einfluß hatten diese Befugnisse auf das Kommunikationsverhältnis? Gelang es den Mitgliedern der Armenverwaltung ihren Handlungsspielraum zu erweitern, etwa durch die Nutzung alternativer Kommunikationswege oder in ihrer Aufgabe als politische Funktionsträger? Wie häufig war die Kommunikation mit anderen irischen lokalen Aufsichtsgremien der Armenverwaltung und gab es Kooperationen? Ein weiteres Kapitel im zweiten Teil der Arbeit untersucht den Stellenwert von politischen Themen in den Diskussionen der Aufsichtsgremien der Armenverwaltungen, wobei insbesondere das Spektrum der Diskussionen innerhalb des Board of Guardians analysiert wird. Wie wirkten sich die Auseinandersetzungen um die Landfrage oder die Forderung nach Selbstverwaltung aus? Kam es zu personellen Veränderungen in den Aufsichtsgremien oder veränderten Arbeitsweisen der örtlichen Armenverwaltung? Ein Paragraph dieser Studie geht der Frage nach, ob und inwieweit die Board of Guardians mit anderen lokalen Apparaten vernetzt waren, anhand des Beispiels der Verflechtungen von Medizin und Armenadministration.
Die Arbeit untersucht das Lexem 'Fusion' in Fachtexten verschiedener medizinischer Disziplinen: Ophthalmologie, Orthopädie, Chirurgie, Pädiatrie. Dabei treten semantische Widersprüchlichkeiten, Ungenauigkeiten und Doppeldeutigkeiten zutage, die die Leser mehr verwirren als sachkundig informieren. Die expertensprachliche Kommunikation ist gestört. Des weiteren finden sich Hinweise darauf, dass die verwendete Semantik von fachlich-kognitive Einflüsse geprägt wird; so spiegelt das Lexem 'Fusion' beispielhaft den dreiteiligen Denkschritt der Mediziner wider: Physiologie, Pathologie, Therapie. Auch andere kognitive Einflüsse werden bei der semantischen Untersuchung des Lexems deutlich.
In einer empirischen Neuroimaging Studie an einer Gruppe von 141 rechts- und linkshändigen Probanden beiderlei Geschlechts wurden fMRT-Korrelate der funktionalen Sprachrepräsentation untersucht. Es fanden sich bedeutsame Unter-schiede in der Sprachverarbeitungskompetenz der beiden Hemisphären sowohl zwischen Rechts- und Linkshändern als auch zwischen Männern und Frauen.
Synergieeffekte und Kollaboration bei e-Learning-Anwendungen in selbstorganisierenden Computernetzen
(2009)
In den letzten Jahren haben sich mehrere neue Netzklassen im Bereich der Verteilten Systeme etabliert. Diese können unter Ausnutzung von Selbstorganisationsprinzipien und verschiedener kollaborativer Aspekte viele der netzinhärenten Probleme wie Skalierbarkeit, Latenz- und Lastverteilungsbetrachtungen sowie Konsistenzwahrung entschärfen. Gleichzeitig kann die Nutzung entsprechender Prinzipien zu positiven Synergieeffekten führen, die von den verschiedenen auf diesen Netzen aufsetzten Applikationsdomänen genutzt werden können. Von besonderer Bedeutung sind diese Aspekte für die beiden neuartigen Netzklassen der Multi-Hop Adhoc-Netze (MANETs) und der globalen virtuellen Umgebungen (MMVEs). Beiden Netzklassen ist gemeinsam, dass sie aufgrund der erwähnten Problemstellungen nicht mit traditionellen verteilten Architekturen, wie zentralistischen und monolithischen Systemen, umgesetzt werden können. Hier muss ein Paradigmenwechsel hin zu dezentralen, selbstorganisierenden Systemstrukturen erfolgen, um den angesprochenen Herausforderungen zu begegnen. Die erste in dieser Arbeit untersuchte Netzklasse der MANETs zeichnet sich dadurch aus, dass sie Nutzern erlaubt, immer und überall auf Ihre Daten zugreifen zu können und mit der vor Ort vorhandenen Infrastruktur transparent zu kommunizieren. Dabei erfolgen die Daten-zugriffe vermehrt über immer kleiner werdende mobile Endgeräte, die sowohl aufgrund ihrer inhärenten Mobilität als auch ihrer eingeschränkten Ressourcen daran angepasste Netzstrukturen erfordern. Die neuartige Netzklasse der MMVEs dagegen soll Dateninhalte in einem dreidimensionalen Rahmen und damit nativ und intuitiver als die vorherrschende zweidimensionale Darstellung, wie z.B. im Internet, präsentieren. Der Datenzugriff erfolgt hier meist über eine virtuelle Benutzerrepräsentation " einen Avatar. MMVEs basieren zwar im Vergleich zu MANETs in der Regel auf physisch verlässlichen Netzen, benötigen aber aufgrund der massiven Verteilung und der großen Nutzerzahlen neue Netzwerkarchitekturen. Die Anwendungsdomäne e-Learning eignet sich in diesem Zusammenhang besonders gut für wissenschaftliche Untersuchungen, da hier eine ähnliche Entwicklung beobachtbar ist, wie bei den eingangs erwähnten Netzklassen. Genauso wie mobile Endgeräte immer kleiner und ubiquitär verfügbar werden und das Internet praktisch an jedem Ort der Welt mit hoher Bandbreite nutzbar ist, finden e-Learning Inhalte immer mehr Einzug in das tägliche Leben. Während sie früher nur eine vernachlässigbare Ergänzung zu etablierten Schulungsformen darstellten, die mehr oder weniger invasiv und starr zentral administriert wurde, steigt Ihre Bedeutung besonders im Zusammenhang mit neuen Zugangsformen täglich. Besonders das Bedürfnis an Schulen oder Universitäten sowie bei der innerbetrieblichen Aus- und Weiterbildung, immer und überall verteilt, nativ und transparent auf entsprechende Lehr- und Lerninhalte zugreifen zu können, steigt mit dem wachsenden und teilweise rein wirtschaftlich bedingten Bedarf nach einer qualitativ hohen, kontinuierlichen gesellschafts- und technikdurchdringenden Grund- und Weiterbildung. Die geforderte Transparenz und Ubiquität kann für die angesprochene Anwendungsdomäne dadurch erreicht werden, dass spezielle, auf die neuartigen verteilten Netzstrukturen abgestimmte, Applikationen entwickelt werden, die die netzinhärenten Selbstorganisations-prinzipien explizit ausnutzen. Eine wichtige Fragestellung in diesem Zusammenhang ist, welche Auswirkungen ein solcher Paradigmenwechsel auf die Qualität der Wissens-vermittlung und der Inhalte hat. Erste Evaluationen mit prototypischen Applikationen haben gezeigt, dass dieser Wechsel problemlos möglich ist. Dabei spiegeln auftretende Synergie-effekte die Abbildung auf soziale Netze wieder, die beiden Aspekten inhärent zugrunde liegt und einen Mehrwert erzeugen, der die dabei auftretenden technischen Herausforderungen und Probleme relativiert. Entsprechende Effekte lassen sich sogar noch weiter verstärken, indem kollaborative Aspekte sowohl auf Applikationsebene als auch in den darunter liegenden Basisstrukturen ausgenutzt werden. Die vorliegende Arbeit soll diese Annahmen durch adäquate Beispiele aus beiden Bereichen (MANETs und MMVEs) aus verschiedenen Perspektiven beleuchten und anhand von beispielhaften Anwendungen und darauf aufbauende Evaluationen den Synergiegewinn von e-Learning Applikationen und mögliche kollaborative Aspekte in diesem Umfeld aufzeigen.
Quantitative Studien zur Plansprache Esperanto zu ausgewählten Fragestellungen der Phonologie, Morphologie, Syntax, Lexik, Semantik, Worthäufigkeit und - als Schwerpunkt - Wortbekanntheit wurden durchgeführt. Hauptergebnisse: Die Phonem-Häufigkeitsverteilung des Esperanto kann besonders gut mit dem Yule-Modell beschrieben werden; bei biphonematischer Wertung der Affrikaten ergibt sich eine etwas schlechere Anpassung als bei monophonematischer Wertung. Die Anwendung des klassifikatorischen Schlüssels von Altmann und Lehfeldt bestätigt die Meinung der meisten Autoren, wonach Esperanto agglutinierend mit einigen Merkmalen einer isolierenden Sprache ist. Die bei anderen Sprachen gefundene Gesetzmäßigkeit zwischen Lexermlänge und Polysemie gilt auch für Esperanto. Zur Untersuchung des Zusammenhangs zwischen Wortbekanntheit und Worthäufigkeit sowie zur Untersuchung der Selbsteinschätzung des eigenen Esperanto-Anwendungsvermögens durch seine Sprecher wurde das Verfahren der logistischen Regression (einschließlich statistischer Sicherheit) ausführlich dargestellt und als eine innovative Option auch zur Untersuchung analoger Fragestellungen angeboten. Zu den nachfolgend beschriebenen Haupthypothesen kann auf Grundlage der Untersuchung Folgendes ausgesagt werden (es sei angemerkt, dass die Haupthypothesen- (a) und (b) dabei ausschließlich für solche Esperanto-Sprecher gelten, die ihr Esperanto-Anwendungsvermögen als ausreichend gut einschätzen; die Haupthypothese- (c) gilt auch für solche Esperanto-Sprecher, die ihr Esperanto-Anwendungsvermögen als nicht ausreichend gut einschätzen): (a) Die Häufigkeit der zuverlässig bekannten Wörter entspricht der Häufigkeitsgruppe- 7 aus neun Häufigkeitsgruppen der von der Esperanto-Akademie entwickelten Statistik ("offizielle Basis-Wortwurzelsammlung", BRO; Häufigkeitsgruppe- 1: häufigste Wörter). (b)- Sei- A die Häufigkeit der Esperanto-Wörter, die Menschen mit einer Muttersprache aus dem romanischen oder germanischen Sprachzweig zuverlässig bekannt sind. Sei- B die Häufigkeit der Esperanto-Wörter, die Menschen mit Muttersprache Chinesisch, Japanisch oder aus der finno-ugrischen Sprachfamilie zuverlässig bekannt sind. Die Untersuchung zeigte: Zwischen A und B besteht kein signifikanter Unterschied. Das heißt: Die naheliegende Vermutung, dass Sprecher mit einer Muttersprache aus dem romanischen oder germanischen Sprachzweig (= Quelle der meisten Esperanto-Wörter) einen Vorteil haben und seltenere Esperanto-Wörter vergleichsweise besser kennen als Sprecher mit anderen Muttersprachen, wurde durch die vorliegende empirische Überprüfung nicht bestätigt. (c)- Bei einer statistischen Sicherheit von 95% ist die Selbsteinschätzung des eigenen Esperanto-Anwendungsvermögens durch seine Sprecher auch nach 100- Lernjahren nur 73%. Für eine zuverlässige Anwendbarkeit (also 90% bei 95%- statistischer Sicherheit) konnte keine Lernzeit ermittelt werden.
The thesis studies the question how universal behavior is inherited by the Hadamard product. The type of universality that is considered here is universality by overconvergence; a definition will be given in chapter five. The situation can be described as follows: Let f be a universal function, and let g be a given function. Is the Hadamard product of f and g universal again? This question will be studied in chapter six. Starting with the Hadamard product for power series, a definition for a more general context must be provided. For plane open sets both containing the origin this has already been done. But in order to answer the above question, it becomes necessary to have a Hadamard product for functions that are not holomorphic at the origin. The elaboration of such a Hadamard product and its properties are the second central part of this thesis; chapter three will be concerned with them. The idea of the definition of such a Hadamard product will follow the case already known: The Hadamard product will be defined by a parameter integral. Crucial for this definition is the choice of appropriate integration curves; these will be introduced in chapter two. By means of the Hadamard product- properties it is possible to prove the Hadamard multiplication theorem and the Borel-Okada theorem. A generalization of these theorems will be presented in chapter four.
In this psycho-neuro-endocrine study the molecular basis of different variants of steroid receptors as well as highly conserved non steroidal receptors was investigated. These nuclear receptors (NRs) are important key regulators of a wide variety of different physiological and pathophysiological challenges ranging from inflammation and stress to complex behaviour and disease. NRs control gene transcription in a ligand dependent manner and are embedded in the huge interaction network of the neuroendocrine and immune system. Two receptors, the glucocorticoid receptor (GR) and the chicken ovalbumin upstream promoter-transcription factorII (Coup-TFII), both expressed in the immune and nervous system, were investigated regarding possible splice variants and their implication in the control of gene transcription. Both NRs are known to interact and modulate each other- target gene regulation. This study could be shown that both NRs have different splice variants that are expressed in a tissue specific manner. The different 5-´alternative transcript variants of the human GR were in silico identified in other species and evidence for a highly conserved and tightly controlled function was provided. Investigations of the N-terminal transactivation domain of the GR showed a deletion suggesting an altered glucocorticoid-dependent transactivation profile. The newly identified alternative transcript variant of Coup-TFII leads to a DNA binding deficient Coup-TFII isoform that is highly expressed in the brain. This Coup-TFII isoform alters Coup-TFII target gene expression and is suggested to interact with GR via its ligand binding domain resulting in an impaired GR target gene regulation in the nervous system. In this thesis it was demonstrated that NR variants are important for the understanding of the enormous regulatory potential of this receptor family and have to be taken into account for the development of therapeutic strategies for complex diseases such as stress related and neurodegenerative disorders.
Die vorliegende Arbeit entstand im Rahmen des INTERREG III B-Projektes WaReLa (Water Retention by Landuse), das sich mit dem Rückhalt von Wasser in der Fläche als Beitrag zum vorbeugenden Hochwasserschutz beschäftigt. Im Vordergrund stehen dabei die so genannten dezentralen Rückhaltemaßnahmen als Alternative bzw. Ergänzung zum technischen Hochwasserschutz. Gegenstand dieser Arbeit ist die Frage nach der Effizienz von Retentionsmaßnahmen in urbanen Räumen und deren Beitrag zum Hochwasserschutz. Es handelt sich um ein relativ junges Forschungsthema, welches die Fachwelt bis heute kontrovers diskutiert. Wie bisherige Untersuchungen zeigen, sind allgemeine Aussagen über die Retentionswirkung nicht möglich, da das Potential der Regenwasserbewirtschaftung und deren Rückhaltewirkung von mehreren gebietsspezifischen Faktoren gesteuert werden. Untersuchungen an einem Retentionssystem im Neubaugebiet Trier-Petrisberg sollten weitere Erkenntnisse bringen. Hierzu wurde zum einen die hydraulische Belastung einzelner Retentionsanlagen untersucht und zum anderen wurden N A-Simulationen mit dem Programm erwin 4.0 durchgeführt. Laut N-A-Simulationen hält das Retentionssystem, welches für ein 100-jährliches Ereignis mit 56 mm Niederschlag und der Dauerstufe 3 Stunden konzipiert wurde, im Vergleich zur Entwässerung des Gebietes über ein Trennsystem zwischen 58 % und 68 % des Jahresniederschlags zurück. Ähnlich hohe Werte (60 80 %) nennen GÖBEL, STUBBE, WEINERT, ZIMMERMANN, FACH, DIERKES, KORIES, MESSER, MERTSCH, GEIGER & COLDEWEY (2004: 270f) und WEGNER (1992: 7f) für die von ihnen untersuchten Anlagen. Sehr hoch erscheint die Scheitel abmindernde Wirkung des Retentionssystems im Vergleich zu einer konventionellen Ableitung. Im Mittel beträgt diese 82 %, so dass der Scheitel der Einleitung in den Vorfluter Brettenbach im Vergleich zur Regenwasserableitung auf 1/5 reduziert wird. Aufschluss über die Scheitelabminderung im Vorfluter selbst kann nur eine Quantifizierung der einzelnen Abflusskomponenten geben. Das Retentionssystem arbeitet im Sommerhalbjahr effektiver als im Winterhalbjahr, da trockene Vorperioden, höhere Lufttemperaturen und die Vegetation im Sommer einen besseren Rückhalt konvektiver Niederschläge begünstigen. Korrespondierende Aussagen machen ASSMANN & KEMPF (2005), GANTNER (2003a) und NIEHOFF (2002). Beobachtungen und Simulationen zeigen, dass das Retentionssystem bisher effektiv arbeitet. Sämtliche Retentionsanlagen entleeren sich innerhalb von 48 Stunden. Die Arbeit wird ergänzt durch Handlungsempfehlungen zu Planung, Bau und Betrieb von Anlagen zur Regenwasserbewirtschaftung auf Privatgrundstücken. Sie sollen helfen, die Akzeptanz naturnaher Maßnahmen zur Bewirtschaftung von Regenwasser zu steigern, Fehler zu vermeiden und Projekte erfolgreich umzusetzen.