Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (833)
- Wissenschaftlicher Artikel (219)
- Buch (Monographie) (113)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (108)
- Arbeitspapier (62)
- Ausgabe (Heft) zu einer Zeitschrift (24)
- Teil eines Buches (Kapitel) (22)
- Konferenzveröffentlichung (17)
- Sonstiges (15)
- Rezension (10)
Sprache
- Deutsch (841)
- Englisch (518)
- Französisch (75)
- Mehrsprachig (15)
- Russisch (1)
Volltext vorhanden
- ja (1450) (entfernen)
Schlagworte
- Deutschland (84)
- Luxemburg (52)
- Stress (40)
- Schule (37)
- Schüler (33)
- Politischer Unterricht (29)
- Modellierung (28)
- Fernerkundung (25)
- Geschichte (24)
- Demokratie (23)
Institut
- Psychologie (212)
- Raum- und Umweltwissenschaften (212)
- Politikwissenschaft (132)
- Universitätsbibliothek (83)
- Rechtswissenschaft (77)
- Wirtschaftswissenschaften (66)
- Mathematik (65)
- Fachbereich 4 (58)
- Medienwissenschaft (57)
- Fachbereich 6 (50)
- Geschichte, mittlere und neuere (45)
- Fachbereich 1 (36)
- Fachbereich 3 (34)
- Informatik (31)
- Germanistik (28)
- Fachbereich 2 (26)
- Kunstgeschichte (23)
- Anglistik (20)
- Soziologie (20)
- Computerlinguistik und Digital Humanities (10)
- Philosophie (10)
- Romanistik (9)
- Fachbereich 5 (7)
- Pädagogik (6)
- Allgemeine Sprach- und Literaturwissenschaft (5)
- Ethnologie (5)
- Geschichte, alte (5)
- Klassische Philologie (4)
- Sinologie (4)
- Japanologie (3)
- Archäologie (2)
- Phonetik (2)
- Servicezentrum eSciences (2)
- Forschungszentrum Europa (1)
- Pflegewissenschaft (1)
- Slavistik (1)
- Theologische Fakultät (1)
For the first time, the German Census 2011 will be conducted via a new method the register based census. In contrast to a traditional census, where all inhabitants are surveyed, the German government will mainly attempt to count individuals using population registers of administrative authorities, such as the municipalities and the Federal Employment Agency. Census data that cannot be collected from the registers, such as information on education, training, and occupation, will be collected by an interview-based sample survey. Moreover, the new method reduces citizens' obligations to provide information and helps reduce costs significantly. The use of sample surveys is limited if results with a detailed regional or subject-matter breakdown have to be prepared. Classical estimation methods are sometimes criticized, since estimation is often problematic for small samples. Fortunately, model based small area estimators serve as an alternative. These methods help to increase the information, and hence the effective sample size. In the German Census 2011 it is possible to embed areas on a map in a geographical context. This may offer additional information, such as neighborhood relations or spatial interactions. Standard small area models, like Fay-Herriot or Battese-Harter-Fuller, do not account for such interactions explicitly. The aim of our work is to extend the classical models by integrating the spatial information explicitly into the model. In addition, the possible gain in efficiency will be analyzed.
Das Studium des christlichen Briefstils im spätantiken Ägypten steht im Zentrum dieser Arbeit. Anhand der dokumentarischen Papyrusbriefe berührt diese Arbeit hauptsächlich die Epistolographie des Altertums, besonders die Phraseologie des frühen Christentums. So sieht man in der Arbeit die Beobachtung, Analyse und Erklärung der griechischen christlichen Privatbriefe im Hinblick auf ihre Struktur und ihre typischen christlichen Elemente insbesondere in Anredeformen, Grußformeln und typischen Redewendungen. Für diese Forschung wurden etwa 200 christliche Briefe zur intensiven Auswertung als Textgrundlage ausgewählt; zum Vergleich wurden auch heidnische Briefe aus ptolemäischer und römischer Zeit herangezogen. Diese Studie, besonders bei der Untersuchung der Formeln, bezieht sich auf den Zeitraum, zwischen dem 3. und 4./5. Jh. n.Chr.
Bei der vorliegenden Arbeit handelt es sich um eine politische Fallstudie zu Bolivien, die folgende Fragestellung beantworten möchte: Anhand welcher Faktoren lässt sich der politische Erfolg des MAS und Evo Morales" seit Ende der 1990er Jahre erklären? Beim MAS handelt es sich ursprünglich um eine rechte Partei, die Ende der 1990er Jahre nur noch auf dem Papier existierte. Bei den Präsidentschafts- und Parlamentswahlen 2002 erreichte der MAS bereits 20,94 % und zog damit als zweitstärkste Partei ins Parlament ein. Bei den Kommunalwahlen 2004 konnte er gegenüber 1999 weitere Stimmen hinzu gewinnen, blieb allerdings insgesamt hinter den hohen Erwartungen zurück. Der politische Erfolg wurde dadurch jedoch nicht gebremst und der MAS erreichte seinen bis dahin größten Triumph bei den Präsidentschafts- und Parlamentswahlen im Dezember 2005: Er konnte mit 53,7 % die absolute Mehrheit im Parlament erreichen und Morales wurde zum Präsidenten der Republik Bolivien gewählt. Abgesehen von diesem Erfolg als Partei im politischen System haben Morales und seine Anhänger immer wieder ihre außerparlamentarische Organisationskraft und Mobilisierungsfähigkeit bewiesen. Seit 2000 legten sie gemeinsam mit anderen Aktivisten und sozialen Bewegungen durch Straßenblockaden, Demonstrationen und Streiks das Land lahm, zwangen zwei Präsidenten zum Rücktritt, schwächten die Wirtschaft und brachten Bolivien an den Rand des politischen Zusammenbruchs.rnrnTheoretisch ist diese Arbeit in der Parteienforschung verortet. Ziel ist es, anhand eines von der Autorin selbst erstellten Analyserasters den beschriebenen Erfolg des MAS und Evo Morales" zu analysieren.
Theoretischer Hintergrund der vorliegenden Arbeit bildet das Persönlichkeitskonstrukt der Kontrollüberzeugungen (locus of control). Es wurde im Rahmen der sozialen Lerntheorie von Rotter (1954, 1966) entwickelt und beinhaltet generalisierte Handlungs-Ergebnis-Erwartungen. Die zunächst eindimensionale Erfassung der internalen versus externalen Kontrollüber-zeugungen erfuhr " nicht zuletzt aufgrund widersprüchlicher empirischer Befunde " durch Levenson (1972) eine Differenzierung in eine sozial bedingte und eine fatalistische Externalität. In Bezug auf die Vorhersage des Behandlungserfolgs bei Alkoholabhängigkeit hat sich in bisherigen Studien die mehrdimensionale, bereichsspezifische Erfassung der Kontrollüberzeugungen etabliert. In den zahlreichen Untersuchungen, die sich in ihrer Methodik stark voneinander unterscheiden, stellte sich eine höhere Internalität als prädiktiv für eine günstige, eine erhöhte fatalistische Externalität hingegen als prädiktiv für eine ungünstige Prognose heraus. Dabei wird von einem umgekehrt u-förmigen Verlauf eines günstigen Kontrollüberzeugungsstils ausgegangen, wonach sowohl eine zu hohe als auch eine zu niedrige Internalität zu einer inadäquaten Wahrnehmung der eigenen Kontrollmöglichkeiten führen. In dieser Arbeit interessieren die Veränderungen in den generalisierten und bereichsspezifischen Kontroll- und Kompetenzüberzeugungen bei stationär behandelten alkoholabhängigen Patienten. Unter Berücksichtigung weiterer Variablen wie Therapiemotivation, psychopathologische Symptombelastung, Suchtverlangen und komorbide depressive Erkrankung sollen Prädiktoren für die Rückfälligkeit während der Behandlung sowie bis zu einem Jahr danach identifiziert werden. Im Weiteren werden bedeutsame Zusammenhänge zwischen der Ausprägung der Kontrollüberzeugungen und kognitiven Leistungsbeeinträchtigungen vermutet. Externale Kontrollüberzeugungen werden dabei mit Leistungsdefiziten in Verbindung gebracht. Zur Untersuchung der Frage, ob eine hohe Internalität mit einer generellen Überschätzung der eigenen Fähigkeiten und damit einem ungünstigeren Behandlungsergebnis einhergeht, soll die Selbsteinschätzung in fünf neuropsychologischen Testverfahren herangezogen werden. Es wurden 102 alkoholabhängige Patienten in die Studie eingeschlossen. 81 davon konnten sowohl am Anfang als auch am Ende einer durchschnittlich zehnwöchigen stationären Behandlung untersucht werden. 51 Patienten wurden zusätzlich nach einem Jahr schriftlich befragt. Während der Behandlung konnten bei der gesamten Stichprobe, insbesondere bei Patienten mit einem ungünstigeren Kontrollüberzeugungsstil, Veränderungen in die gewünschte Richtung beobachtet werden: Das Selbstkonzept und die Internalität nahmen zu, während sich die sozial bedingte und fatalistische Externalität verringerten. Als einziger signifikanter Prädiktor für die Ein-Jahres-Abstinenz stellte sich das bereichsspezifische, prospektiv ausgerichtete Selbstkonzept zu Beginn der Behandlung heraus. Die bei Behandlungsende erhobenen Variablen besassen keinen Vorhersagewert. Insofern kann angenommen werden, dass die Veränderungen während der Behandlung in nicht unerheblichem Masse durch kurzzeitige Hospitalisations- und soziale Erwünschtheitseffekte beeinflusst worden sind. Patienten, die bereits während der Behandlung rückfällig wurden, zeichneten sich im Vergleich zu abstinenten Patienten bereits zu Beginn durch ein niedrigeres Selbstkonzept, eine niedrigere Internalität sowie eine erhöhte fatalistische Externalität aus. Sie waren psychisch belasteter, hatten ein grösseres Suchtverlangen und wiesen häufiger eine komorbide depressive Störung auf. Bezüglich der bereichsspezifischen, nicht jedoch der generalisierten Kontrollüberzeugungen unterschieden sie sich am Ende der Behandlung noch deutlicher von abstinen-ten Patienten. Die Differenzen blieben bis zur Ein-Jahres-Katamnese bestehen. Insgesamt stellten für die Rückfälligkeit während der Behandlung ein ungünstigerer Kontrollüberzeugungsstil, eine depressive Erkrankung, ein hohes Suchtverlangen und kognitive Leistungseinbussen Risikofaktoren dar, die sich wechselseitig beeinflussten. Patienten mit sehr hoher Internalität zeichneten sich durch eine generelle Überschätzung ihrer kognitiven Leistungsfähigkeit aus. Übereinstimmend damit schützte eine sehr hohe Internalität nicht vor Rückfälligkeit. Eine niedrige Internalität ging hingegen mit einer Unterschätzung der Leistungsfähigkeit in zwei von fünf Tests einher. Die Ergebnisse entsprechen grösstenteils den Erwartungen. Sie werden abschliessend unter Berücksichtigung der methodischen Stärken und Schwächen der vorliegenden empirischen Untersuchung erörtert, in den aktuellen Kenntnisstand eingeordnet und im Hinblick auf zukünftige Forschungsperspektiven diskutiert.
Die Wirksamkeit und der Nutzen von Psychotherapie sind vielfach nachgewiesen. Dennoch sind die der Psychotherapie zugrunde liegenden Wirk- und Veränderungsmechanismen zu einem großen Teil noch ungeklärt und werden kontrovers diskutiert. Ein vielversprechendes Untersuchungsdesign zur Überprüfung der Wirksamkeit und Wirkungsweise spezifischer psychotherapeutischer Techniken stellt die Untersuchung psychotherapeutischer Mikrointerventionen dar. In der vorliegenden Arbeit wurde ein laborexperimentelles Untersuchungsdesign zur Überprüfung der Wirksamkeit spezifischer psychotherapeutischer Techniken und damit einhergehender hirnphysiologischer Veränderungen erstmalig erprobt. Untersucht wurden die Effekte einer 90-minütigen psychotherapeutischen Mikrointervention, in der die Technik des kognitiven Reframings vermittelt und eingeübt wurde. Probanden einer subklinisch depressiven Stichprobe (N=45) sowie gesunde Kontrollpersonen (N=47) wurden randomisiert entweder der Mikrointervention oder einer von zwei Kontrollbedingungen zugeordnet. Die Überprüfung der interventionssezifischen Effekte erfolgte über die Erfassung ereigniskorrelierter Potenziale (EKPs) sowie Affekt-Ratings der Probanden. In einem spezifischen EEG-Paradigma wurden den Probanden negativ affektive Bilder gezeigt, die sie entweder aus einem neuen, positiven Blickwinkel betrachten oder nur anschauen sollten. Am Ende jedes Durchganges wurden die Probanden aufgefordert die Intensität ihrer emotionalen Reaktion einzuschätzen. Die Ergebnisse zeigen, dass die Psychotherapeutische Mikrointervention zu spezifischen Effekten, insbesondere auf der Ebene elektrokortikaler Veränderungen führte. Dabei wiesen die Probanden der Gruppe mit der psychotherapeutischen Mikrointervention größere mittlere frontale LPP Amplitudenwerte in Folge der Instruktionsbedingung "Umdeuten" auf. Die Ergebnisse werden im Sinne einer intensivierten kontrollierten Nutzung relevanter, über den präfrontalen Kortex vermittelter, kognitiver Verarbeitungsressourcen im Zusammenhang mit der Herunterregulierung emotionaler Reaktionen interpretiert.
Die Europäische Union hat seit Ende des Ost-West-Konflikts 1989/90 einen dynamischen Ausbau ihrer vertraglichen und institutionellen Fundamente erfahren. Mit diesem Prozess ging zugleich eine enge Verflechtung von europäischen und nationalen Entscheidungsprozessen und politischen Arenen einher. So entwickelte sich ein zunehmend dynamischer werdendes Interaktionsverhältnis zwischen Europäischer Union, nationaler Europapolitik und Innenpolitik. Ausgehend von der These, dass die deutsche Europapolitik seit der Zäsur 1989/90 zunehmend pragmatischer, kontroverser und somit normaler geworden ist, untersucht die Arbeit diese Veränderung der deutschen Europapolitik am Beispiel zweier qualitativer Fallstudien: 1.Die Verhandlungen zum dritten mehrjährigen Finanzrahmen für die Jahre 2000 bis 2006, die sogenannte Agenda 2000. Für Deutschland als größtem Beitragszahler in der EU waren die Finanzverhandlungen von immenser Bedeutung. Denn mit der finanziellen Ausstattung der beiden größten Ausgabenblöcken, der europäischen Kohäsionspolitik und der Gemeinsamen Agrarpolitik, waren zentrale Grundsatzfragen der deutschen Europapolitik und der Rolle Deutschlands in der EU verbunden, wie zum Beispiel das bilaterale Verhältnis zum französischen Partner. 2.Der Prozess der Osterweiterung der Europäischen Union seit dem Ende des Ost-West-Gegensatzes 1989/90 von der Assoziierung der Reformstaaten in Mittel- und Osteuropa bis zum Beitritt der acht neuen Mitglieder am 1. Mai 2004. Die Ost-Erweiterung der EU war eine der wichtigsten Grundsatzentscheidungen der deutschen Europapolitik. Dieser fast 15 Jahre dauernde Prozess von 1989 bis 2004 wird in einer minuziösen Längsschnitt-Analyse nachgezeichnet und die spezifischen Interessen der zentralen politischen und gesellschaftlichen Akteure der deutschen Politik detailliert analysiert.Beide Entscheidungsprozesse beeinflussten nahezu alle Politikfelder und hatten weitreichende Konsequenzen für die innen-, wirtschafts- und sozialpolitischen Strukturen der Bundesrepublik. Damit erforderten sie sowohl eine grundsätzliche und strategische Positionierungen der deutschen Europapolitik als auch kurzfristige, auf rationalen Kosten-Nutzen-Abwägungen basierende Festlegungen zu konkreten Einzelfragen im Verlauf der Entscheidungsprozesse. Die beiden umfangreichen Fallstudien bestätigen, dass die wechselseitige Interaktion zwischen innenpolitischen Auseinandersetzungen und europäischen Entscheidungsprozessen sich verdichtet hat. Europäische Entscheidungsprozesse werden für innenpolitische Auseinandersetzungen und Debatten genutzt und häufig auch parteipolitisch polarisiert. Die Europapolitik wird zu einem Feld pragmatischer Kosten-Nutzen-Abwägungen aus begrenzten innenpolitischen oder gar parteitaktischen Kalkülen. Die Europapolitik wird unter innenpolitischen Vorzeichen politisiert und polarisiert.
Die vorliegende Arbeit widmet sich der Beantwortung der Fragestellung, inwieweit die NATOisierung Polens und Tschechiens im Bereich der zivil-militärischen Beziehungen erfolgreich war, und aufgrund welcher Akteure, Praktiken und Bedingungen die Normübernahme (nicht) erfolgte. NATOisierung wird hierbei als Sozialisationsprozess im Politikfeld Sicherheit begriffen. Konzeptioneller Ausgangspunkt für die theoriegeleiteten Fallstudien bildet die Entwicklung eines Forschungsdesigns, mittels dessen der rational-institutionalistische und der konstruktivistisch-institutionalistische Strang der internationalen Sozialisations-forschung für die Analyse der NATOisierung postkommunistischer Sicherheitspolitik nutzbar gemacht werden kann. In Kritik an der Mehrheit der Sozialisationsstudien, die die Übernahme von Normen internationaler Institutionen seitens der postkommunistischen Staaten entweder als Verhandlungs- und Anpassungsprozess strategisch handelnder Akteure oder als sozialen Lern- und normativen Überzeugungsprozess intrinsisch motivierter Akteure betrachten, argumentiert diese Studie, dass die Wahl eines komplementären Zugangs sowohl aus theoretisch-konzeptionellen als auch empirisch-phänomenologischen Erwägungen unabdingbar ist. Die hierbei zu Grunde liegende Methode der doppelten Interpretation, mittels derer der Verlauf und das Ergebnis der NATOisierung Polens und Tschechiens im Bereich der zivil-militärischen Beziehungen sowohl aus Sicht des rationalen als auch des konstruktivistischen Institutionalismus beleuchtet worden sind, hat sich als tragfähig erwiesen. In der Tat variiert die Erklärungskraft beider theoretischer Ansätze im Hinblick auf die unterschiedlichen Akteure, Phasen und/oder Kontexte des sicherheitspolitischen Sozialisationsprozesses. Wenngleich die NATO durch ihre Sozialisationspolitik den Demokratisierungsprozess Polens und Tschechiens im Politikfeld Sicherheit begünstigte, bestätigt die empirische Analyse die weit verbreitete Betrachtungsweise der 'Partnerschaft für den Frieden' als ausschließliche Erfolgsgeschichte nicht. Vielmehr war die Erweiterungs- und Sozialisationspolitik der NATO mit gravierenden (nichtintendierenden) Konsequenzen verbunden, die sich hinderlich auf die Transformation der zivil-militärischen Beziehungen postkommunistischer Staaten auswirkten.
Die Dissertation bietet erstmals eine systematisch vergleichende Analyse von jüdischen Gemeinden in Kathedralstädten. Diese gehören zu einem Städtetypus, der wesentlich durch seine Mittelpunktfunktion innerhalb der Bistümer bestimmt ist und in dem sich urbanes Leben bis zum 14. Jahrhundert am stärksten entfaltete. Kathedralstädte besaßen religiöse, wirtschaftliche, politische, militärische und geistige Funktionen und standen in engen Wechselbeziehungen zum Umland. Darüber hinaus beheimateten sie die frühesten christlichen Stadtgemeinden sowie fast ausnahmslos die bedeutendsten Judengemeinden innerhalb der Diözesen. Die untersuchten Zentren umspannten mit ihren aneinander grenzenden Bistümern den Südosten der deutschen "Altsiedellande". Hier entfalteten sich jüdische Niederlassungen in der Regel früher und stärker als in den östlichen "Neusiedellanden". Zum Süden waren die bayerischen von den südalpinen Juden getrennt. In östlicher Richtung war insbesondere Regensburg mit den dortigen christlichen und jüdischen Bewohnern ein Brückenkopf in die Donaulande und nach Böhmen. Zugleich fungierten die jüdischen Gemeinden von Augsburg und Regensburg als Vermittlerinnen zu den intensiv von Juden besiedelten Regionen Frankens, Schwabens und der Oberpfalz. Mit der Beachtung dieser weiträumigen Verbindungen bietet die Studie neue Zugänge zu den europäischen Dimensionen der mittelalterlichen Geschichte der Juden. Vor diesem Hintergrund werden in vergleichender Perspektive die komplexen Beziehungen zwischen Juden und Christen auf ökonomischer, sozialer und rechtlicher Ebene untersucht, die jeweils unterschiedlichen Handlungsspielräume dargestellt und mit zahlreichen Beispielen illustriert. Der dabei konsequent komparatistisch ausgerichtete Ansatz öffnet den Blick für die Besonderheiten der Lebensbedingungen von Juden in den Kathedralstädten des weiteren altbayerischen Raumes und trägt zu einer grundlegenden Erweiterung des Forschungsstandes bei.
Stress and pain are common experiences in human lives. Both, the stress and the pain system have adaptive functions and try to protect the organism in case of harm and danger. However, stress and pain are two of the most challenging problems for the society and the health system. Chronic stress, as often seen in modern societies, has much impact on health and can lead to chronic stress disorders. These disorders also include a number of chronic pain syndromes. However, pain can also be regarded as a stressor itself, especially when we consider how much patients suffer from long-lasting pain and the impact of pain on life quality. In this way, the effects of stress on pain can be fostered. For the generation and manifestation of chronic pain symptoms also learning processes such as classical conditioning play an important role. Processes of classical conditioning can also be influenced by stress. These facts illustrate the complex and various interactions between the pain and the stress systems. Both systems communicate permanently with each other and help to protect the organism and to keep a homeostatic state. They have various ways of communication, for example mechanisms related to endogenous opioids, immune parameters, glucocorticoids and baroreflexes. But an overactivation of the systems, for example caused by ongoing stress, can lead to severe health problems. Therefore, it is of great importance to understand these interactions and their underlying mechanisms. The present work deals with the relationship of stress and pain. A special focus is put on stress related hypocortisolism and pain processing, stress induced hypoalgesia via baroreceptor related mechanisms and stress related cortisol effects on aversive conditioning (as a model of pain learning). This work is a contribution to the wide field of research that tries to understand the complex interactions of stress and pain. To demonstrate the variety, the selected studies highlight different aspects of these interactions. In the first chapter I will give a short introduction on the pain and the stress systems and their ways of interaction. Furthermore, I will give a short summary of the studies presented in Chapter II to V and their background. The results and their meaning for future research will be discussed in the last part of the first chapter. Chronic pain syndromes have been associated with chronic stress and alterations of the HPA axis resulting in chronic hypocortisolism. But if these alterations may play a causal role in the pathophysiology of chronic pain remains unclear. Thus, the study described in Chapter II investigated the effects of pharmacological induced hypocortisolism on pain perception. Both, the stress and the pain system are related to the cardiovascular system. Increase of blood pressure is part of the stress reaction and leads to reduced pain perception. Therefore, it is important for the usage of pain tests to keep in mind potential interferences from activation of the cardiovascular system, especially when pain inhibitory processes are investigated. For this reason we compared two commonly and interchangeably used pain tests with regard to the triggered autonomic reactions. This study is described in chapter III. Chapter IV and V deal with the role of learning processes in pain and related influences of stress. Processes of classical conditioning play an important role for symptom generation and manifestation. In both studies aversive eyeblink conditioning was used as a model for pain learning. In the study described in Chapter IV we compared classical eyeblink conditioning in healthy volunteers to patients suffering from fibromyalgia, a chronic pain disorder. Also, differences of the HPA axis, as part of the stress system, were taken in account. The study of Chapter V investigated effects of the very first stress reaction, particularly rapid non-genomic cortisol effects. Healthy volunteers received an intravenous cortisol administration immediately before the eyeblink conditioning. Rapid effects have only been demonstrated on a cellular level and on animal behavior so far. In general, the studies presented in this work may give an impression of the broad variety of possible interactions between the pain and the stress system. Furthermore, they contribute to our knowledge about theses interactions. However, more research is needed to complete the picture.
The subject of this thesis is a homological approach to the splitting theory of PLS-spaces, i.e. to the question for which topologically exact short sequences 0->X->Y->Z->0 of PLS-spaces X,Y,Z the right-hand map admits a right inverse. We show that the category (PLS) of PLS-spaces and continuous linear maps is an additive category in which every morphism admits a kernel and a cokernel, i.e. it is pre-abelian. However, we also show that it is neither quasi-abelian nor semi-abelian. As a foundation for our homological constructions we show the more general result that every pre-abelian category admits a largest exact structure in the sense of Quillen. In the pre-abelian category (PLS) this exact structure consists precisely of the topologically exact short sequences of PLS-spaces. Using a construction of Ext-functors due to Yoneda, we show that one can define for each PLS-space A and every natural number k the k-th abelian-group valued covariant and contravariant Ext-functors acting on the category (PLS) of PLS-spaces, which induce for every topologically exact short sequence of PLS-spaces a long exact sequence of abelian groups and group morphisms. These functors are studied in detail and we establish a connection between the Ext-functors of PLS-spaces and the Ext-functors for LS-spaces. Through this connection we arrive at an analogue of a result for Fréchet spaces which connects the first derived functor of the projective limit with the first Ext-functor and also gives sufficient conditions for the vanishing of the higher Ext-functors. Finally, we show that Ext^k(E,F) = 0 for a k greater or equal than 1, whenever E is a closed subspace and F is a Hausdorff-quotient of the space of distributions, which generalizes a result of Wengenroth that is itself a generalization of results due to Domanski and Vogt.
Die Dissertation zur "Pfälzischen Phraseologie" greift in den letzten Jahren für den deutschsprachigen Raum mehrfach thematisierte Forschungsdesiderate der (dialektalen) Phraseologie und Lexikographie auf: die genauere Analyse des phraseologischen Systems eines Dialekts sowie die Darstellung von Phraseologismen in Dialektwörterbüchern. In der vorliegenden Arbeit wird hierfür das Pfälzische ausgewählt, da es bisher in phraseologischer Hinsicht kaum untersucht wurde. Die Studie erweitert insofern die wenigen bereits vorhandenen Analysen dialektaler Phraseologie um eine zusätzliche Regionalsprache. Ziel der Arbeit ist es, die Besonderheiten der pfälzischen Phraseologie auf lexikographischer, kultureller und stilistisch-pragmatischer Ebene herauszuarbeiten. Die Phraseologie des Pfälzischen wird somit in dieser Studie unter verschiedenen Gesichtspunkten betrachtet und analysiert. In einem ersten Schritt wird das zugrunde gelegte Korpus, eines der großlandschaftlichen Dialektwörterbücher, das Pfälzische Wörterbuch, aus Sicht der enthaltenen Phraseologiekomponenten unter makro- und mikrostrukturellen Gesichtspunkten ausgewertet und beurteilt. Dadurch können detaillierte Aussagen zur Repräsentation der Phraseologie innerhalb eines Wörterbuchtypus gewonnen werden, wie sie bisher nur in Ansätzen und für andere Dialektwörterbücher vorhanden sind. Außerdem wird die Verwendbarkeit von Dialektwörterbüchern als Datengrundlage für die dialektale Phraseologie diskutiert. Die aus dem Wörterbuch erhobene Materialsammlung von Phrasemen bildet die Grundlage für den zweiten Hauptteil der Arbeit, die genauere Analyse der pfälzischen Phraseologie unter verschiedenen Aspekten (v. a. der sprachlich-kulturellen Wissensstrukturen, die die bildliche Motivation der Phraseologismen bestimmen, und die damit eng verbundenen stilistisch-pragmatischen Kennzeichen). Hierbei können innerhalb des pfälzischen phraseologischen Inventars unterschiedliche Merkmale herausgestellt werden: Unter anderem Übereinstimmungen mit der Phraseologie des Standarddeutschen und z. T. gesamteuropäische Bezüge, aber auch Eigenständiges in einzelnen Subkategorien.
Legalisation cannot be fully explained by interest politics. If that were the case, the attitudes towards legalisation would be expected to be based on objective interests and actual policies in France and Germany would be expected to be more similar. Nor can it be explained by institutional agency, because there are no hints that states struggle with different normative traditions. Rather, political actors seek to make use of the structures that already exist to guar-antee legitimacy for their actions. If the main concern of governmental actors really is to accumulate legitimacy, as stated in the introduction, then politicians have a good starting position in the case of legalisation of illegal foreigners. Citizens" negative attitudes towards legalisation cannot be explained by imagined labour market competition; income effects play only a secondary role. The most important explanatory factor is the educational level of each individual. Objective interests do not trigger attitudes towards legalisation, but rather a basic men-tal predisposition for or against illegal immigrants who are eligible for legalisation. Politics concerning amnesties are thus not tied to an objectively given structure like the socio-economic composition of the electorate, but are open for political discretion. Attitudes on legalising illegal immigrants can be regarded as being mediated by beliefs and perceptions, which can be used by political agents or altered by political developments. However, politicians must adhere to a national frame of legitimating strategies that cannot be neglected without consequences. It was evident in the cross-country comparison of political debates that there are national systems of reference that provide patterns of interpretation. Legalisation is seen and incorporated into immigration policy in a very specific way that differs from one country to the next. In both countries investigated in this study, there are fundamental debates about which basic principles apply to legalisation and which of these should be held in higher esteem: a legal system able to work, humanitarian rights, practical considerations, etc. The results suggest that legalisation is "technicized" in France by describing it as an unusual but possible pragmatic instrument for the adjustment of the inefficient rule of law. In Germany, however, legalisation is discussed at a more normative level. Proponents of conservative immigration policies regard it as a substantial infringement on the rule of law, so that even defenders of a humanitarian solution for illegal immigrants are not able to challenge this view without significant political harm. But the arguments brought to bear in the debate on legalisation are not necessarily sound because they are not irrefutable facts, but instruments to generate legitimacy, and there are enough possibilities for arguing and persuading because socio-economic factors play a minor role. One of the most important arguments, the alleged pull effect of legalisation, has been subjected to an empirical investigation. In the political debate, it does not make any dif-ference whether this is true or not, insofar as it is not contested by incontrovertible findings. In reality, the results suggest that amnesties indeed exert a small attracting influence on illegal immigration, which has been contested by immigration friendly politicians in the French par-liament. The effect, however, is not large; therefore, some conservative politicians may put too much stress on this argument. Moreover, one can see legalisation as an instrument to restore legitimacy that has slipped away from immigration politics because of a high number of illegally residing foreigners. This aspect explains some of the peculiarities in the French debate on legalisation, e.g. the idea that the coherence of the law is secured by creating exceptional rules for legalising illegal immigrants. It has become clear that the politics of legalisation are susceptible to manipulation by introducing certain interpretations into the political debate, which become predominant and supersede other views. In this study, there are no signs of a systematic misuse of this constellation by any certain actor. However, the history of immigration policy is full of examples of symbolic politics in which a certain measure has been initiated while the actors are totally aware of its lack of effect. Legalisation has escaped this fate so far because it is a specific instrument that is the result of neglecting populist mechanisms rather than an ex-ample of a superficial measure. This result does not apply to policies concerning illegal immi-gration in general, both with regard to concealing a lack of control and flexing the state- muscles.
Michel Foucaults Überlegungen zu Wahrheits- und Erfahrungsbüchern zugrunde legend, untersucht die Promotionsschrift Wechselwirkungen von Fremd- und Selbstrepräsentation, von Repräsentation und Subjektkonstitution und fragt ausgehend von diesen Zusammenhängen nach einer möglichen Poetik entsubjektivierender Erfahrungsbücher. Exemplarisch nachgezeichnet werden die oft paradoxalen Effekte dieser Wechselwirkungen zunächst anhand des kriminalisierenden und pathologisierenden Diskurses über Jenische und der daran anknüpfenden Ausarbeitung jenischer Subjektpositionen im Zuge der politischen Selbstrepräsentation der Schweizer Minderheit seit den 1970er Jahren. Die in diesem Kontext entstandenen literarisch-publizistischen Texte der Schweizer Autorin und ehemaligen jenischen Bürgerrechtlerin Mariella Mehr, in denen sich ebenfalls normalisierende, am Wahrheitsdiskurs orientierte Ausarbeitungen jenischer Subjektpositionen finden, werden als Wahrheitsbücher im Sinne Foucaults gelesen. An Mehrs späten Texten wird daran anschließend gezeigt, wie mittels einer Hyperbolisierung des Wahrheitsdiskurses in Kombination mit sich durchkreuzenden auto- und heteroreferentiellen Erzählverfahren der von Foucault im Interview mit Ducio Trombadori beschriebene entsubjektivierende Effekt eines Erfahrungsbuches erreicht werden kann.
This thesis introduces a calibration problem for financial market models based on a Monte Carlo approximation of the option payoff and a discretization of the underlying stochastic differential equation. It is desirable to benefit from fast deterministic optimization methods to solve this problem. To be able to achieve this goal, possible non-differentiabilities are smoothed out with an appropriately chosen twice continuously differentiable polynomial. On the basis of this so derived calibration problem, this work is essentially concerned about two issues. First, the question occurs, if a computed solution of the approximating problem, derived by applying Monte Carlo, discretizing the SDE and preserving differentiability is an approximation of a solution of the true problem. Unfortunately, this does not hold in general but is linked to certain assumptions. It will turn out, that a uniform convergence of the approximated objective function and its gradient to the true objective and gradient can be shown under typical assumptions, for instance the Lipschitz continuity of the SDE coefficients. This uniform convergence then allows to show convergence of the solutions in the sense of a first order critical point. Furthermore, an order of this convergence in relation to the number of simulations, the step size for the SDE discretization and the parameter controlling the smooth approximation of non-differentiabilites will be shown. Additionally the uniqueness of a solution of the stochastic differential equation will be analyzed in detail. Secondly, the Monte Carlo method provides only a very slow convergence. The numerical results in this thesis will show, that the Monte Carlo based calibration indeed is feasible if one is concerned about the calculated solution, but the required calculation time is too long for practical applications. Thus, techniques to speed up the calibration are strongly desired. As already mentioned above, the gradient of the objective is a starting point to improve efficiency. Due to its simplicity, finite differences is a frequently chosen method to calculate the required derivatives. However, finite differences is well known to be very slow and furthermore, it will turn out, that there may also occur severe instabilities during optimization which may lead to the break down of the algorithm before convergence has been reached. In this manner a sensitivity equation is certainly an improvement but suffers unfortunately from the same computational effort as the finite difference method. Thus, an adjoint based gradient calculation will be the method of choice as it combines the exactness of the derivative with a reduced computational effort. Furthermore, several other techniques will be introduced throughout this thesis, that enhance the efficiency of the calibration algorithm. A multi-layer method will be very effective in the case, that the chosen initial value is not already close to the solution. Variance reduction techniques are helpful to increase accuracy of the Monte Carlo estimator and thus allow for fewer simulations. Storing instead of regenerating the random numbers required for the Brownian increments in the SDE will be efficient, as deterministic optimization methods anyway require to employ the identical random sequence in each function evaluation. Finally, Monte Carlo is very well suited for a parallelization, which will be done on several central processing units (CPUs).
Stress is a common phenomenon for animals living in the wild, but also for humans in modern societies. Originally, the body's stress response is an adaptive reaction to a possibly life-threatening situation, and it has been shown to impact on energy distribution and metabolism, thereby increasing the chance of survival. However, stress has also been shown to impact on mating behaviour and reproductive strategies in animals and humans. This work deals with the effect of stress on reproductive behavior. Up to now, research has only focused on the effects of stress on reproduction in general. The effects of stress on reproduction may be looked at from two points of view. First, stress affects reproductive functioning by endocrine (e.g. glucocorticoid) actions on the reproductive system. However, stress can also influence reproductive behavior, i.e. mate choice and mating preferences. Animals and humans do not mate randomly, but exhibit preferences towards mating partners. One factor by which animals and humans choose their mating partners is similarity vs. dissimilarity: Similar mates usually carry more of one's own genes and the cooperation between similar mates is, at least theoretically, less hampered by expressing diverse behaviors. By mating with dissimilar mates on the other hand one may acquire new qualities for oneself, but also for one's offspring, useful to cope with environmental challenge. In humans we usually find a preference for similar mates. Due to the high costs of breeding, variables like cooperation and life-long partnerships may play a greater role than the acquaintance of new qualities.The present work focuses on stress effects on mating preferences of humans and will give a first answer to the question whether stress may affect our preference for similar mates. Stress and mating preferences are at the centre of this work. Thus, in the first Chapter I will give an introduction on stress and mating preferences and link these topics to each other. Furthermore, I will give a short summary of the studies described in Chapter II - Chapter IV and close the chapter with a general discussion of the findings and directions for further research on stress and mating preferences. Human mating behavior is complex, and many aspects of it may not relate to biology but social conventions and education. This work will not focus on those aspects but rather on cognitive and affective processing of erotic and sexually-relevant stimuli, since we assume that these aspects of mating behaviour are likely related to psychobiological stress mechanisms. Therefore, a paradigm is needed that measures such aspects of mating preferences in humans. The studies presented in Chapter II and Chapter III were performed in order to develop such a paradigm. In these studies we show that affective startle modulation may be used to indicate differences in sexual approach motivation to potential mating partners with different similarity levels to the participant. In Chapter IV, I will describe a study that aimed to investigate the effects of stress on human mating preferences. We showed that stress reverses human mating preferences: While unstressed individuals show a preference for similar mates, stressed individuals seem to prefer dissimilar mates. Overall, the studies presented in this work showed that affective startle modulation can be employed to measure mating preferences in humans and that these mating preferences are influenced by stress.
We are living in a connected world, surrounded by interwoven technical systems. Since they pervade more and more aspects of our everyday lives, a thorough understanding of the structure and dynamics of these systems is becoming increasingly important. However - rather than being blueprinted and constructed at the drawing board - many technical infrastructures like for example the Internet's global router network, the World Wide Web, large scale Peer-to-Peer systems or the power grid - evolve in a distributed fashion, beyond the control of a central instance and influenced by various surrounding conditions and interdependencies. Hence, due to this increase in complexity, making statements about the structure and behavior of tomorrow's networked systems is becoming increasingly complicated. A number of failures has shown that complex structures can emerge unintentionally that resemble those which can be observed in biological, physical and social systems. In this dissertation, we investigate how such complex phenomena can be controlled and actively used. For this, we review methodologies stemming from the field of random and complex networks, which are being used for the study of natural, social and technical systems, thus delivering insights into their structure and dynamics. A particularly interesting finding is the fact that the efficiency, dependability and adaptivity of natural systems can be related to rather simple local interactions between a large number of elements. We review a number of interesting findings about the formation of complex structures and collective dynamics and investigate how these are applicable in the design and operation of large scale networked computing systems. A particular focus of this dissertation are applications of principles and methods stemming from the study of complex networks in distributed computing systems that are based on overlay networks. Here we argue how the fact that the (virtual) connectivity in such systems is alterable and widely independent from physical limitations facilitates a design that is based on analogies between complex network structures and phenomena studied in statistical physics. Based on results about the properties of scale-free networks, we present a simple membership protocol by which scale-free overlay networks with adjustable degree distribution exponent can be created in a distributed fashion. With this protocol we further exemplify how phase transition phenomena - as occurring frequently in the domain of statistical physics - can actively be used to quickly adapt macroscopic statistical network parameters which are known to massively influence the stability and performance of networked systems. In the case considered in this dissertation, the adaptation of the degree distribution exponent of a random, scale-free overlay allows - within critical regions - a change of relevant structural and dynamical properties. As such, the proposed scheme allows to make sound statements about the relation between the local behavior of individual nodes and large scale properties of the resulting complex network structures. For systems in which the degree distribution exponent cannot easily be derived for example from local protocol parameters, we further present a distributed, probabilistic mechanism which can be used to monitor a network's degree distribution exponent and thus to reason about important structural qualities. Finally, the dissertation shifts its focus towards the study of complex, non-linear dynamics in networked systems. We consider a message-based protocol which - based on the Kuramoto model for coupled oscillators - achieves a stable, global synchronization of periodic heartbeat events. The protocol's performance and stability is evaluated in different network topologies. We further argue that - based on existing findings about the interrelation between spectral network properties and the dynamics of coupled oscillators - the proposed protocol allows to monitor structural properties of networked computing systems. An important aspect of this dissertation is its interdisciplinary approach towards a sensible and constructive handling of complex structures and collective dynamics in networked systems. The associated investigation of distributed systems from the perspective of non-linear dynamics and statistical physics highlights interesting parallels both to biological and physical systems. This foreshadows systems whose structures and dynamics can be analyzed and understood in the conceptual frameworks of statistical physics and complex systems.
Aggression is one of the most researched topics in psychology. This is understandable, since aggression behavior does a lot of harm to individuals and groups. A lot is known already about the biology of aggression, but one system that seems to be of vital importance in animals has largely been overlooked: the hypothalamic-pituitary-adrenal (HPA) axis. Menno Kruk and Jószef Haller and their research teams developed rodent models of adaptive, normal, and abnormal aggressive behavior. They found the acute HPA axis (re)activity, but also chronic basal levels to be causally relevant in the elicitation and escalation of aggressive behavior. As a mediating variable, changes in the processing of relevant social information is proposed, although this could not be tested in animals. In humans, not a lot of research has been done, but there is evidence for both the association between acute and basal cortisol levels in (abnormal) aggression. However, not many of these studies have been experimental of nature. rnrnOur aim was to add to the understanding of both basal chronic levels of HPA axis activity, as well as acute levels in the formation of aggressive behavior. Therefore, we did two experiments, both with healthy student samples. In both studies we induced aggression with a well validated paradigm from social psychology: the Taylor Aggression Paradigm. Half of the subjects, however, only went through a non-provoking control condition. We measured trait basal levels of HPA axis activity on three days prior. We took several cortisol samples before, during, and after the task. After the induction of aggression, we measured the behavioral and electrophysiological brain response to relevant social stimuli, i.e., emotional facial expressions embedded in an emotional Stroop task. In the second study, we pharmacologically manipulated cortisol levels 60min before the beginning of the experiment. To do that, half of the subjects were administered 20mg of hydrocortisone, which elevates circulating cortisol levels (cortisol group), the other half was administered a placebo (placebo group). Results showed that acute HPA axis activity is indeed relevant for aggressive behavior. We found in Study 1 a difference in cortisol levels after the aggression induction in the provoked group compared to the non-provoked group (i.e., a heightened reactivity of the HPA axis). However, this could not be replicated in Study 2. Furthermore, the pharmacological elevation of cortisol levels led to an increase in aggressive behavior in women compared to the placebo group. There were no effects in men, so that while men were significantly more aggressive than women in the placebo group, they were equally aggressive in the cortisol group. Furthermore, there was an interaction of cortisol treatment with block of the Taylor Aggression Paradigm, in that the cortisol group was significantly more aggressive in the third block of the task. Concerning basal HPA axis activity, we found an effect on aggressive behavior in both studies, albeit more consistently in women and in the provoked and non-provoked groups. However, the effect was not apparent in the cortisol group. After the aggressive encounter, information processing patterns were changed in the provoked compared to the non-provoked group for all facial expressions, especially anger. These results indicate that the HPA axis plays an important role in the formation of aggressive behavior in humans, as well. Importantly, different changes within the system, be it basal or acute, are associated with the same outcome in this task. More studies are needed, however, to better understand the role that each plays in different kinds of aggressive behavior, and the role information processing plays as a possible mediating variable. This extensive knowledge is necessary for better behavioral interventions.
Recently, optimization has become an integral part of the aerodynamic design process chain. However, because of uncertainties with respect to the flight conditions and geometrical uncertainties, a design optimized by a traditional design optimization method seeking only optimality may not achieve its expected performance. Robust optimization deals with optimal designs, which are robust with respect to small (or even large) perturbations of the optimization setpoint conditions. The resulting optimization tasks become much more complex than the usual single setpoint case, so that efficient and fast algorithms need to be developed in order to identify, quantize and include the uncertainties in the overall optimization procedure. In this thesis, a novel approach towards stochastic distributed aleatory uncertainties for the specific application of optimal aerodynamic design under uncertainties is presented. In order to include the uncertainties in the optimization, robust formulations of the general aerodynamic design optimization problem based on probabilistic models of the uncertainties are discussed. Three classes of formulations, the worst-case, the chance-constrained and the semi-infinite formulation, of the aerodynamic shape optimization problem are identified. Since the worst-case formulation may lead to overly conservative designs, the focus of this thesis is on the chance-constrained and semi-infinite formulation. A key issue is then to propagate the input uncertainties through the systems to obtain statistics of quantities of interest, which are used as a measure of robustness in both robust counterparts of the deterministic optimization problem. Due to the highly nonlinear underlying design problem, uncertainty quantification methods are used in order to approximate and consequently simplify the problem to a solvable optimization task. Computationally demanding evaluations of high dimensional integrals resulting from the direct approximation of statistics as well as from uncertainty quantification approximations arise. To overcome the curse of dimensionality, sparse grid methods in combination with adaptive refinement strategies are applied. The reduction of the number of discretization points is an important issue in the context of robust design, since the computational effort of the numerical quadrature comes up in every iteration of the optimization algorithm. In order to efficiently solve the resulting optimization problems, algorithmic approaches based on multiple-setpoint ideas in combination with one-shot methods are presented. A parallelization approach is provided to overcome the amount of additional computational effort involved by multiple-setpoint optimization problems. Finally, the developed methods are applied to 2D and 3D Euler and Navier-Stokes test cases verifying their industrial usability and reliability. Numerical results of robust aerodynamic shape optimization under uncertain flight conditions as well as geometrical uncertainties are presented. Further, uncertainty quantification methods are used to investigate the influence of geometrical uncertainties on quantities of interest in a 3D test case. The results demonstrate the significant effect of uncertainties in the context of aerodynamic design and thus the need for robust design to ensure a good performance in real life conditions. The thesis proposes a general framework for robust aerodynamic design attacking the additional computational complexity of the treatment of uncertainties, thus making robust design in this sense possible.
Einen literarischen Text entlang eines figürlichen Körperleibs zu lesen und zu deuten, lenkt die Lektüre zwangsläufig auf unwiderrufliche und unabänderliche Grunddispositionen des menschlichen Daseins wie Sterblichkeit, Verletzlichkeit, Verwundbarkeit, Bedürftigkeit und wechselseitige Angewiesenheit. Eine der korporalen Entsprechungen für die eigene Bedürftigkeit äußert sich in den Stücken der deutschsprachgigen Gegenwartsdramatik häufig als Suche nach oder Bitte um Beistand. Die eigene Schwäche bedarf der fremden Kraft, um aufgefangen zu werden. In der Korrespondenzfigur des fallenden und haltenden Körpers wird das Phänomen der Fürsorge entfaltet. Die Verweigerung von Fürsorge wird in der Zweifachfigur eines abwehrenden und eines zurückgewiesenen Körpers zugespitzt. Mit der leiblichen Präsenz der Figuren wird ein solidarisches Potenzial angeboten. Die Rücknahme des eigenen Körperleibs aus dem Blickfeld des Anderen suspendiert jedoch die Möglichkeit, dass die potenziell vorhandene Solidaritätsfähigkeit tatsächlich in Anspruch genommen werden kann. Im Rückzug der Figuren deutet sich meist die Entscheidung an, den eigenen Körperleib nicht als möglichen Halt oder Anhaltspunkt für den Anderen zu erkennen zu geben.
Diese Arbeit beschäftigt sich mit (frequent) universellen Funktionen bezüglich Differentialoperatoren und gewichteten Shiftoperatoren. Hierbei wird ein Charakteristikum von Funktionen vom Exponentialtyp untersucht, das bisher im Rahmen der Universalität noch nicht betrachtet wurde: Das konjugierte Indikatordiagramm. Dabei handelt es sich um eine kompakte und konvexe Menge, die einer Funktion vom Exponentialtyp zugeordnet ist und gewisse Rückschlüsse über das Wachstum und die mögliche Nullstellenverteilung zulässt. Mittels einer speziellen Transformation werden (frequent) universelle Funktionen vom Exponentialtyp bezüglich verschiedener Differentialoperatoren ineinander überführt. Hierdurch ist eine genaue Lokalisation der konjugierten Indikatordiagramme möglicher (frequent) universeller Funktionen für diese Operatoren ableitbar. Durch Konjugation der Differentiation mit gewichteten Shiftoperatoren über das Hadamardprodukt, wird auch für diese Operatoren eine Lokalisation möglicher konjugierter Indikatordiagramme ihrer (frequent) universellen Funktionen erreicht.
Large scale non-parametric applied shape optimization for computational fluid dynamics is considered. Treating a shape optimization problem as a standard optimal control problem by means of a parameterization, the Lagrangian usually requires knowledge of the partial derivative of the shape parameterization and deformation chain with respect to input parameters. For a variety of reasons, this mesh sensitivity Jacobian is usually quite problematic. For a sufficiently smooth boundary, the Hadamard theorem provides a gradient expression that exists on the surface alone, completely bypassing the mesh sensitivity Jacobian. Building upon this, the gradient computation becomes independent of the number of design parameters and all surface mesh nodes are used as design unknown in this work, effectively allowing a free morphing of shapes during optimization. Contrary to a parameterized shape optimization problem, where a smooth surface is usually created independently of the input parameters by construction, regularity is not preserved automatically in the non-parametric case. As part of this work, the shape Hessian is used in an approximative Newton method, also known as Sobolev method or gradient smoothing, to ensure a certain regularity of the updates, and thus a smooth shape is preserved while at the same time the one-shot optimization method is also accelerated considerably. For PDE constrained shape optimization, the Hessian usually is a pseudo-differential operator. Fourier analysis is used to identify the operator symbol both analytically and discretely. Preconditioning the one-shot optimization by an appropriate Hessian symbol is shown to greatly accelerate the optimization. As the correct discretization of the Hadamard form usually requires evaluating certain surface quantities such as tangential divergence and curvature, special attention is also given to discrete differential geometry on triangulated surfaces for evaluating shape gradients and Hessians. The Hadamard formula and Hessian approximations are applied to a variety of flow situations. In addition to shape optimization of internal and external flows, major focus lies on aerodynamic design such as optimizing two dimensional airfoils and three dimensional wings. Shock waves form when the local speed of sound is reached, and the gradient must be evaluated correctly at discontinuous states. To ensure proper shock resolution, an adaptive multi-level optimization of the Onera M6 wing is conducted using more than 36, 000 shape unknowns on a standard office workstation, demonstrating the applicability of the shape-one-shot method to industry size problems.
Im Fokus dieser Untersuchung steht die Evaluation allgemeinpsychiatrischer tagesklinischer Behandlung, einerseits zur Überprüfung der Wirksamkeit der teilstationären Intervention bzgl. der Symptomatik, andererseits unter der speziellen Berücksichtigung von generalisierten Vertrauensaspekten (Vertrauenstrias) auf dem theoretischen Hintergrund des Handlungstheoretischen Partialmodells der Persönlichkeit (Krampen, 1987) und ihren Zusammenhängen zu psychischen Erkrankungen. Dem wurde in einer Fragebogenstudie mit 200 tagesklinischen Patienten im Alter von 16 bis 80 Jahren, die im Zeitraum von Oktober 2002 bis Februar 2004 in einer südwestdeutschen Kleinstadt teilstationär aufgenommen worden waren, nachgegangen. Die Patienten unterscheiden sich sowohl in den soziodemographischen Variablen als auch in Diagnosen und Behandlungszeiträumen. Wie in den Hypothesen angenommen, kann in dieser Studie gezeigt werden, dass die teilstationäre Behandlung eine deutliche Verringerung der psychischen Belastung mit sich bringt und Vertrauen " mit Ausnahme von interpersonalem " gesteigert wird. Weiterhin wurden negative Zusammenhänge zwischen Vertrauen und psychischer Krankheit/Gesundheit und Unterschiede bezüglich einzelner Störungsbilder angenommen. Die einzelnen Hypothesen hierzu werden ebenfalls durch diese Studie größtenteils bestätigt.
This work addresses the algorithmic tractability of hard combinatorial problems. Basically, we are considering \NP-hard problems. For those problems we can not find a polynomial time algorithm. Several algorithmic approaches already exist which deal with this dilemma. Among them we find (randomized) approximation algorithms and heuristics. Even though in practice they often work in reasonable time they usually do not return an optimal solution. If we constrain optimality then there are only two methods which suffice for this purpose: exponential time algorithms and parameterized algorithms. In the first approach we seek to design algorithms consuming exponentially many steps who are more clever than some trivial algorithm (who simply enumerates all solution candidates). Typically, the naive enumerative approach yields an algorithm with run time $\Oh^*(2^n)$. So, the general task is to construct algorithms obeying a run time of the form $\Oh^*(c^n)$ where $c<2$. The second approach considers an additional parameter $k$ besides the input size $n$. This parameter should provide more information about the problem and cover a typical characteristic. The standard parameterization is to see $k$ as an upper (lower, resp.) bound on the solution size in case of a minimization (maximization, resp.) problem. Then a parameterized algorithm should solve the problem in time $f(k)\cdot n^\beta$ where $\beta$ is a constant and $f$ is independent of $n$. In principle this method aims to restrict the combinatorial difficulty of the problem to the parameter $k$ (if possible). The basic hypothesis is that $k$ is small with respect to the overall input size. In both fields a frequent standard technique is the design of branching algorithms. These algorithms solve the problem by traversing the solution space in a clever way. They frequently select an entity of the input and create two new subproblems, one where this entity is considered as part of the future solution and another one where it is excluded from it. Then in both cases by fixing this entity possibly other entities will be fixed. If so then the traversed number of possible solution is smaller than the whole solution space. The visited solutions can be arranged like a search tree. To estimate the run time of such algorithms there is need for a method to obtain tight upper bounds on the size of the search trees. In the field of exponential time algorithms a powerful technique called Measure&Conquer has been developed for this purpose. It has been applied successfully to many problems, especially to problems where other algorithmic attacks could not break the trivial run time upper bound. On the other hand in the field of parameterized algorithms Measure&Conquer is almost not known. This piece of work will present examples where this technique can be used in this field. It also will point out what differences have to be made in order to successfully apply the technique. Further, exponential time algorithms for hard problems where Measure&Conquer is applied are presented. Another aspect is that a formalization (and generalization) of the notion of a search tree is given. It is shown that for certain problems such a formalization is extremely useful.
In this thesis, three studies investigating the impact of stress on the protective startle eye blink reflex are reported. In the first study a decrease in prepulse inhibition of the startle reflex was observed after intravenous low dose cortisol application. In the second study a decrease in reflex magnitude of the startle reflex was observed after pharmacological suppression of endogenous cortisol production. In the third study, a higher reflex magnitude of the startle reflex was observed at reduced arterial and central venous blood pressure. These results can be interpreted in terms of an adaption to hostile environments.
Die sich entwickelnden mittelalterlichen Städte waren Triebfedern für vielfältige sprachliche Entwicklungen. Der in dieser Arbeit gewählte Untersuchungszeitraum von 1388 bis 1500 beleuchtet eine Zeit, in der sich in vielen Städten ein völlig neues System der Namengebung entwickelte. Dies wurde nötig, weil es in einer heterogenen Gesellschaft zunehmend schwieriger wurde, Individuen über ihren Rufnamen eindeutig zu identifizieren, was vor allem im Bereich des Rechts und der Verwaltung zu Problemen führte. Somit mussten neue Wege gefunden werden, um einen Namen in einem schriftlich verfassten und rechtsgültigen Dokument eindeutig einer Person zuordnen zu können. Basis dieser Untersuchung sind die Rechnungsbücher der Stadt Luxemburg, die in jährlichen Berichten penibel die Einnahmen und Ausgaben der Stadt verzeichnen. Tätigkeiten im Dienst der Stadtgemeinschaft wurde entlohnt und die Kosten für jeden einzelnen Arbeiter in den Büchern vermerkt. Somit sind Rechnungsbücher ein reicher Fundus für namenkundliche Analysen. Sie werfen ein Licht auf eine Zeit, in der sich im Bereich der Personennamen ein grundlegend neues System der Namengebung beginnt herauszubilden, dessen Auswirkungen uns bis heute prägen. Die Arbeit besteht aus einem nach verschiedenen Gesichtspunkten gegliederten und kommentierten Namenbuch sowie einer onomastischen Analyse des Bestands.
Die vorliegende Studie untersucht die Besonderheiten diskursiver Strategien, sowie struktureller und sprachlicher Merkmale der japanischsprachigen Textsorte Literatur-Rezension. Auf der Grundlage der herausgearbeiteten textlinguistischen Merkmale werden Didaktisierungsbeispiele für den Fachtext-Leseunterricht entworfen. Ziel ist somit der Entwurf einer textlinguistischen Fundierung der (Fach-)textlektüre am Beispiel der Textsorte Rezension.
Die Materialbasis der vorliegenden Studie bilden 45 Rezensionen literarischer Neuerscheinungen aus dem wöchentlich erscheinenden Rezensionsorgan Tosho shinbun (Die Bücherzeitung) des Jahres 1999.
Die Kriterien für die Analyse werden aus einem Modell des Textsortenwissens von Fix 2006 abgeleitet (Teil I). Bei der Analyse stehen daher Aspekte im Zentrum, die den Aufbau von Wissen (Schemata) über die Textsorte bzw. Textsortenkonventionen und deren struktureller und sprachlicher Realisationen dienen können. Übergeordnete Phänomene wie Tempusgebrauch oder Fachsprachlichkeit werden ebenfalls untersucht. Eine quantitative Auswertung der Ergebnisse ermöglicht Rückschlüsse auf die didaktische Relevanz eines beobachteten Phänomens (Teil II).
Kriterien zur Textauswahl und Progression bei der Didaktisierung ausgewählter Rezensionen liefert ein Ansatz von Sandig 2000, die eine Klassifizierung von Texten auf der Grundlage der Prototypentheorie vorschlägt. Danach verdichten sich bestimmte Kommunikationsmuster zu mentalen Textschemata mit unterschiedlichen Ausprägungen je nach Prototypikalität der Texteigenschaften.
Das konstruktivistische Leseprozessmodell von Wolff 1990 schließlich liefert die Vorgaben, nach denen die Ergebnisse der Textanalyse anhand ausgewählter Beispiele lesedidaktisch aufbereitet werden (Teil III).
Der Anhang (Teil IV) bietet eine Zusammenstellung von in den untersuchten Rezensionen verwendeten Ausdrücken, der sich auf die Darstellung, Interpretation, Analyse und Bewertung von literarischen Werken beziehen.
"In dem überaus prächtig illuminierten zweiten Band der Arnsteiner Riesenbibel (London, British Library, Harley Ms. 2799; 547 x 371 mm) ist eine Reihe von (Kreis-) Schemata und Zeichnungen überliefert, die, nach dem Eindruck der Schrift zu urteilen, in unmittelbarer zeitlicher Nachbarschaft zu dem Entstehungsdatum der Amsteiner Bibel selbst ( ca. 1172) noch in den siebziger Jahren des 12. Jahrhunderts entstanden sein könnten. […] Diese Federzeichnungen sind mit äußerster Sorgfalt gezeichnet, ja mit ästhetischer Qualität und alles andere als Fingerübungen oder Blattfüllsel. Dass sie in der Amsteiner Bibel dennoch auf den ersten Blick ein Fremdkörper sind, steht auf einem anderen Blatt. Das Miteinander von Bibelprachthandschrift und schematischen Zeichnungen zu Themen aus dem Bereich der Komputistik, Kosmologie, Astronomie und Universalkartographie ist ungewöhnlich, aufregend und fordert eine Erklärung."
Abbildungen der besprochenen vier Seiten 1r, 241v-243r online im Catalogue of Illuminated Manuscripts der British Library:
http://www.bl.uk/catalogues/illuminatedmanuscripts/ILLUMIN.ASP?Size=mid&IllID=32355
http://www.bl.uk/catalogues/illuminatedmanuscripts/ILLUMIN.ASP?Size=mid&IllID=20317
http://www.bl.uk/catalogues/illuminatedmanuscripts/ILLUMIN.ASP?Size=mid&IllID=20319
http://www.bl.uk/catalogues/illuminatedmanuscripts/ILLUMIN.ASP?Size=mid&IllID=20321
Abstracts book of oral presentations and poster contributions for the mid-term conference of the Interreg IVB NWE project ForeStClim. The international conference took place in Nancy (France) from 20. to 22. September 2010. The topics of the conference sessions were as follows:rnSession 1: Projecting forest sites and stand shiftsrnSession 2: Climate change and water: modelling across spatial and temporal scalesrnSession 3: Addressing climate change in practical silvicultural decision support
Die vorliegende Arbeit untersucht zwei grundlegende Fragestellungen im Hinblick auf den Betrieb von Genbanken als Beitrag zur Sicherung der genetischen Diversität. Das erste Kapitel behandelt aus rechtlicher Sicht die juristischen Fragen nach dem Zugang zu genetischen Ressourcen, nach dem Ausgleich aus der Nutzung entstehender Vorteile (Access and Benefit Sharing, ABS) und nach den Möglichkeiten des Handels mit Proben gefährdeter Tierarten, dies sowohl im Hinblick auf die rein wissenschaftliche Forschung als auch in Bezug auf kommerziell orientierte Zwecke. Grundlegend für die Bearbeitung dieser Fragen war die detaillierte Betrachtung des Übereinkommens über die biologische Vielfalt (CBD) und des Übereinkommens über den internationalen Handel mit gefährdeten Arten freilebender Tiere und Pflanzen (CITES). Da das CBD im Hinblick auf den Zugang zu genetischen Ressourcen in der Bundesrepublik Deutschland bisher nicht umgesetzt ist, bleibt dem Betreiber einer Genbank zur rechtlichen Absicherung und Klarheit nur die Aushandlung von Materialübertragungsverträgen mit den Ursprungsländern der genetischen Ressourcen. Der nachfolgende Handel mit gelagerten Proben gefährdeter Tierarten ist möglich, wenn dies nicht-kommerziell zur wissenschaftlichen Forschung erfolgt und die beteiligten Institutionen bei ihren Regierungen als wissenschaftliche Institutionen registriert sind. Bei kommerziellen Absichten unterliegt der Handel streng den durch das CITES vorgegebenen Regulierungen. Ausnahmen des Handelsverbotes sind möglich, z.B. dann wenn es sich um Proben von Tieren handelt, die in Gefangenschaft gezüchtet worden sind. Das zweite Kapitel behandelt aus naturwissenschaftlicher Sicht die Möglichkeit der direkten Gewinnung genetischer Materialien von Tieren. Hierbei wurde die Isolierung adulter Stammzellen aus der Haut von Säugetieren als Zielzellen zur Lagerung in Genbanken fokussiert. Am Modellorganismus Hausschwein (Sus scrofa domestica) wurde eine Methode zur Isolation adulter stammzellähnlicher Zellen aus der Haut etabliert. Durch nachfolgende Laborversuche wurden die isolierten stammzellähnlichen Zellen (pSSCs, porcine skin derived stem cell-like cells) charakterisiert. Wie mesenchymale Stammzellen haben pSSCs eine fibroblasten-ähnliche Morphologie und exprimieren die Oberflächenproteine CD9, CD29, CD44 , CD105 und sehr gering CD90. Neben diesen konnte die Expression der stammzellasoziierten Gene Stat3, Oct3/4, Sox2, Nestin, Bcrp1/ABCG2 und Bmi1 nachgewiesen werden. Weitere Versuche zeigten die induzierte Differenzierung der pSSCs zu Zellen zweier embryonaler Keimblätter, dem Ektoderm (Neuronen, Astrozyten) und dem Mesoderm (glatte Muskelzellen und Adipozyten). Zur vollständigen Charakterisierung und gänzlichen Ermittlung des Differenzierungspotentials bedarf es allerdings weiterer Versuche, die wegen der Kostspieligkeit und einem erhöhten zeitlichen Aufwand hier nicht realisierbar waren. Die Expansion und die Kryokonservierung der pSSCs zeigten geringfügige Auswirkungen auf den Phänotyp und das Differenzierungspotential. In Bezug auf die Kryokonservierung konnte wegen der geringen Anzahl an Versuchen eine definitive Aussage über ihre Folgen nicht getroffen werden. Folglich bedarf es weiterer Untersuchungen zur Ermittlung der Auswirkungen der Kryokonservierung auf adulte Stammzellen, die aus der Haut gewonnen werden können. Durch ihre Lagerung in Genbanken eröffnen aus der Haut isolierbare Stammzellen neue Möglichkeiten für den Artenschutz, dies vor allem durch ihre Anwendbarkeit im Rahmen modernster Reproduktionsmethoden und als nahezu unendliche DNA-Quelle für phylogenetische Studien, die zum Populationsmanagement unerlässlich sind. Trotz der sich aus dieser Arbeit ergebenden neuen Fragen - im Hinblick auf den Zugang, die Gewinnung und auch die Lagerung genetischer Materialien gefährdeter Tierarten -, bleibt festzuhalten, dass Genbanken generell die Möglichkeit bieten, vitales, biologisches Material bereitzuhalten. Dies ist sowohl bedeutend für die Grundlagenforschung als auch für den Einsatz dieser Materialien zur Steigerung der Reproduktion gefährdeter Arten, letztlich mit dem Ziel, genetische Variationen zu erhalten, die anderenfalls verloren gehen würden.
Mechanical and Biological Treatment (MBT) generally aims to reduce the amount of solid waste and emissions in landfills and enhance the recoveries. MBT technology has been studied in various countries in Europe and Asia. Techniques of solid waste treatment are distinctly different in the study areas. A better understanding of MBT waste characteristics can lead to an optimization of the MBT technology. For a sustainable waste management, it is essential to determine the characteristics of the final MBT waste, the effectiveness of the treatment system as well as the potential application of the final material regarding future utilization. This study aims to define and compare the characteristics of the final MBT materials in the following countries: Luxembourg (using a high degree technology), Fridhaff in Diekirch/Erpeldange, Germany (using a well regulated technology), Singhofen in Rhein-Lahn district, Thailand (using a low cost technology): Phitsanulok in Phitsanulok province. The three countries were chosen for this comparative study due to their unique performance in the MBT implementation. The samples were taken from the composting heaps of the final treatment process prior to sending them to landfills, using a random sampling standard strategy from August 2008 onwards. The size of the sample was reduced to manageable sizes before characterization. The size reduction was achieved by the quartering method. The samples were first analyzed for the size fraction on the day of collection. They were screened into three fractions by the method of dry sieving: small size with a diameter of <10 mm, medium size with a diameter of 10-40 mm and large size with a diameter of >40 mm. These fractions were further analyzed for their physical and chemical parameters such as particle size distribution (total into 12 size fractions), particle shape, porosity, composition, water content, water retention capacity and respiratory activity. The extracted eluate was analyzed for pH-value, heavy metals (lead, cadmium and arsenic), chemical oxygen demand, ammonium, sulfate and chloride. In order to describe and evaluate the potential application of the small size material as a final cover of landfills, the fraction of small size samples were tested for the geotechnical properties as well. The geotechnical parameters were the compaction test, permeability test and shear strength test. The detailed description of the treatment facilities and methods of the study areas were included in the results. The samples from the three countries are visibly smaller than waste without pretreatment. Maximum particle size is found to be less than 100 mm. The samples are found to consist of dust to coarse fractions. The small size with a diameter of <10 mm was highest in the sample from Germany (average 60% by weight), secondly in the sample from Luxembourg (average 43% by weight) and lowest in the sample from Thailand (average 15% by weight). The content of biodegradable material generally increased with decreasing particle sizes. Primary components are organic, plastics, fibrous materials and inert materials (glass and ceramics). The percentage of each components greatly depends on the MBT process of each country. Other important characteristics are significantly reduced water content, reduced total organic carbon and reduced potential heavy metals. The geotechnical results show that the small fraction is highly compact, has a low permeability and lot of water adsorbed material. The utilization of MBT material in this study shows a good trend as it proved to be a safe material which contained very low amounts of loadings and concentrations of chemical oxygen demand, ammonium, and heavy metals. The organic part can be developed to be a soil conditioner. It is also suitably utilized as a bio-filter layer in the final cover of landfill or as a temporary cover during the MBT process. This study showed how to identify the most appropriate technology for municipal solid waste disposal through the study of waste characterization.
Im Rahmen der vorliegenden Dissertation wurden aus den umfassenden Daten der Umweltprobenbank des Bundes relative Vergleichsstandards abgeleitet, welche als Referenzsystem die allgemeine Belastungssituation und deren zeitliche Entwicklung in der Bundesrepublik widerspiegeln, eine Bewertung von gemessenen Schadstoffkonzentrationen in biologischen Matrizes sowie biometrischer Parameter der eingesetzten Bioindikatoren ermöglichen. Anhand der biometrischen Daten des Brassen und der rückstandsanalytischen Daten der Brassenmuskulatur wurde dieses Referenzsystem für die limnischen Systeme in der Bundesrepublik konzeptioniert und umgesetzt. Es handelt sich um ein Fünf-Klassen-System, bei dem die fünf Referenzbereiche durch vier Referenzwerte voneinander abgegrenzt werden. Die Referenzwerte sind aufgrund der repräsentativen Datenbasis in der Lage, die allgemeine Belastungssituation in der Bundesrepublik abzubilden. Da sie sich nur auf einen zweijährigen Bezugszeitraum beziehen und ständig fortgeschrieben werden, kann die zeitliche Entwicklung der allgemeinen Belastungssituation hervorragend dargestellt werden. Aufgrund ihrer rein naturwissenschaftlichen Basis sind Referenzwerte als Umweltqualitätskriterien zu verstehen. Mit den rückstandsanalytischen Umweltqualitätkriterien kann der stoffbezogene Gewässerzustand anhand von Bioindikatoren qualitativ bewertet werden, was eine deutliche Optimierung im stoffbezogenen Gewässerschutz darstellt. Zudem können die Referenzwerte als eine Basis für die Ableitung von hoheitlichen Umweltqualitätsstandards in Rechtsnormen herangezogen werden. Ergänzt werden die stoffbezogenen Umweltqualitätskriterien durch biometrischen Kenngrößen, die eine qualitative Bewertung der Lebensbedingungen des Bioindikators Brassen erlauben.
Die vorliegende Arbeit beschreibt ausgewählte Bereiche des Stadtklimas von Trier. Anhand von langjährigen meteorologischen Messreihen ist eine Bewertung der klimatologischen Gegebenheiten für das Stadtgebiet von Trier möglich. Trenduntersuchungen der Datenreihen des Niederschlags zeigen positive Niederschlagstrends für die meteorologischen Wintermonate. Die Intensität der urbanen Wärmeinsel der Stadt Trier wurde mittels mehrerer Temperaturmessfahrten untersucht und bewertet. Es treten in den Wintermonaten maximale Differenzen von bis zu 5,5 -°C zwischen dem unbebauten Umland und den Innenstadtbereichen auf. Von der erhöhten thermischen Belastung während ausgewählter Wetterlagen sind vor allem die Anwohner der Innenstadtbereiche in den Sommermonaten betroffen. Zusätzlich fand eine Bewertung der thermischen Belastung mittels verschiedener thermischer Indizes statt. Die Auswertungen von Klimaprojektionen für den Untersuchungsraum zeigen eine starke Zunahme der thermischen Belastung ab Mitte des 21. Jahrhunderts. Die Auswirkungen des Sommers 2003 auf die Bevölkerung von Trier wurde anhand von Mortalitätsdaten von JUNK ET AL. (2007) analysiert. Die Kosten des Klimawandels (Temperaturzunahme bis 2100 um 4,5 -°C) in den kommenden 50 Jahren beziffert eine Studie des Deutschen Institutes für Wirtschaftsforschung auf rund 80 Milliarden Euro für Rheinland-Pfalz. Auch wenn diese Abschätzungen mit starken Unsicherheiten behaftet sind, so wird dringender Handlungsbedarf deutlich. Vor dem Hintergrund des Klimawandels und der zunehmenden Urbanisierung muss sich auch im Bereich der Stadtplanung und der Verwaltung von urbanen Agglomerationsräumen das Prinzip der Nachhaltigkeit in allen Skalenbereichen durchsetzen. Übertragen auf den Bereich der Stadtklimatologie heißt das, dass dies auf die Ressourcen saubere Luft, angemessener Flächen- und Energieverbrauch verbunden mit Luft-schadstoffemissionen, Recht auf Mobilität usw. übertragen werden muss. Im Vordergrund steht dabei eine Entkopplung des Ressourcenverbrauchs von dem wirtschaftlichen Wachstum durch technische Innovation, effizientere Technologien und verändertes individuelles Verhalten. Bezüglich der lufthygienischen Situation im Stadtbereich von Trier konnten Partikel und Stickoxide als wichtige Schadstoffe identifiziert werden. Da die Auswertungen der Luftschadstoffe auf die Datensätze des ZIMEN-Messnetzes beschränkt sind, können keine Aussagen über Inhaltsstoffe von Partikeln getroffen werden. Für die untersuchten Luftschadstoffe CO, SO2, NOx, O3 und PM10 treten in den letzten Jahren keine Grenzwertüberschreitungen auf, jedoch liegen die gemessenen Werte nur geringfügig unter diesen und überschreiten teilweise die unteren- und oberen Beurteilungsschwellen. Die Auswertungen des wirkungsbezogenen Luftqualitätsindex DAQx zeigen, dass in der Mehrheit der Fälle Feinstaub der bestimmende Luftschadstoff ist. Die Analyse der mittleren Mortali-tätszahlen zeigt, das bei DAQx-Werten > 4,0 (ausreichende Luftqualität) die Anzahl der täglichen Mortalitätsfälle über den Durchschnitt von 5,74 Fällen pro Tag steigt. Der Klimawandel wird auch direkte Auswirkungen auf die Luftschadstoffbelastung haben. Dies geschieht über die Veränderung der Windverhältnisse, Änderungen in der Höhe der Mischungsschicht sowie Änderungen in der Frequenz und Zugbahn von Tiefdruckgebieten. Veränderte Niederschlagsmuster beeinflussen die nassen und trockenen Depositionsraten, und die prognostizierte Temperaturerhöhung beeinflusst die chemischen Bildungs- und Abbauprozesse in der Atmosphäre, sowie die natürlichen Emissionsquellen. Der Einfluss des zu erwartenden Temperaturanstieges auf die Ozonkonzentrationen in urbanen Gebieten lässt sich gut einschätzen, da während Episoden mit hohen Ozonkonzentrationen eine signifikante Korrelation zwischen der Lufttemperatur und der Ozonkonzentration besteht. Studien zeigen einen Anstieg der Ozonkonzentration zwischen 2 -µg/m-³ und 20 -µg/m-³ pro Grad Kelvin in Abhängigkeit des Emissionsszenarios, der verwendeten Modelle und der untersuchten Region aus. Die urbanen Ballungsräume werden von diesem Ozonanstieg stärker betroffen sein, da dort genügend Ozonvorläufersubstanzen vorhanden sind. Der Einfluss auf die Partikelkonzentrationen ist schwieriger zu beurteilen, da keine klaren Zusammenhänge zwischen der Lufttemperatur und den Partikelkonzentrationen bestehen. Insgesamt ist tendenziell mit einer Stagnation bis hin zu einer kurzzeitigen Verschlechterung der Luftqualität zu rechnen. Deswegen reicht die bereits erwähnte alleinige Berücksichtigung der thermischen Gegebenheiten in einem Warnsystem nicht aus. Es geht vielmehr um die integrative Bewertung der potentiellen Gefahrensituation für die Bevölkerung und die situationsbezogene Auslösung von Interventionsmaßnahmen und Aktionsplänen. Ein solches System wird derzeit für die Modellregion Esch-sur-Alzette in Luxemburg erstellt und wird 2011 in die Pilotphase eintreten.
N-acetylation by N-acetyltransferase 1 (NAT1) is an important biotransformation pathway of the human skin and it is involved in the deactivation of the arylamine and well-known contact allergen para-phenylenediamine (PPD). Here, NAT1 expression and activity were analyzed in antigen presenting cells (monocyte-derived dendritic cells, MoDCs, a model for epidermal Langerhans cells) and human keratinocytes. The latter were used to study exogenous and endogenous NAT1 activity modulations. Within this thesis, MoDCs were found to express metabolically active NAT1. Activities were between 23.4 and 26.6 nmol/mg/min and thus comparable to peripheral blood mononuclear cells. These data suggest that epidermal Langerhans cells contribute to the cutaneous N-acetylation capacity. Keratinocytes, which are known for their efficient N-acetylation, were analyzed in a comparative study using primary keratinocytes (NHEK) and different shipments of the immortalized keratinocyte cell line HaCaT, in order to investigate the ability of the cell line to model epidermal biotransformation. N-acetylation of the substrate para-aminobenzoic acid (PABA) was 3.4-fold higher in HaCaT compared to NHEK and varied between the HaCaT shipments (range 12.0"44.5 nmol/mg/min). Since B[a]P induced cytochrome p450 1 (CYP1) activities were also higher in HaCaT compared to NHEK, the cell line can be considered as an in vitro tool to qualitatively model epidermal metabolism, regarding NAT1 and CYP1. The HaCaT shipment with the highest NAT1 activity showed only minimal reduction of cell viability after treatment with PPD and was subsequently used to study interactions between NAT1 and PPD in keratinocytes. Treatment with PPD induced expression of cyclooxygenases (COX) in HaCaT, but in parallel, PPD N-acetylation was found to saturate with increasing PPD concentration. This saturation explains the presence of the PPD induced COX induction despite the high N-acetylation capacities. A detailed analysis of the effect of PPD on NAT1 revealed that the saturation of PPD N-acetylation was caused by a PPD-induced decrease of NAT1 activity. This inhibition was found in HaCaT as well as in primary keratinocytes after treatment with PPD and PABA. Regarding the mechanism, reduced NAT1 protein level and unaffected NAT1 mRNA expression after PPD treatment adduced clear evidences for substrate-dependent NAT1 downregulation. These results expand the existing knowledge about substrate-dependent NAT1 downregulation to human epithelial skin cells and demonstrate that NAT1 activity in keratinocytes can be modulated by exogenous factors. Further analysis of HaCaT cells from different shipments revealed an accelerated progression through the cell cycle in HaCaT cells with high NAT1 activities. These findings suggest an association between NAT1 and proliferation in keratinocytes as it has been proposed earlier for tumor cells. In conclusion, N-acetylation capacity of MoDCs as well as keratinocytes contribute to the overall N-acetylation capacity of human skin. NAT1 activity of keratinocytes and consequently the detoxification capacities of human skin can be modulated by the presence of exogenous NAT1 substrates and endogenous by the cell proliferation status of keratinocytes.
Die Beobachtung und Bewertung von Wäldern ist eins der zentralen Themen der Fernerkundung. Wälder sind auf der Erde die größten Speicher von Biomasse und damit, neben den Ozeanen, die größte Senke für Kohlendioxid. Eine genaue Kenntnis über Zusammensetzung, Zustand und Entwicklung der Wälder ist wegen ihrer vielfältigen Funktionen und ihres großen Anteils an der Landesfläche von großem wissenschaftlichem und gesellschaftlichem Wert. Eine flächen-deckende detaillierte Beobachtung ist nur mit fernerkundlichen Mitteln möglich. Eine vielversprechende moderne Technik für hochauflösende Waldfernerkundung ist luftgestütztes Laser-¬scanning. Für die Arbeit stand ein Laserscanner-Datensatz aus dem Idarwald bei Morbach in Einzelpunkten und als Wellenformdatensatz zur Verfügung, der zur Ableitung von strukturellen Waldparametern genutzt wurde. Als wichtigster Bestandsstrukturparameter wurde die Baumhöhe sowohl aus Einzelpunktdaten als auch aus gerasterten Bilddaten flächendeckend mit hoher Genauigkeit abgeleitet. Die Kronenuntergrenzen konnten anhand der Wellenformdaten identifiziert werden und stimmten ebenfalls in hoher Genauigkeit mit Geländemessungen überein. Aus Baumhöhen und Höhe der Kronenuntergrenzen konnte die jeweilige Kronenlänge bestimmt werden. Eine größere Herausforderung ist die Bestimmung der Anzahl der Bäume pro Hektar. Während die einzelnen Kronen älterer Nadelbäume gut erkennbar sind, lassen sich Laubbäume und jüngere Nadelbäume nur schwer identifizieren. Trotzdem konnte mit Hilfe eines adaptiven Moving-Window-Ansatzes eine hohe Übereinstimmung mit im Gelände bestimmten Stammzahlen erzielt werden. Aus dem Anteil der Laserstrahlen, die im Bestand den Boden erreichen, können der Kronenschlussgrad und der Blattflächenindex bestimmt werden. Beide Größen sind für den Strahlungstransfer im Bestand und für ökologische Fragestellungen von Bedeutung und konnten ebenfalls flächendeckend und mit hoher Genauigkeit gemessen werden. Eng verknüpft mit dem Blattflächenindex sind die Biomasse und der Holzvorrat. Der Holzvorrat kann zwar nicht direkt aus den Laser-¬scannerdaten abgeleitet werden, da aber enge Beziehungen zu Baumhöhe und Stammzahl bestehen, kann er aus diesen statistisch abgeleitet werden. Auch die Biomasse wurde indirekt bestimmt: aus den Baumhöhen und dem Bedeckungsgrad. Die detaillierteste Charakterisierung von Waldbeständen kann durch Kombination unterschiedlicher Datensätze erreicht werden. Neben dem Laserscanningdatensatz stand auch ein hyperspektrales Bild des Untersuchungsgebiets zur Verfügung. Um diese zu kombinieren, wurde aus den Wellenformen die jeweils über der Fläche eines Hyperspektralpixels zurückgestreute Laserenergie in Höhenschritten von 0.5 m berechnet. Diese Höhenprofile zeigen die Position und Dichte der Baumkronen. Der kombinierte Datensatz wurde für eine Klassifikation zwischen Fichten und Douglasien in jeweils mehreren Altersstufen verwendet und konnte gegenüber dem Hyperspektralbild alleine eine deutliche Verbesserung der Klassifikationsgenauigkeit erzielen. Als weitere Methode, die Vorteile von hyperspektraler Fernerkundung mit denen von Laser-scanning zu verbinden, wurden Methoden zur Verwendung von Laserscanning für die Invertierung von zwei Reflexionsmodellen entwickelt und getestet. Da mit Laserscanning Größen bestimmt werden können, die aus einem Reflexionsspektrum nicht eindeutig ableitbar sind, können die Daten verwendet werden, um den Parameterraum bei der Invertierung zu verkleinern und damit die Invertierung zuverlässiger zu machen.
Die Notwendigkeit einer rechtlichen Regelung der Sterbehilfe ist seit langem Gegenstand intensiver Diskussion in Deutschland, die Rechtsunsicherheit bezüglich zulässiger bzw. unzulässiger Sterbehilfe heute aber größer denn je. Der erste Beitrag setzt sich mit den Gründen dieser Entwicklung auseinander und zeigt Möglichkeiten auf, wie der Bereich zulässiger Sterbehilfe im Strafrecht ohne Verlust an Einzelfallgerechtigkeit präzisiert werden kann. Der sich anschließende Beitrag geht auf die luxemburgische Gesetzgebung zur Sterbehilfe ein. Schließlich werden die Beiträge aus der Sicht eines Palliativmediziners unter Heranziehung von Fällen aus der Praxis diskutiert.
The article deals with the responsibility of the financial sector under criminal law in Germany. This question has been of special interest since the beginning of the financial crisis. The author argues that the transactions of asset-backed securities based on American subprime mortgages fulfill all legal elements of the criminal offence "breach of trust" (Untreue). From the author's point of view, the people's legal loyalty would be severely affected if there were no criminal proceedings against such bankers who purchased those toxic asset-backed securities without sufficient information on their structure and value. Refraining from criminal prosecution even in cases causing high loss would send a dangerous signal towards the investment banking industry.
This thesis presents a study of the visual change detection mechanism. This mechanism is thought to be responsible for the detection of sudden and unexpected changes in our visual environment. As the brain is a capacity limited system and has to deal with a continuous stream of information from its surroundings only a part of the vast amount of information can be completely processed and be brought to conscious awareness. This information, which passes through attentional filters, is used for goal-directed behaviour. Therefore, the change detection mechanism is a very useful aid to cope with important information which is outside the focus of our attention. rnIt is thought that a neural memory trace of repetitive visual information is stored. Each new information input is compared to this existing memory trace by a so-called change or mismatch detection system. Following a sudden change, the comparison process leads to a mismatch and the detection system elicits a warning signal, to which an orienting response can follow. This involves a change in the focus of attention towards this sudden environmental change which can then be evaluated for potential danger and allows for a behavioural adaptation to the new situation. rnTo this purpose a paradigm was developed combining a 2-choice response time task with in the background a mismatch detection task of which the subjects were not aware. This paradigm was implemented in an ERP and an fMRI study and was used to study the the change detection mechanism and its relationship with impulsivity.rnIn previous studies a change detection system for auditory information had already been established. As the brain is a very efficient system it was thought to be unlikely that this change detection system is only available for the processing of auditory information. rnIndeed, a modality specific mismatch response at the sensory specific occipital cortex and a more general response at the frontocentral midline, both resembling the components shown in auditory research, were found in the ERP study.rnAdditionally, magnetic resonance imaging revealed a possible functional network of regions, which responded specifically to the processing of a deviant. These regions included the occipital gyrus, premotor cortex, inferior frontal cortex, thalamas, insula, and parts of the cingular cortex. rnThe relationship between impulsivity measures and visual change detection was established in an additional study. More impulsive subjects showed less detection of deviant stimuli, which was most likely due to too fast and imprecise information processing.rnIn summary it can be said, that the work presented in this thesis demonstrates that visual mismatch negativity was established, a number of regions could be associated with change detection and additionally the relevance of change detection in information processing was shown.rn
Investitionsbeschränkungen im deutschen Außenwirtschaftsrecht. Europa- und völkerrechtliche Probleme
(2009)
Der Verfasser beschäftigt sich in seinem Beitrag mit den Möglichkeiten des Schutzes vor Unternehmensbeteiligungen und -übernahmen durch ausländische Investoren. Dabei stehen die Überprüfungs- und Untersagungsbefugnisse, wie sie das 13. Gesetz zur Änderung des Außenwirtschaftsgesetzes und der Außenwirtschaftsverordnung vom 18. April 2009 hervorgebracht hat, im Mittelpunkt seiner Ausführungen. Diese neuen Befugnisse werden bezüglich ihrer Europa- und Völkerrechtskonformität untersucht. Beachtung findet insoweit vor allem ein möglicher Verstoß gegen die Kapitalverkehrs- sowie die Niederlassungsfreiheit. Auf völkerrechtlicher Ebene beschäftigt sich der Autor mit den Schranken des internationalen Wirtschaftsrechts, wie sie etwa der OECD-Kodex oder das GATS-Übereinkommen errichten.
Der Beitrag befasst sich mit dem Einsatz der deutschen Marine bei der Bekämpfung des Terrorismus im Rahmen der Operation Enduring Freedom (OEF), bei der Verhinderung einer Verbreitung von Massenvernichtungswaffen im Rahmen der Proliferation Security Initiative (PSI) und bei dem Kampf gegen die Piraterie im Rahmen der EU-Operation Atalanta. Dabei hat die Marine u.a. die Befugnis, verdächtige Schiffe aufzubringen, an Bord zu gehen, Untersuchungen durchzuführen und ggf. verdächtige Personen in Gewahrsam zu nehmen. Die Autorin beleuchtet, inwieweit solche Maßnahmen mit der Schifffahrtsfreiheit, einem der fundamentalen Prinzipien des Seevölkerrechts, vereinbar sind. Sie geht außerdem der Frage nach, ob die im Zuge der Bekämpfung der Piraterie vor der Küste Somalias erfolgende Übergabe mutmaßlicher Piraten an Kenia zum Zwecke der Strafverfolgung mit den grund- und menschenrechtlichen Verpflichtungen der Bundesrepublik Deutschland im Einklang steht.
Vor dem Hintergrund der im Herbst 2008 begonnenen Finanzmarktkrise beschäftigt der Beitrag sich mit der verfassungsrechtlichen Betrachtung der im Zuge dessen ergriffenen politischen Maßnahmen. Er beleuchtet kritisch das Verhältnis von Staat und Kapital, gegliedert nach Funktionen des Staates als Garant des Kapitals, als Regelungsinstanz internationaler Kapitalströme und als Wirtschaftssubjekt aufgearbeitet. Dabei wird sowohl das Europäische Verfassungsrecht als auch das Völkerrecht als Verfassungsrecht der Internationalen Gemeinschaft in die Überlegungen einbezogen. Der Autor problematisiert die begrenzte Steuerungskraft der Verfassungsrechtswissenschaft im Zusammenhang mit der Finanzmarktkrise, fordert aber von dieser, dass sie innerhalb ihrer Möglichkeiten zur Gefahrenabwehr handelt. Außerdem müsse sie verhindern, dass aufgrund der Finanzmarktkrise entstandene Schäden im deutschen und europäischen Verfassungsrecht verbleiben.
Analyzing the role of Germany as a law-exporting nation the essay deals with a very specific aspect of the Rule of Law principle in criminal proceedings. The author describes the division of functions among police, public prosecution and criminal courts within criminal law enforcement in Germany adding some comparative law remarks. He furthermore provides an overview of structure and organization of the public prosecution in Germany. He focuses on the relationship and interaction between public prosecution and police in preliminary proceedings emphazising the importance of both being allocated in different ministries of the executive branch. Thus he points out yet another aspect of the constitutional principle of the Rule of Law: the role of public prosecution as guardian of the law towards the police in criminal proceedings.
Zurzeit werden gesundheitliche Auswirkungen von Mobilfunkstrahlung auf den Menschen kontroversiell diskutiert. Die vorliegende Arbeit untersuchte mögliche Auswirkungen auf Befindlichkeit und psychische Variablen in zwei Studien. Es zeigte sich ein Trend bei einer Variable, es gab jedoch keine signifikanten Effekte. Bei den nicht-experimentellen Befunden wiesen Anrainer von Mobilfunksendeanlagen (self-rater) höhere psychische Belastung auf.
In einer empirischen Neuroimaging Studie an einer Gruppe von 141 rechts- und linkshändigen Probanden beiderlei Geschlechts wurden fMRT-Korrelate der funktionalen Sprachrepräsentation untersucht. Es fanden sich bedeutsame Unter-schiede in der Sprachverarbeitungskompetenz der beiden Hemisphären sowohl zwischen Rechts- und Linkshändern als auch zwischen Männern und Frauen.
In dieser Abhandlung wird die Stellung der Mädchenbildung in der staatlichen Bildungspolitik in der Phase verdichteter staatlicher Reformbestrebungen an der Wende vom 18. zum 19. Jahrhundert untersucht. Dazu wird ein Vergleich zwischen der preußischen Kurmark und dem Land Österreich unter der Enns in Österreich durchgeführt.
Weibliches Publikum, Programmgestaltung und Rezeptionshaltung im frühen deutschen Kino (1906-1918)
(2009)
Die vorliegende Dissertation analysiert die wechselseitigen Einflussnahmen von weiblichem Publikum und der Kino-Programmgestaltung in der Zeit von der Gründung erster ortsfester Kinos um 1906 bis zum Ende des 1. Weltkrieges. Dabei bilden der Kinobesuch von Frauen, die Konstruktion von Geschlechteridentität im und durch das Kinoprogramm und der wechselseitige Einfluss von weiblichem Publikum und Programmgestaltung, sowie die Veränderung von Filmgenres und -längen und die Veränderung des Rezeptionsverhaltens das Paradigma der Analyse. Der Fokus auf das weibliche Publikum ist bewusst gewählt, da Frauen auch zu Beginn des 20. Jahrhunderts einen großen Anteil am Kino-Publikum ausmachten. Dies ist besonders bemerkenswert unter der Prämisse, dass Frauen traditionell aufgrund der bürgerlichen Trennung zwischen privater und öffentlicher Sphäre nicht Teil eines öffentlichen Publikums waren. Daher liegt es nahe zu vermuten, dass das Auftreten dieses völlig neuen Publikumssegments nicht spurlos am Kino vorbeigegangen ist. Es hat Einfluss genommen auf die Filme, aber auch auf das Kino als Ort und die Programmierung seiner Filme. Das Aufkommen eines weiblichen Publikums bewirkte, so die Leitthese der vorliegenden Dissertation, eine Veränderung der Kinoprogrammstruktur weg vom diversen Nummerprogramm des "cinema of attractions", das kürzere Slapstick-Filme, Trickfilme sowie kurze Filme mit Spielhandlungen mit dokumentarischem Material verband hin zu einem Programm, dessen Hauptattraktion ein, oder maximal zwei lange Filme mit fiktionalem Inhalt waren. Auf der Grundlage zweier Lokalstudien zum Kinoprogramm zweier mittelgroßer deutscher Städte analysiert die vorliegende Arbeit den Prozess, in dem das von klassen- und geschlechtsspezifischer sowie kultureller Diversität geprägte frühe Kino, dem Heide Schlüpmann eine heimliche Komplizenschaft mit der weiblichen Emanzipationsbewegung des Wilhelminischen Deutschlands zuspricht, abgelöst wird durch ein stabilisiertes, institutionalisiertes, nationalisiertes deutsches Kino. Eingeführt und ergänzt wird die tiefergehende Analyse der Kinoprogramme der untersuchten Städte durch eine auf historischen Quellen beruhende Untersuchung der Struktur und Wahrnehmung des weiblichen Publikums und der Programm- und Aufführungsmodalitäten in der Zeit zwischen 1906 und 1913 sowie während des Ersten Weltkriegs.
Quantitative Untersuchungen im Französischen: Häufigkeitsverteilungen und funktionale Zusammenhänge
(2009)
Die Quantitative Linguistik ist eine relativ junge Disziplin, deren Hauptziel es ist, Gesetzmäßigkeiten zu erforschen, denen sprachliche Phänomene folgen, und gesetzmäßige Zusammenhänge zwischen sprachlichen Variablen zu erklären. Es hat sich inzwischen in einer ganzen Reihe von Untersuchungen immer wieder gezeigt, dass solche Gesetzmäßigkeiten aufgedeckt und erklärt werden können. Die vorliegende Untersuchung stellt einen Beitrag zu dieser Thematik dar. Sie dient der Überprüfung bestimmter lexikalischer und syntaktischer Hypothesen an französischem Sprachmaterial unter der Anwendung quantitativer Methoden. Diese Hypothesen betreffen zweidimensionale Zusammenhänge zwischen den operational definierten quantitativen Eigenschaften der Länge, Frequenz und Polylexie von sprachlichen Einheiten und die Häufigkeitsverteilungen der Einheiten hinsichtlich dieser Eigenschaften. Jede Untersuchungshypothese wird mathematisch modelliert, wobei eine direkte Anwendung der Statistik betrieben wird. D.h.: Bereits existierende theoretische Modelle, die als wahres Bild der zu überprüfenden Hypothesen angesehen werden, werden verwendet. Die Güte der Anpassung des jeweiligen Modells an die empirischen Daten wird aus den Differenzen zwischen den empirischen und den entsprechenden theoretischen Werten abgeschätzt. Bei der empirischen Überprüfung der Hypothesen werden zwei Testverfahren eingesetzt: die Berechnung des Determinationskoeffizienten für die Zusammenhänge zwischen zwei quantitativen Größen und der Chiquadrat-Test für die Verteilungshypothesen. Die durchgeführten Tests bestätigen im Großen und Ganzen die Verträglichkeit der Daten mit den aufgestellten Hypothesen.
Umweltschutz wird in dieser Arbeit als Soziales Dilemma betrachtet. Es wird mittels eines experimentellen Online-Spiels (N = 182) primär überprüft, inwieweit unkooperatives Verhalten von Akteuren zu genuinem Ungerechtigkeitserleben bei anderen Personen führt und ob diese in Folge u. a. das eigene kooperative Verhalten reduzieren. Somit wird im Gegensatz zu Erklärungen der Rational-Choice-Theorien angenommen, dass ein Teil des phänotypisch unkooperativen, umweltschädigenden Verhaltens nicht auf Egoismus, sondern auf einem genuinen Gerechtigkeitsmotiv beruht. Zur Erhöhung der internen Validität wird ebenfalls der moderierende Einfluss der Persönlichkeitseigenschaften "Eigeninteresse" und "Gerechtigkeitszentralität" untersucht. Die Hypothesentestungen zeigen, dass unkooperatives Verhalten anderer Akteure in Sozialen Dilemmata bei vielen Personen Ungerechtigkeitserleben auslöst, was sich u. a. in Emotionen der Empörung, Ungerechtigkeitskognitionen, Bestrafungsverhalten und einer Reduktion des eigenen kooperativen Verhaltens niederschlägt. Hierbei spielen interindividuelle Unterschiede hinsichtlich der Stärke des Gerechtigkeitsmotivs bei etlichen gefundenen Effekte eine moderierende Rolle. Es wird somit ein motivpluralistischer Ansatz bestätigt, der die Rolle des Gerechtigkeitsmotivs bei der Vorhersage und Veränderung von Verhalten in Sozialen Dilemmata hervorhebt. Implikationen in Hinblick auf Theorie, zukünftige Forschung und Interventionen in Sozialen-Dilemma-Situationen werden erörtert.
Thema der Untersuchung ist die Sklaverei im nördlichen Schwarzmeerraum (heute Ukraine und Südrußland), wofür die von der Forschung bislang wenig beachtete Quellengruppe der Grabreliefs ausgewertet wird. An erster Stelle steht dabei die Identifizierung möglicher Dienerdarstellungen anhand verschiedener ikonographischer Kriterien wie 1) dem Prinzip der Bedeutungsgröße bzw. der Bedeutungskleinheit, 2) Komposition und technische Ausführung, 3) Haltung, Gesten und Gebärden, 4) Kleidung und 5) Haartracht. Diese Kriterien werden auf ausgesuchte Grabreliefs aus dem Bosporanischen Reich, Chersonesos und Olbia angewendet. Nach Auswertung der literarischen Überlieferung kann als Ergebnis festgehalten werden, daß es sich bei den auf Grabreliefs regelmäßig erscheinenden Hausdienerinnen, Mundschenken und Waffenburschen in den meisten Fällen tatsächlich um Unfreie gehandelt hat. Die Dissertation widmet sich darüber hinaus der Frage nach dem Status der in Grabinschriften erwähnten threptoi und trophimoi; hierbei bestätigt die Analyse der Reliefs ältere Untersuchungsergebnisse, nach denen die Termini eine Beziehung zwischen Personen unterschiedlichen Ranges ausdrücken. Aufgrund der schmalen Materialbasis von nur vier Stelen können keine allgemeingültigen Aussagen zum Freigelassenenwesen im nördlichen Schwarzmeerraum getroffen werden. Allerdings läßt sich beobachten, daß sich die ehemaligen Sklaven entweder im bürgerlichen Habitus oder realistisch haben darstellen lassen. Abschließend wird nach der Funktion der Dienerfiguren im Bild gefragt. So dienten sie als Attribute zur Charakterisierung der Herrschaften und hatten die Aufgabe, deren hohen sozialen Rang vor Augen zu führen.
Bei der Realisierung einer nachhaltigen Entwicklung kommt dem Erhalt und der Sanierung des vorhandenen Altbaubestands zentrale Bedeutung zu. Sanierungen versprechen in erster Line Einsparpotentiale beim Energieverbrauch, bei den CO2-Emissionen und den anthropogen induzierten Stoffströmen. Auch im sozialen Bereich sind Verbesserungen möglich, weil sich beispielsweise attraktive und energetisch optimierte Wohnungen positiv auf die Bleibeabsichten der Bewohner auswirken und so Wohnquartiere sozial stabilisiert werden können. In der Arbeit wird untersucht, welchen signifikanten Beitrag Bestandssanierungen zur Realisierung einer global nachhaltigen Entwicklung leisten können. Zudem wird gefragt, warum Altbausanierungen bislang nur zögerlich umgesetzt werden. So soll die Kluft zwischen Wissen und Handeln bei der Realisierung einer nachhaltigen Entwicklung erklärt werden. Um die Forschungsfragen beantworten zu können, werden vier Sanierungsmaßnahmen in den Städten Ludwigshafen und Köln als Einzelfälle untersucht: (1) Ludwigshafen Brunckviertel, (2) Ludwigshafen Ebertsiedlung, (3) Köln Vingst und (4) Köln Zollstock. Gewählt wird ein qualitativer Forschungsansatz. Zur Anwendung kommen die Erhebungsmethoden teilstrukturierte Befragung und Dokumentenanalyse.
Während deutsche Einwanderer sich nur bedingt gegen die Institution der Sklaverei aussprachen, zeigten sie in ihrer Sicht auf African Americans ein weit höheres Maß an Geschlossenheit in ihrer ablehnenden Haltung. Um die Divergenz zwischen der Wahrnehmung von Sklaverei und African Americans sinnvoll zu kontextualisieren und zu erklären, erscheint die Kategorie der race als erhellende Untersuchungseinheit, welche hilft, die einseitige Wahrnehmung auf der menschlichen im Vergleich zur institutionellen Ebene zu beleuchten. Da der Begriff race weit weniger ideologisch belastet ist als der Begriff des Rassismus, bietet er ein Instrument, welches die nötige Offenheit für verschiedene Erklärungsansätze besitzt. Als Arbeitsgrundlage dient dabei die Definition von Stephen Cornell und Douglas Hartman. Die Autoren betonen besonders stark den menschlichen Ursprung der Kategorie race, ein für diese Untersuchung besonders wichtiger Aspekt, weil er auf die soziale Eingebundenheit des Konzepts verweist. Als solches handelt es sich bei race um eine historische Einheit, die Diskussionen und Wandlungen unterworfen war. Menschen schufen diese Kategorie als distinktes Merkmal für eine Gruppe von Menschen, die sie so eindeutig als von sich selbst unterschiedlich darstellten und damit eine möglichst große und eindeutige Differenz schufen. Diese Vorüberlegungen bilden die Basis für den Kontext, in dem die deutschen Einwanderer ihre Unterschiedlichkeit zu schwarzen Menschen wahrnahmen und davon ausgehend diese als Menschen beurteilten, was häufig mit einer Bewertung der Institution der Sklaverei einherging, der viele der in Amerika lebenden African Americans unterworfen waren. Die Divergenz zwischen dem Selbst und dem Gegenüber schlägt sich dabei in den komplementären Konzepten von blackness und whiteness nieder. Im Zusammenhang mit den deutschen Immigranten spielen diese beiden Perspektiven eine wichtige Rolle, weil so die Denkmuster der Deutschen zum Teil aus ihrem Fokus auf das Anderssein ihres Gegenübers, also der blackness, und zum Teil aus dem Gefühl der eigenen besonderen Stellung, also der whiteness, zu erklären sind. Deutsche Einwanderer schlossen sich Argumentationsmustern aus der Literatur oder der Populärwissenschaft in unterschiedlichen Ausprägung sowohl direkt auch indirekt an, was darauf hindeutet, dass sie wohl mit Gedanken um die Thematik blackness bereits schon in der alten Heimat in variierender Intensität konfrontiert worden waren und damit ihre Äußerungen zu schwarzen Menschen, welche sie nach ihrer Ankunft in den USA trafen, auch auf Vorstellungen beruhten, die sie vor einem direkten Kontakt mit Schwarzen geformt hatten. In Anlehnung an die Diskussionen innerhalb der USA zu schwarzen Menschen wurde Blackness für die deutschen Einwanderer zu einer gesellschaftlichen Kategorie, mit der sie sich in unterschiedlichen Intensitätsgraden auseinandersetzten mussten, weil sie potentiell enorme Auswirkungen auf die verschiedensten Aspekte des Lebens haben konnte. Die Institution der Sklaverei als eine auf race basierende Arbeitsform spielte dabei eine wichtige Rolle, weil hier eine institutionalisierte Manifestation der rassistischen Hierarchisierung in der amerikanischen Gesellschaft existierte. Innerhalb dieser hierarchisierten Gesellschaft stellte die Distanzierung von schwarzen Menschen und, damit einhergehend, die Integration in die Gruppe der weißen Amerikaner eine grundlegende Tendenz dar. Die Kategorie whiteness gewann also enorm an Wichtigkeit für die Einwanderer, wobei die sich daraus ergebenden Folgen etwa in wirtschaftlicher Hinsicht nicht unbedingt der Realität entsprechen mussten, sondern auch auf subjektive Wahrnehmungen beschränkt sein konnten. Vor diesem Hintergrund erklärt sich die hohe Zahl der deutschen Immigranten, die eine latente Abneigung oder sogar offene Abscheu gegenüber African Americans zeigte. Dieser Anreiz zur Differenzierung in Weiße und Schwarze war im Zusammenhang mit der Diskussion um die Institution der Sklaverei nicht gegeben, denn dabei ging es vor allem den intellektuellen Deutschen primär um abstrakte Ideen wie Freiheit und Gleichheit, die sie dann ohne oder nur mit geringem Bezug zu schwarzen Menschen diskutierten. Solange also die Distanz zu African Americans und damit die Zugehörigkeit zur Kategorie whiteness gewahrt blieb, konnten die Deutschen ihre Meinungen gegen die Sklaverei äußern. Es ging dann nicht um das Wohl der Schwarzen, sondern um die Institution und die damit verbundenen abstrakten Prinzipien.
The visualization of relational data is at the heart of information visualization. The prevalence of visual representations for this kind of data is based on many real world examples spread over many application domains: protein-protein interaction networks in the field of bioinformatics, hyperlinked documents in the World Wide Web, call graphs in software systems, or co-author networks are just four instances of a rich source of relational datasets. The most common visual metaphor for this kind of data is definitely the node-link approach, which typically suffers from visual clutter caused by many edge crossings. Many sophisticated algorithms have been developed to layout a graph efficiently and with respect to a list of aesthetic graph drawing criteria. Relations between objects normally change over time. Visualizing the dynamics means an additional challenge for graph visualization researchers. Applying the same layout algorithms for static graphs to intermediate states of dynamic graphs may also be a strategy to compute layouts for an animated graph sequence that shows the dynamics. The major drawback of this approach is the high cognitive effort for a viewer of the animation to preserve his mental map. To tackle this problem, a sophisticated layout algorithm has to inspect the whole graph sequence and compute a layout with as little changes as possible between subsequent graphs. The main contribution and ultimate goal of this thesis is the visualization of dynamic compound weighted multi directed graphs as a static image that targets at visual clutter reduction and at mental map preservation. To achieve this goal, we use a radial space-filling visual metaphor to represent the dynamics in relational data. As a side effect the obtained pictures are very aesthetically appealing. In this thesis we firstly describe static graph visualizations for rule sets obtained by extracting knowledge from software archives under version control. In a different work we apply animated node-link diagrams to code-developer relationships to show the dynamics in software systems. An underestimated visualization paradigm is the radial representation of data. Though this kind of data has a long history back to centuries-old statistical graphics, only little efforts have been done to fully explore the benefits of this paradigm. We evaluated a Cartesian and a radial counterpart of a visualization technique for visually encoding transaction sequences and dynamic compound digraphs with both an eyetracking and an online study. We found some interesting phenomena apart from the fact that also laymen in graph theory can understand the novel approach in a short time and apply it to datasets. The thesis is concluded by an aesthetic dimensions framework for dynamic graph drawing, future work, and currently open issues.
Although it has been demonstrated that nociceptive processing can be modulated by heterotopically and concurrently applied noxious stimuli, the nature of brain processes involved in this percept modulation in healthy subjects remains elusive. Using functional magnetic resonance imaging (fMRI) we investigated the effect of noxious counter-stimulation on pain processing. FMRI scans (1.5 T; block-design) were performed in 34 healthy subjects (median age: 23.5 years; range: 20-31 yrs.) during combined and single application (duration: 15 s; ISI=36 s incl. 6 s rating time) of noxious interdigital-web pinching (intensity range: 6-15 N) and contact-heat (45-49 -°C) presented in pseudo-randomized order during two runs separated by approx. 15 min with individually adjusted equi-intense stimuli. In order to control for attention artifacts, subjects were instructed to maintain their focus either on the mechanical or on the thermal pain stimulus. Changes in subjective pain intensity were computed as percent differences (∆%) in pain ratings between single and heterotopic stimulation for both fMRI runs, resulting in two subgroups showing a relative pain increase (subgroup P-IN, N=10) vs. decrease (subgroup P-DE, N=12). Second level and Region of Interest analysis conducted for both subgroups separately revealed that during heterotopic noxious counter-stimulation, subjects with relative pain decrease showed stronger and more widespread brain activations compared to subjects with relative pain increase in pain processing regions as well as a fronto-parietal network. Median-split regression analyses revealed a modulatory effect of prefrontal activation on connectivity between the thalamus and midbrain/pons, supporting the proposed involvement of prefrontal cortex regions in pain modulation. Furthermore, the mid-sagittal size of the total corpus callosum and five of its subareas were measured from the in vivo magnetic resonance imaging (MRI) recordings. A significantly larger relative truncus size (P=.04) was identified in participants reporting a relative decrease of subjective pain intensity during counter-stimulation, when compared to subjects experiencing a relative pain increase. The above subgroup differences observed in functional and structural imaging data are discussed with consideration of potential differences in cognitive and emotional aspects of pain modulation.
Verfuegen die USA ueber eine Sicherheitsstrategie fuer Suedostasien? Die grosse Mehrheit der Experten vertritt die Auffassung, dass sich die Politik Washingtons vor allem an tagespolitischen Erfordernissen orientiert. Entscheidungen werden demnach ad hoc gefaellt. Unklar ist dabei, von welchen Kriterien solche Bewertungen abhaengig gemacht werden: Was ist eine Strategie? An diesem Punkt setzt die vorliegende Abhandlung an und kommt zu dem Ergebnis, dass das Verhalten der USA in Suedostasien sicherheitsstrategischen Kriterien gerecht wird. Die Dissertation soll in drei Gebieten einen Beitrag zum Forschungsstand der politikwissenschaftlichen Teildisziplin der Internationalen Beziehungen leisten: Fuer den Begriff der Strategie werden, erstens, konkrete Messkriterien entwickelt. Innerhalb des realistischen Paradigmas wird, zweitens, der Forschungsstrang des funktionalen offensiven Realismus herausgearbeitet. Gezeigt wird, dass eine Akteursoeffnung auch unter systemischen Bedingungen moeglich ist, wozu methodisch die Instrumente der Impulsverarbeitung und Impulsumsetzung entwickelt werden. Der dabei entstandene idealtypische, theoretisch aufgeladene Strategiebegriff wird so formuliert, dass er fuer weitere Arbeiten, die sich mit staatlicher Sicherheitspolitik befassen, verwendbar ist. Empirisch traegt die Dissertation, drittens, zur Aufarbeitung des amerikanisch-chinesischen Wettbewerbs um Macht und Einfluss in Suedostasien bei. Dabei werden saemtliche bilateralen Beziehungen Chinas und der USA im ASEAN-Raum analysiert und aufeinander bezogen.
Von erinnerungsinduziertem Vergessen wird gesprochen, wenn die Gedächtnisleistung für bestimmte Information dadurch beeinträchtigt wird, dass zu ihr assoziierte Information zuvor abgerufen wurde. Die vorliegende Arbeit beschäftigt sich mit Effekten von Generierung und Selbstreferenz, die aus der Gedächtnisforschung als meist günstige Arten der Enkodierung bekannt sind, auf dieses Phänomen. Die bislang weitgehend vernachlässigt gebliebenen Gemeinsamkeiten von Generierung und Selbstreferenz sind der Ausgangspunkt für die Prüfung von Hypothesen über das Ausmaß erinnerungsinduzierten Vergessens generierter und selbstreferentiell enkodierter Items und dessen Moderation durch die Stimulusqualität der emotionalen Tönung von Items. Dabei wird auch eine funktionale Perspektive eingenommen, nach der erinnerungsinduziertes Vergessen als Ergebnis eines adaptiven Mechanismus verstanden wird und gefragt wird, nach welchen selbstdienlichen und handlungsrelevanten Funktionen erinnerungsinduziertes Vergessen verhindert werden mag und wie solche Funktionen mit verschiedenen Informationsverarbeitungsprozessen assoziiert sind.rnNachdem zunächst Enkodierungsprozesse und gespeicherte mentale Repräsentationen als Determinanten des Erinnerns, sowie die bisherige Forschung zu erinnerungsinduziertem Vergessen, Generierung und Selbstreferenz dargestellt werden, werden vier eigene Experimente geschildert. In Experiment 1 findet sich eine kontraintuitive Intensivierung erinnerungsinduzierten Vergessens infolge von Generierung, die zugleich aber in Einklang mit bestehenden Theorien steht und diese stützt. Außerdem ergeben sich Hinweise auf eine mit Generierung assoziierte Funktion, die durch die Aktivierung selbstrelevanter Repräsentationen gekennzeichnet ist. Beginnend mit Experiment 2 wird dann das Vorhaben verfolgt, Generierung und Selbstreferenz direkt gegenüberzustellen. Während die Experimente 2 und 3 zwar die Generalität des Phänomens erinnerungsinduzierten Vergessens weiter bestätigen und dessen Beeinflussung durch die emotionale Tönung demonstrieren, aber noch keine Ergebnisse zu Tage fördern, die eine Bewertung hinsichtlich unterschiedlicher oder identischer Konsequenzen von Generierung und Selbstreferenz erlauben, zeigt Experiment 4 schließlich eine Äquivalenz der Effekte von Generierung und Selbstreferenz auf, die in der identischen Moderation erinnerungsinduzierten Vergessens durch diernemotionale Tönung besteht. Diese Äquivalenz wird als Beleg der mit beiden Arten der Enkodierung gleichermaßen assoziierten Funktion selbstrelevanter Informationsverarbeitung interpretiert.
In Beloved, Jazz and Paradise, Toni Morrison negotiates ways of individual and collective identity formation through figurations of space and trauma. In geographical spaces that are public and private, open and closed, inclusive and exclusive, space of the past and spaces of the present, Morrison writes discursive spaces in which to create individual and communal African American history and identity, based on the traumatic hi-stories at the core of the Black American experience: the Middle Passage, slavery, Jim Crow and the Civil Rights Movement, just to name a few. In the three novels, Toni Morrison subscribes to a postmodern notion of space and place, presenting it as relative to the individual- frame of mind. Places are used as metonymies for the protagonists" traumatized minds and their different ways of dealing with trauma. Trauma that is not worked through and transcended is presented by Morrison as impacting the protagonists- ability to fashion a home out of a vast and often hostile space. The physical and mental space of Morrison- protagonists is occupied by historical traumata that disables the protagonists to find a place in the present without revisiting the places of their troubled past. While this burdens their lives, it also opens up a historical and metahistorical discourse that allows the revision of mainstream historiography to include minority histories of oppression and trauma. Morrison reconfigures the American historical landscape by emphasizing the subjectivity of any history and offering alternatives to historical grand narratives through her historiographic metafiction. All three novels explore the possibility of reconciliation between past trauma and present life. Doing so requires Morrison to send her protagonists on strenuous journeys through time and space in order to visit the past trauma that keeps them from making a home in the here and now. The protagonists venture back to the primal scenes that bear major significance for their lives but have been suppressed for being too painful to remember. Their pain thus awakens anew, but out of it grow the possibility of a life in the present and the hope for a future. The pasts Morrison thus digs up serve as anchors to situate the African American place in the American historical landscape. Those primal places have a geographical as well as a historical and psychological quality, as places in Morrison- novels are often used as metonymies for the protagonists" traumatized minds, containing the memory of the traumatic past. By spatializing time, Morrison makes history accessible to a communal working through, thus countering the modernist impulse to treat memory as a private faculty embedded in the individual- psyche. This makes it difficult, for African Americans with individual recollections of slavery and racist oppression for example, to use traumatic memory as the basis for a common sense of identity. Morrison uses spatialized time as a forum to discover this basis, to allow for the establishment of a common historical bond. At the same time, she warns against instrumentalizing a common history to exclude those who do not share it. Any history, for Morrison, should be open and flexible enough to accommodate different perspectives. Essentially, Morrison suggests that western historiography is a discursive construct. By allowing, in all three novels, a polyphonic weaving of different equal histories to destablize a single, authoritative, hegemonic historiography, Morrison gives African Americans the power to construct her own past, her own present, and thereby claim back her identity. Moreover, Morrison destabilizes the duality of private space and public space that has long served to distinguish subjective individual memory from objective communal history and thus to legitimize certain accounts of history at the expense of others. The gendered as well as the racial other, by virtue of being excluded from the public sphere, have been excluded from their own historicization. By opening up the private sphere of personal trauma and loss, Morrison spatializes personal memory in a way that it forms a parallel public sphere in which African Americans may negotiate their historicity, move out of the timelessness of the private into the historicized public. By opening up the traditionally private sphere of the home to the public and turning it into a deeply political place, Morrison redefines home in a way that it does not necessarily conform to the classic view of a closed-off shelter but rather a transient place with flexible boundaries that allows for the formation of liberated individual and communal identities out of (hi)stories of pain and trauma.
Freiheit und Sklaverei sind offensichtlich beliebte Themen für Dion gewesen. In fast allen Reden unseres Autors kann man Ideen, Anspielungen und Hinweise auf Sklaverei und Sklaven finden. Das Gleiche lässt sich auch für die Freiheit und die Freien feststellen. Eine theoretische Erörterung der Begriffe "Freiheit" und "Sklaverei" findet man in der 14. und in der 15. Rede, die beide unter dem Titel περὶ δουλεία καὶ ἑλευθερία (Über die Sklaverei und die Freiheit) überliefert sind. In der 14. Rede diskutiert Dion mit einem anonymen Gesprächspartner und versucht zu bestimmen, was Freiheit und Sklaverei sind, bzw. zu klären, was "frei sein" und ,Sklave sein" bedeutet. In der 15. Rede lautet die Hauptfrage, mit der die beiden Sprecher sich auseinandersetzen, ob man wissen kann, wer ein Sklave und wer frei ist, und wie die beiden Begriffe zu bestimmen sind. In beiden Reden kommt es deutlich heraus, dass die wahre Freiheit sowie die wahre Sklaverei innere Konzepte bilden, es geht also um die Freiheit und Sklaverei des Verstandes und der Seele. Im Hauptteil dieser Arbeit sind beide Reden ins Deutsche übersetzt und Kommentiert worden. Der Einleitungsteil ordnet und fasst die Ergebnisse des Kommentars zusammen. Die ersten Kapitel sind dem Leben und den Werken des Autors gewidmet. Im dritten Kapitel wird die Bedeutung der Begriffe "Sklaverei" und "Freiheit" für das gesamte corpus des Dion behandelt. Im vierten Kapitel werden die wichtigsten Aspekte der beiden Reden hervorgehoben: die Hauptthemen, die literarische Gattung, eine mögliche Datierung, ihre Bestimmung.
Synergieeffekte und Kollaboration bei e-Learning-Anwendungen in selbstorganisierenden Computernetzen
(2009)
In den letzten Jahren haben sich mehrere neue Netzklassen im Bereich der Verteilten Systeme etabliert. Diese können unter Ausnutzung von Selbstorganisationsprinzipien und verschiedener kollaborativer Aspekte viele der netzinhärenten Probleme wie Skalierbarkeit, Latenz- und Lastverteilungsbetrachtungen sowie Konsistenzwahrung entschärfen. Gleichzeitig kann die Nutzung entsprechender Prinzipien zu positiven Synergieeffekten führen, die von den verschiedenen auf diesen Netzen aufsetzten Applikationsdomänen genutzt werden können. Von besonderer Bedeutung sind diese Aspekte für die beiden neuartigen Netzklassen der Multi-Hop Adhoc-Netze (MANETs) und der globalen virtuellen Umgebungen (MMVEs). Beiden Netzklassen ist gemeinsam, dass sie aufgrund der erwähnten Problemstellungen nicht mit traditionellen verteilten Architekturen, wie zentralistischen und monolithischen Systemen, umgesetzt werden können. Hier muss ein Paradigmenwechsel hin zu dezentralen, selbstorganisierenden Systemstrukturen erfolgen, um den angesprochenen Herausforderungen zu begegnen. Die erste in dieser Arbeit untersuchte Netzklasse der MANETs zeichnet sich dadurch aus, dass sie Nutzern erlaubt, immer und überall auf Ihre Daten zugreifen zu können und mit der vor Ort vorhandenen Infrastruktur transparent zu kommunizieren. Dabei erfolgen die Daten-zugriffe vermehrt über immer kleiner werdende mobile Endgeräte, die sowohl aufgrund ihrer inhärenten Mobilität als auch ihrer eingeschränkten Ressourcen daran angepasste Netzstrukturen erfordern. Die neuartige Netzklasse der MMVEs dagegen soll Dateninhalte in einem dreidimensionalen Rahmen und damit nativ und intuitiver als die vorherrschende zweidimensionale Darstellung, wie z.B. im Internet, präsentieren. Der Datenzugriff erfolgt hier meist über eine virtuelle Benutzerrepräsentation " einen Avatar. MMVEs basieren zwar im Vergleich zu MANETs in der Regel auf physisch verlässlichen Netzen, benötigen aber aufgrund der massiven Verteilung und der großen Nutzerzahlen neue Netzwerkarchitekturen. Die Anwendungsdomäne e-Learning eignet sich in diesem Zusammenhang besonders gut für wissenschaftliche Untersuchungen, da hier eine ähnliche Entwicklung beobachtbar ist, wie bei den eingangs erwähnten Netzklassen. Genauso wie mobile Endgeräte immer kleiner und ubiquitär verfügbar werden und das Internet praktisch an jedem Ort der Welt mit hoher Bandbreite nutzbar ist, finden e-Learning Inhalte immer mehr Einzug in das tägliche Leben. Während sie früher nur eine vernachlässigbare Ergänzung zu etablierten Schulungsformen darstellten, die mehr oder weniger invasiv und starr zentral administriert wurde, steigt Ihre Bedeutung besonders im Zusammenhang mit neuen Zugangsformen täglich. Besonders das Bedürfnis an Schulen oder Universitäten sowie bei der innerbetrieblichen Aus- und Weiterbildung, immer und überall verteilt, nativ und transparent auf entsprechende Lehr- und Lerninhalte zugreifen zu können, steigt mit dem wachsenden und teilweise rein wirtschaftlich bedingten Bedarf nach einer qualitativ hohen, kontinuierlichen gesellschafts- und technikdurchdringenden Grund- und Weiterbildung. Die geforderte Transparenz und Ubiquität kann für die angesprochene Anwendungsdomäne dadurch erreicht werden, dass spezielle, auf die neuartigen verteilten Netzstrukturen abgestimmte, Applikationen entwickelt werden, die die netzinhärenten Selbstorganisations-prinzipien explizit ausnutzen. Eine wichtige Fragestellung in diesem Zusammenhang ist, welche Auswirkungen ein solcher Paradigmenwechsel auf die Qualität der Wissens-vermittlung und der Inhalte hat. Erste Evaluationen mit prototypischen Applikationen haben gezeigt, dass dieser Wechsel problemlos möglich ist. Dabei spiegeln auftretende Synergie-effekte die Abbildung auf soziale Netze wieder, die beiden Aspekten inhärent zugrunde liegt und einen Mehrwert erzeugen, der die dabei auftretenden technischen Herausforderungen und Probleme relativiert. Entsprechende Effekte lassen sich sogar noch weiter verstärken, indem kollaborative Aspekte sowohl auf Applikationsebene als auch in den darunter liegenden Basisstrukturen ausgenutzt werden. Die vorliegende Arbeit soll diese Annahmen durch adäquate Beispiele aus beiden Bereichen (MANETs und MMVEs) aus verschiedenen Perspektiven beleuchten und anhand von beispielhaften Anwendungen und darauf aufbauende Evaluationen den Synergiegewinn von e-Learning Applikationen und mögliche kollaborative Aspekte in diesem Umfeld aufzeigen.
Zu Beginn des 18. Jh. setzten sich der Franzose Jean-Baptiste Du Bos (Réflexions critiques sur la poësie et sur la peinture, Paris 1719) und der Italiener Francesco de Ficoroni (Le maschere sceniche e le figure comiche d"antichi romani, Rom 1736) mit der Frage auseinander, ob die antiken Theatermasken die Aufgabe gehabt haben könnten, die Stimme ihrer Träger zu verstärken. Beide kamen zu einem bejahenden Ergebnis, was zur Folge hatte, dass sich viele Handbücher der damaligen Zeit ihrer Meinung anschlossen. Bisweilen wurde dieser Ansicht widersprochen, die Frage offengelassen oder ganz übergangen. Mit der Veröffentlichung von Otto Dingeldeins Aufsatz "Haben die Theatermasken der Alten die Stimme verstärkt?" (Berlin 1890) schien das Interesse an dieser Thematik zu versiegen. Dingeldein erteilte der Stimmverstärkungsfunktion eine entschiedene Absage. Zahlreiche spätere Autoren folgten ihm, indem sie hinsichtlich der akustischen Funktion der Masken lediglich auf seine Abhandlung verwiesen. Kann die Frage der Stimmverstärkung durch die antiken Theatermasken wirklich als vollständig geklärt gelten? Die Tatsache, dass dieses Thema bisher überwiegend aus archäologisch-philologischer Sicht betrachtet wurde, gibt zu Bedenken Anlass, denn eine umfassende Untersuchung desselben erfordert unweigerlich interdisziplinäre Behandlung: Kenntnisse der alten Sprachen, der antiken Kultur (Religion, Theater- und Maskengeschichte, Theater- und Maskenbau), der Akustik sowie insbesondere der menschlichen Stimme. Die bisherigen Beiträge auf diesem Gebiet versuchten zwar teilweise, diesem Anspruch zu genügen, doch fördert eine Einsichtnahme derselben häufig ein unzureichendes phonetisches Verständnis zutage. Aus diesem Grund greift die vorliegende Arbeit die Überprüfung der Verstärkungsfunktion erneut auf, mit dem Ziel, sowohl archäologisch-philologischen als auch phonetischen Erwartungen zu entsprechen. Da die Maske nicht nur zu den Requisiten des antiken Theaters zählte, sondern auch ein Element der griechischen Religion bildete, ist der eigentlichen Untersuchung der Verstärkungsfähigkeit antiker Masken eine Einführung in das antike Theaterwesen und den mit diesem stets verbunden gebliebenen Dionysos-Kult vorangestellt. Ausgehend von einer knappen Skizzierung der antiken Maske (Definition, Aussehen, Handhabung) und ihrer Verankerung im religiösen Bereich (Herkunft) wird zunächst ein Einblick in die Entstehungsgeschichte des griechischen Theaters gegeben (der Gott Dionysos, seine Begleiter, seine Attribute und sein Kult). Danach erfolgt eine Einführung in das dem Kult entsprungene eigentliche Theater, das Theater als staatliche Institution: angefangen bei den attischen Dionysos-Festen, aus denen exemplarisch die Städtischen Dionysien herausgegriffen werden (Festverlauf, -vorbereitung, Ehrungen und Weihgeschenke, Chancengleichheit, Publikum, Schauspieler), über die außerattischen Aufführungen bis hin zu der Geschichte der antiken Maske als theatralischem Requisit, ihrer Entwicklung in der Tragödie und Komödie sowie ihrem Einfluss auf das Mienenspiel. Im Anschluss daran wird das Theaterwesen der Römer vorgestellt, da diese nicht nur das Bühnenspiel, sondern auch den Gebrauch der Maske (nicht aber deren religiöse Komponente) von den Griechen übernommen haben. So weit es möglich war, wurde hierbei versucht, die bei den Griechen besprochenen Aspekte auch bei den Römern Erwähnung finden zu lassen, so dass auch hier der Ursprung des Bühnenspiels den Anfang bildet, gefolgt von den verschiedenen "Spielen" (ludi), unter denen vor allem die "Bühnenspiele" (ludi scaenici) hervorgehoben werden, bis hin zu den Spielbedingungen, Schauspielern und Masken. Den Auftakt für die Untersuchung der akustischen Funktion der antiken Masken macht die Definition der Begriffe "Verstärkung" und "Verständlichkeit", die in der Vergangenheit oft miteinander in Zusammenhang gebracht wurden, deren phonetische Differenzierung für die Analyse der vorliegenden Fragestellung jedoch von erheblicher Wichtigkeit ist. Anschließend werden die für eine Verstärkungsfähigkeit der antiken Masken vorgebrachten Belege vorgestellt, unterteilt in literarische Zeugnisse (Angaben antiker und spätantiker Autoren, aus denen eine Stimmverstärkungsfunktion hervorzugehen scheint), architektonische Beobachtungen (häufig sehr auffallende Mundöffnungen der antiken Masken, für die man eine andere Erklärung als Stimmverstärkung nicht zu finden wusste) sowie pragmatische Überlegungen (Glaube an die Unerlässlichkeit einer künstlichen Stimmverstärkung angesichts der gewaltigen Größe der antiken Freilufttheater und der damit verbundenen Zuschauermassen; befremdende Wirkung maskierter Schauspieler, woraus geschlossen wurde, dass die Masken eine spezielle Bedeutung gehabt haben müssen), deren Gültigkeit detailliert untersucht wird. Als Abschluss werden die Ergebnisse zusammengefasst.
Die vorliegende Arbeit ist eine Fallstudie zu Gender- und ethnischen Identitäts- und Differenzkonstruktionen in einer indigenen Gemeinde im Tiefland Ecuadors. Sie sucht folgende Fragen zu beantworten: I. Wie wird Gender im sog. "Oriente" Ecuadors verhandelt und performativ produziert? Existieren Gegenstimmen und Subversionen zu dominanten Genderrollen, und wenn ja, in welcher Form? II. Wie entwerfen die Napo Runa von der sogenannten Peripherie aus ihre nationale und ethnische Identität? Welche Diskurse und praktischen Strategien entwickeln sie im Umgang mit den ethnisch "Anderen" innerhalb des nationalen, ecuadorianischen Kontextes? III. Auf welche Art und Weise sind die Kategorien Gender, Ethnizität und Nation ineinander verwoben? Wie werden Männlichkeiten und Weiblichkeiten in Abgrenzung und Anziehung zum ethnisch "Anderen" konstruiert? Wie werden dabei hegemoniale Gender-, ethnisch-rassische und nationale Diskurse und Praxen von den Runa aufgenommen, verarbeitet und umgedeutet? In der feministisch ausgerichteten Gender-Forschung dienen "nicht-westliche" Beispiele häufig dazu, Alternativen zur euro-amerikanischen binären, heteronormativen Geschlechterordnung aufzuzeigen und letztere somit zu dekonstruieren. Diese Fallstudie zu den Tiefland-Runa in Ecuador kann dazu nur sehr bedingt einen Beitrag leisten: Die Runa bestehen auf der Dichotomie weiblich-männlich, die nach dem biologischen Geschlecht des Kindes bei der Geburt bestimmt wird. Und dennoch erfordert das Herausbilden der "richtigen" Genderidentität aus indigener Perspektive von Kindheit an beständige Formung, was sich besonders in der früh einsetzenden Arbeitsteilung äußert, welche Wissen in den Körper "einschreibt". Wer die gegenderten, alltagspraktischen Techniken in seinen/ihren Körperhabitus übernommen hat, gilt als "richtiger Mann" resp. "richtige Frau", als erwachsen. Der biologischen Reifung des Körpers wird dagegen weniger Bedeutung beigemessen. Explizit ausformuliert wird die für gesellschaftliches Leben als unerlässlich angesehene Komplementarität beider Geschlechter. Die jüngere ethnographische Literatur zum Amazonastiefland tendiert mehrheitlich zur Gleichsetzung dieser Komplementarität mit einem egalitären Geschlechterverhältnis. Meine Daten deuten jedoch auf ein unausgeglichenes Machtverhältnis zwischen Männern und Frauen hin. Eine klare Hierarchie lässt sich in verschiedenen Bereichen ablesen, wie z.B. dem unterschiedlichen Zugang zu politischer Macht, spirituellem Wissen, ökonomischen Möglichkeiten, Arbeitszeitaufteilung, Bewegungsfreiheit und Verfügungsgewalt über den eigenen und fremde Körper. Auch in der Abgrenzung der Runa gegenüber anderen ethnischen Gruppen spielt die Kategorie Geschlecht eine zentrale Rolle. Entlang der Runa-Ideale von geschlechtsspezifischer Arbeitsteilung und Verhaltensidealen werden Grenzen gezogen. Dabei sind es die MestizInnen, welche die wichtigste Rolle in diesem fortwährenden identitätszeichnenden und -versichernden Prozess als direkte und dominanteste Gegenüber spielen. Einerseits sucht man sich gegen mestizische Dominanz und Vereinnahmung durch Betonung der eigenen, ethnisierten Kraft und Stärke und einer "reinen" Heiratspraxis zu erwehren. Andererseits eifert insbesondere die jüngere Generation, auch in ihren Genderentwürfen, einem mestizischen Lebensstil als Inbegriff von "Zivilisation", Modernität, Urbanität und Fortschrittlichkeit nach und versucht, dies besonders durch Bildung zu erreichen. Speziell in den Feminitätsentwürfen der ruralen, traditionellen runa warmi und ihrem Gegenstück "urbane Mestizin" findet dieser Widerspruch seinen Ausdruck. Für Männer stellt das Militär den größten außerdörflichen Einfluss auf jugendliche maskuline Runa-Identitätsbildung dar und drängt diese zusehends in die Richtung eines mestizisch-virilen Männlichkeitsideals, das eng verbunden ist mit einer nationalen Identität als Ecuadorianer. Beruhend auf Viveiros de Castros" Multinaturalismus-Theorie findet man in der wissenschaftlichen Literatur zum Amazonastiefland immer wieder die Darstellung äußerst aufnahmefähiger, flexibler Gesellschaften, welche starren ethnischen Grenzen mit größter Skepsis zu begegnen wüssten. Die Inkorporierung "Fremder", seien sie Affinalverwandte oder ethnisch different, geschehe über die konstante gemeinsame Produktion entlang der gegenderten Arbeitsteilung und den Konsum der gleichen Nahrung, die zusehends und fortlaufend die Unterschiede zwischen Menschen nivellieren. Ich halte diese Einschätzung amazonischen Gemeinschaftslebens für idealisiert. Sie mag partiell richtig sein, jedoch wird "Fremdartigkeit" nie ganz vergessen. Eine gewisse "fremde" Essenz, welcher Art diese auch immer sein möge, bleibt bestehen " unabhängig davon, ob die Betreffenden die geschlechtsspezifischen Runa-Körpertechniken erlernt haben. Es stehen hier m. E. zwei Diskurse nebeneinander.
Auf der Grundlage der Beobachtung, dass Städte und Regionen in Deutschland signifikant unterschiedliche durchschnittliche Lohnniveaus aufweisen, macht es sich die Dissertation zur Aufgabe, die Gründe für die Divergenz regionaler Lohnniveaus in Westdeutschland zu erforschen. Theoretischer Ausgangpunkt der Analyse ist das Konzept der lokalen Humankapitalexternalitäten. Dieses besagt, dass der individuelle Bildungsstand eines Arbeitnehmers nicht nur für diesen selbst produktivitätsbestimmend ist, sondern darüber hinaus auch einen Einfluss auf die Produktivität anderer Arbeitnehmer in räumlicher Nähe ausüben kann. Das Vorliegen von Humankapitalexternalitäten ist für den deutschen Fall potenziell relevant, da sich beträchtliche Unterschiede in den durchschnittlichen regionalen Bildungsniveaus feststellen lassen. Die Dissertation untersucht daher, in welchem Umfang regionale Lohndisparitäten in Deutschland auf externe Produktivitätseffekte des regionalen Bildungsniveaus zurückzuführen sind und durch welche mikroökonomischen Mechanismen derartige Effekte entstehen. Diese Frage wird in vier thematisch eng miteinander verknüpften Artikeln beantwortet. Der erste Artikel stellt eine Überblicksstudie dar, in der die Literaturen zu regionalen Humankapitalexternalitäten und zur städtischen Lohnprämie hinsichtlich ihrer Ergebnisse und Methodik miteinander verglichen werden. Der Literaturvergleich zeigt, dass sowohl Agglomerationseffekte, als auch Humankapitalexternalitäten gültige Erklärungen für regionale Lohnunterschiede darstellen. Weiterhin werden die ökonometrische Methodik und die Identifikationsstrategien, die beiden Literaturen zugrunde liegen, verglichen. Es wird gezeigt, dass ein beträchtliches gegenseitiges Lernpotenzial zwischen beiden Literaturen besteht. Der zweite Artikel untersucht empirisch die Bedeutung von Humankapitalexternalitäten für die Divergenz regionaler Lohnniveaus in Deutschland. Es werden individuelle Lohngleichungen geschätzt, die um regionale Variablen erweitert werden. Einer möglichen Inkonsistenz der Schätzer wird durch den Einsatz von Instrumentvariablen begegnet. Die Ergebnisse weisen darauf hin, dass ebenso wie in anderen Ländern der regionale Humankapitalbestand auch in Deutschland einen signifikanten Einfluss auf die Löhne von Arbeitnehmern ausübt und somit zum Auftreten regionaler Lohndifferenziale beiträgt. Der dritte Artikel untersucht das Auftreten von Matchingeffekten als möglichen mikroökonomischen Mechanismus, durch den Humankapitalexternalitäten individuelle Löhne beeinflussen. Konkret wird überprüft, ob in humankapitalintensiven Regionen stärker ausgeprägte lokale Karrierenetzwerke bestehen, die durch einen besseren Informationsfluss im Hinblick auf Karrierechancen zu einer erhöhten Matchingeffizienz und damit zu höheren Löhnen in regionalen Arbeitsmärkten führen. Hierzu wird untersucht, ob sich signifikante Unterschiede zwischen humankapitaintensiven und humankapitalschwachen Regionen hinsichtlich des Lohnanpassungs- und Arbeitsplatzwechselverhaltens von Arbeitnehmern feststellen lassen. Die empirischen Ergebnisse zeigen, dass regionale Humankapitalexternalitäten unter anderem durch verbesserte Matches zwischen Arbeitnehmern und Unternehmen in humankapitalintensiven Regionen entstehen. Der vierte Artikel untersucht, ob erfolgreicher industrieller Wandel und regionale Humankapitalexternalitäten insoweit zwei Seiten derselben Medaille sind, als dass die produktivitätsbestimmende Wirkung des einen Einen das Vorliegen des Anderen voraussetzt. Die Ergebnisse deuten auf eine Komplementarität dynamischer Arbeitsmärkte und regionaler Humankapitalausstattungen hin. So weisen lokale Industrien eine signifikant höhere Produktivität auf, wenn sie in regionalen Arbeitsmärkten beheimatet sind, die gleichermaßen einen hohen Anteil hochqualifizierter Arbeitnehmer und eine überdurchschnittliche Arbeitsmarktdynamik aufweisen. Die Ergebnisse zeigen weiterhin, dass Humankapitalexternalitäten vor allem dann entstehen, wenn Arbeitnehmer ihren Arbeitsplatz innerhalb einer Region wechseln und damit zum Auftreten von produktivitätssteigernden Wissenspillovers und einer erhöhten Matchingeffizienz beitragen. Die Ergebnisse aus allen vier Artikeln untermauern die Bedeutung regionaler Humankapitalexternalitäten für das Entstehen regional unterschiedlicher Lohnniveaus. Hieraus erwachsen zwei zentrale Implikation für die regionale Bildungs- und Infrastrukturpolitiken, die im Schlusskapitel der Dissertation erörtert werden. So können staatliche Investitionen in Humankapital effizienzsteigernd wirken, da eine Unterinvestition in Bildung eine wahrscheinliche Folge beim Vorliegen von Humankapitalexternalitäten ist. Weiterhin können Infrastrukturinvestitionen zu einem Verschmelzen von humankapitalarmen mit humankapitalintensiven Arbeitsmärkten führen und somit eine größere Zahl an Arbeitnehmern an den positiven Produktivitätseffekten, die durch regionale Humankapitalexternalitäten entstehen, teilhaben lassen.
One mechanism underlying the acquisition of interpersonal attitudes is the formation of an association between a valenced unconditioned stimulus (US) and an affectively neutral conditioned stimulus (CS). However, a stimulus (e.g., a person) is not always and necessarily perceived to be unambiguously positive or negative. An individual can be negative regarding abstract (trait) information but at the same time display a positive (concrete) behavior. The present research deals with the question of whether the valence of abstract or concrete information about a US is encoded and subsequently transferred to an associated CS. The central assumptions are that the valence of the concrete information is more important for the evaluation of the US, whereas the abstract information is more important for the evaluation of the CS. The rationale behind these assumptions is that the US is a psychologically proximal stimulus because it elicits a more direct affective reaction. The CS, however, is psychologically more distal because it is merely associated with the US and is therefore only experienced indirectly. It is postulated that the associative relation between US and CS constitutes a dimension of psychological distance. In four studies, the valence of abstract and concrete information about a number of USs was manipulated. Within an evaluative learning paradigm, these stimuli were associated with affectively neutral CSs. As predicted, ambivalent USs were evaluated according to the valence of the concrete information. The evaluation of CSs, however, was influenced more strongly by the valence of the abstract information. Moreover, in a subsequent lexical decision task, participants were faster to categorize abstract (vs. concrete) stimuli when the stimuli were preceded by a CS prime as compared to a US prime. The results provide first evidence that perceived psychological distance influences the evaluations of US and CS in an associative evaluative learning paradigm.
Ziel der vorliegenden Forschungsarbeit war es, den Einfluss des dispositionellen Bedürfnisses nach kognitiver Geschlossenheit (NCC) auf Entscheidungen unter Unsicherheit zu untersuchen. Es wurde vorhergesagt, dass NCC Entscheidungsphänomene moderiert, die sich durch unterschiedliche Ausmaße an Unsicherheit kennzeichnen. Um diese Annahme zu testen, wurden im Rahmen dreier Studien klassische Entscheidungsprobleme vorgegeben, die eine Wahl zwischen Entscheidungsalternativen mit unterschiedlichen Ausmaßen an Unsicherheit, aber gleichem Erwartungswert erforderten. Studien 1 bis 3 untersuchten den Einfluss des NCC auf den fundamentalen Ambiguitätsaversionseffekt im Ellsberg-Paradigma (Ellsberg, 1961). Hierzu wurde eine Adaption des klassischen Zwei-Farben-Urnenproblems vorgegeben, in dem eine Wahl zwischen einer Urne mit bekanntem Risiko und einer ambiguen Urne getroffen werden musste. Hypothesenkonform erwies sich NCC als signifikanter Prädiktor der Urnenwahl. Einzelanalysen zeigten, dass der Ambiguitätsaversionseffekt, der als Präferenz der bekannten (versus der ambiguen) Urne definiert ist, nur in der Gruppe mit hohem NCC auftrat. In der Gruppe mit niedrigem NCC zeigte sich keine systematische Präferenz. Dieser Effekt konnte in allen drei Studien nachgewiesen werden und erwies sich somit als besonders robust und reliabel. Zudem wurde in der dritten Studie der Einfluss des NCC auf Risikoframingeffekte im Asian-Disease-Paradigma untersucht. Hierbei mussten sich die Teilnehmer und Teilnehmerinnen zwischen einer sicheren und einer riskanten Option entscheiden, die in zwei kontextuellen Bedingungen dargeboten wurden: einem Gewinnframe und einem Verlustframe. Die Ergebnisse dieser Studie zeigten, dass sich Individuen mit einem hohen und einem niedrigen NCC in ihren Präferenzen in Abhängigkeit vom jeweiligen Problemframe unterschieden. In der Gruppe mit einem hohen NCC zeigte sich unter Gewinnframing eine starke Präferenz der sicheren Alternative (Risikovermeidung), wohingegen unter Verlustframing keine Option bevorzugt wurde. Individuen mit einem niedrigen NCC wiesen hingegen unter Gewinnframing keine systematische Präferenz auf, wohingegen sie unter Verlustframing stark die riskante Option bevorzugten. Zudem zeigte eine Betrachtung des Verhaltens über die untersuchten Entscheidungsprobleme hinweg, dass Individuen mit einer starken Ausprägung auf dieser Variablen dazu neigten, sich über die untersuchten Entscheidungssituationen hinweg konsistent zu verhalten. Insgesamt unterstützen die Ergebnisse die Annahme, dass NCC eine Persönlichkeitsvariable darstellt, die Entscheidungsverhalten unter Unsicherheit bedeutsam beeinflusst. Implikationen und Konsequenzen dieser Ergebnisse werden diskutiert.
Ausgangspunkt ist der demographische Wandel und die damit einhergehende älter werdende Erwerbsbevölkerung. Es wird davon ausgegangen, dass aufgrund dieser Entwicklung einige Unternehmen senioritätsorientierte Entgeltstrukturen grundlegend verändern bzw. abschaffen müssen. Es gibt bisher einige wenige theoretische Überlegungen, wie diese veränderten Entgeltstrukturen aussehen könnten. Jedoch wird hierbei nicht berücksichtigt, wie ältere Beschäftigte auf eine derartige Veränderung reagieren könnten. Dieser Frage wird im Rahmen der Dissertation nachgegangen. Ein gesondertes Augenmerk, wird zudem auf die möglichen Reaktionen älterer Arbeitnehmer auf eine Anhebung des Renteneintrittsalters auf 67 Jahre gelegt. Zu diesem Zweck werden aus verschiedenen theoretischen Perspektiven mögliche Verhaltensreaktionen älterer Arbeitnehmer abgeleitet. Grund für die breitangelegte Betrachtung des Sachverhaltes ist die mehrdeutige Bedeutung von Einkommen. Die Höhe der Entlohnung ist nicht nur als Gegenleistung der erbrachten Arbeitsleistung zu sehen, sondern immer auch als Ausdruck von Macht, Prestige, sozialen Status etc. Berücksichtigung finden klassische ökonomische Theorien, Motivationstheorien, Wertwandeltheorien, Theorien zur Arbeitszufriedenheit und Machttheorien. Bei der Behandlung der verschiedenen Theorien wurde des Weiteren der Frage nach alternativen Anreizen zu monetären Anreizen nachgegangen, welche eine spezifische Wirkung auf ältere Arbeitnehmer entwickeln können. Durch eine weiterentwickelte Typologie drei verschiedener Typen der Arbeitsorientierung werden als Ergebnis mögliche Verhaltensreaktionen näher erläutert und auf mögliche alternative Anreize eingegangen.
Die Breite und Tiefe der zu bewältigenden Aufgaben der Unternehmensführung, der Grad und die Geschwindigkeit der Veränderung der Umwelt der Unternehmung, die Interdependenz von Entscheidungen und ein schier unüberschaubares Netzwerk von Wechselbeziehungen mit den, von den Aktivitäten der Unternehmung betroffenen Individuen und Gruppen resultieren in sich laufend verändernden Ausgangslagen für die Unternehmung und verleihen der Notwendigkeit eines Gestaltungs-, Lenkungs- und Entwicklungsrahmens für das erforderliche Wechselspiel von Stabilisierung und Wandel der Unternehmung ihre Aktualität und Bedeutung. Die Hauptaufgabe der Unternehmensführung im Spannungsfeld komplexer systeminterner und systemexterner Beziehungsgeflechte ist der Umgang und die Bewältigung der sich aus diesen Beziehungsgeflechten bzw. deren Wandel ergebenden Komplexität. Der Paradigmenwechsel von einem reduktionistischen Unternehmensführungsverständnis, welches sich auf die Lenkung der Unternehmung auf Basis monistischer Zielvorstellungen versteht hin zu einem systemisch-evolutorischen Unternehmensführungsverständnis, welches sich auf die Gestaltung und Entwicklung der Unternehmung aufgrund von pluralistischen Zielsystemen und multiplen Kausalitätsbeziehungen versteht, ist noch nicht vollzogen. Auch sieht sich die Unternehmensführung den, im Wettbewerb stehenden Prämissen der opportunistischen Management-Philosophie des Shareholder-Value-Ansatzes und der verpflichteten Management-Philosophie des Stakeholder-Value-Ansatzes gegenüber. Diese Transitionsphase in Wissenschaft und Praxis sieht ein "Ringen zweier Paradigmen um ihre Durchsetzung", wobei diese Entwicklungsdynamik vom Spannungsverhältnis zwischen Bewahrung und Proliferation geprägt ist. Das vorgelegte systemisch-koevolutionäre Modell der strategischen Unternehmensführung stellt einen solchen Beitrag zum Paradigmenwechsel in der Unternehmensführung hin zu einem systemisch-evolutorischen Unternehmensführungsverständnisses auf Basis einer verpflichteten Management-Philosophie dar. Das, auf den dargelegten erkenntnistheoretischen Grundannahmen, Beschreibung von Wirkungszusammenhängen und Handlungsheuristiken der betrachteten Fallstudie aufbauende Modell für die langfristig erfolgreiche Unternehmensführung wird als ein Erklärungsmodell einerseits, welches die Wirkungszusammenhänge erfassen und verstehen helfen soll, und ein Gestaltungsmodell andererseits, welches den Entscheidungsprozess unterstützen soll, verstanden. Die strategische Unternehmensführung - als Prozess der Orientierung und Animation verstanden - soll in diesem Zusammenhang die nachhaltige Sicherung und den Aufbau von Erfolgspositionen, sowie die Aufrechterhaltung der bestehenden Koalitionen bzw. Schaffung der Voraussetzungen für die Bildung zukünftiger, nutzenstiftender Koalitionen zur Sicherung der sinnvollen langfristigen Lebensfähigkeit der Unternehmung, ermöglichen. Die Strategieentwicklung im "10-Stufen-Strategiemodell" wird durch die Komplementarität von marktorientierten und ressourcen- bzw. fähigkeitenorientierten Prozessen und Ansätzen geprägt, um die Wettbewerbsfähigkeit der Unternehmung im Zeitalter der "Hypercompetition" und Streben nach dynamischen und differenzierenden Fähigkeiten zu entwickeln und nachhaltig zu sichern. Dieser Strategieentwicklungsprozess erhält seinen Rahmen durch ein übergelagertes Stakeholdermanagementsystem, welches die Anspruchsbefriedigung und Nutzenoptimierung aller relevanten Stakeholdergruppen zur nutzenstiftenden Verankerung der Unternehmung in seiner Stakeholderumwelt zum Ziel hat. Das so genannte "Strategic Corporate Social Performance Modell" gibt diesem Stakeholdermanagementsystem Namen, Orientierung, Prozesse und Kontrollinstrumente und soll die gegenseitige Anerkennung der Ansprüche der so unterschiedlichen Stakeholdergruppen ermöglichen und zur Sicherung der wirtschaftlichen Basis, zur Wertsteigerung der Unternehmung und der Steigerung der Nutzenbefriedigung aller relevanter Stakeholder führen.
Die ältesten bekannten jüdischen Grabsteine in den Rheinlanden befinden sich in Mainz und Worms. Ihre Inschriften werden dem 11. Jahrhundert n. Chr. zugeordnet und sind meistens datiert. Möglicherweise noch früher ist die undatierte Inschrift von Heilbronn anzusetzen, die aber vielleicht gar kein Epitaph ist. In dieser Untersuchung wird nach der Einleitung (Vorstellung eines namenkundlich-geschichtswissenschaftlichen Projekts) zunächst der Wert jüdischer Epitaphe für die onomastische Forschung aufgezeigt, die regionale Verteilung der rheinischen jüdischen Grabsteine des Mittelalters beschrieben und die Abgrenzung historischer Phasen erörtert. Bei der Prüfung der Heilbronner Inschrift und ihres Umfelds ergaben sich bisher unbeachtete Aspekte, deren Bedeutung für die Einordnung dieses Epigraphs aufgezeigt wird. Die anschließenden Analysen und Erörterungen richten sich nach einer Abfolge, die auch bei der Untersuchung der datierten Grabinschriften beachtet wird: Nach der Behandlung von Datierungsfragen wird der Blick auf die onomastischen Felder Name(n), Attribut(e), Bindeglied(er), Schrift(en), Sprache(n) und Kette(n) gerichtet. Der jeweils angefügte Vergleich mit antiken jüdischen Inschriften ist nach ebendiesem Muster aufgebaut. So wird beispielsweise nicht nur die Verbreitung des mit der Heilbronner Inschrift überlieferten Namens Nathan im Mittelalter skizziert, sondern auch konstatiert, daß dieser biblische Name in dem betreffenden Vergleichsmaterial der Antike nicht zu finden ist. Aus arbeits- und darstellungsökonomischen Gründen wird bei der Behandlung der erwähnten Grabsteine in Mainz und Worms unterschieden zwischen denjenigen Teilaufgaben, die alle diesbezüglichen Inschriften der Zeit vor dem Ersten Kreuzzug betreffen, und denjenigen, die sich auf die speziellen Angaben des einzigen bekannten Epitaphs der Phase Ia (bis ca. a. 1050) beziehen. Die erstgenannten Teilaufgaben werden in dieser Grundlegung erörtert, dagegen die speziellen Angaben der Epitaphe der Phase Ib (ca. a. 1050-1100) erst in einer künftigen Publikation ausführlicher besprochen. Zu den generellen Beobachtungen bei den Vergleichen nicht nur mit antiken, sondern auch mit späteren jüdischen (Grab-)Inschriften u. a. in Italien (bes. Venosa), Spanien und Frankreich gehört, dass man sich in der Antike bei der Zählung der Jahre auf die nichtjüdische Herrschaftsausübung (wie römische Konsuln) bezog, während man im Mittelalter spezifisch jüdisch ("nach der Zerstörung des Tempels", "nach der Erschaffung der Welt") zählte. Weiterhin ist z. B. bemerkenswert, dass die jüdischen Epitaphe nach ca. 750 ausschließlich mit hebräischen Buchstaben geschrieben wurden ("Schriftgrenze") und dass von den untersuchten nur rheinische den Zusatz Lifrat "nach der Zählung" aufweisen. Eine rheinische Spezialität ist zudem die auffällige Häufigkeit des biblischen Namens Jehuda und die Verbreitung von Senior/Schneior, wobei, von dem lateinischen Wort ausgehend, in der Untersuchung verschiedene Positionen zur sprach- und regionalhistorischen Einordnung dieses Namens erwogen und linguistische Fakten und Faktoren besonders aus der Perspektive der germ.-deutschen Majoritätskomponente des Jiddischen und aus romanistischer Sicht erörtert werden. Spezifika der jüdischen Namenwelt werden bei der Darstellung onomastischer Ketten erstmals in angemessener Detailbeachtung berücksichtigt, was entsprechende Vergleiche entscheidend befördert. Ergänzt wird die Abhandlung nicht nur u. a. durch Kontextwiedergaben und 28 Tabellen, sondern auch durch sechs umfangreiche Exkurse, in denen neben philologischen (z. B. Diminutivbildungen) und literarischen Fragen auch solche anderer Disziplinen wie archäologisch-historischer in den Blick genommen werden.
Interoception - the perception of bodily processes - plays a crucial role in the subjective experience of emotion, consciousness and symptom genesis. As an alternative to interoceptive paradigms that depend on the participants" active cooperation, five studies are presented to show that startle methodology may be employed to study visceral afferent processing. Study 1 (38 volunteers) showed that startle responses to acoustic stimuli of 105 dB(A) intensity were smaller when elicited during the cardiac systole (R-wave +230 ms) as compared to the diastole (R +530 ms). In Study 2, 31 diabetic patients were divided into two groups with normal or diminished (< 6 ms/mmHg) baroreflex sensitivity (BRS) of heart rate control. Patients with normal BRS showed a startle inhibition during the cardiac systole as was found for healthy volunteers. Diabetic patients with diminished BRS did not show this pattern. Because diminished BRS is an indicator of impaired baro-afferent signal transmission, we concluded that cardiac modulation of startle is associated with intact arterial baro-afferent feedback. Thus, pre-attentive startle methodology is feasible to study visceral afferent processing. rnVisceral- and baro-afferent information has been found to be mainly processed in the right hemisphere. To explore whether cardiac modulation of startle eye blink is lateralized as well, in Study 3, 37 healthy volunteers received 160 unilateral acoustic startle stimuli presented to both ears, one at a time (R +0, 100, 230, 530 ms). Startle response magnitude was only diminished at R +230 ms and for left-ear presentation. This lateralization effect in the cardiac modulation of startle eye blink may reflect the previously described advantages of right-hemispheric brain structures in relaying viscero- and baro-afferent signal transmission. rnThis lateralization effect implies that higher cognitive processes may also play a role in the cardiac modulation of startle. To address this question, in Study 4, 25 volunteers responded first by 'fast as possible' button pushes (reaction time, RT), and second, rated perceived intensity of 60 acoustic startle stimuli (85, 95, or 105 dB; R +230, 530 ms). RT was divided into evaluation and motor response time. Increasing stimulus intensity enhanced startle eye blink, intensity ratings, and RT components. Eye blinks and intensity judgments were lower when startle was elicited at a latency of R +230 ms, but RT components were differentially affected. It is concluded that the cardiac cycle affects the attentive processing of acoustic startle stimuli. rnBeside the arterial baroreceptors, the cardiopulmonary baroreceptors represent another important system of cardiovascular perception that may have similar effects on startle responsiveness. To clarify this issue, in Study 5, Lower Body Negative Pressure at gradients of 0, -10, -20, and -30 mmHg was applied to unload cardiopulmonary baroreceptors in 12 healthy males, while acoustic startle stimuli were presented (R +230, 530 ms). Unloading of cardiopulmonary baroreceptors increased startle eye blink responsiveness. Furthermore, the effect of relative loading/unloading of arterial baroreceptors on startle eye blink responsiveness was replicated. These results demonstrate that the loading status of cardiopulmonary baroreceptors also has an impact on brainstem-based CNS processes. rnThus, the cardiac modulation of acoustic startle is feasible to reflect baro-afferent signal transmission of multiple neural sources, it represents a pre-attentive method that is independent of active cooperation, but its modulatory effects also reach higher cognitive, attentive processes.rn
320 Probandinnen bekamen Portraitfotos von Männern und Frauen, kombiniert mit geschlechterstereotypkongruenten, -inkongruenten und -neutralen Eigenschaften unter verschiedenen Instruktions- und Rahmenbedingungen vorgelegt. Anschließend erfolgten, für Items und Assoziationen, explizite Gedächtnistests. Die Ergebnisse belegen einen wiederholten assoziativen Inkongruenzvorteil, stereotypkongruente Rateverzerrungen, ein moderierendes individuelles Stereotypizitätsniveau, Ausbleiben stereotypkongruenten Einflusses nach intentionaler Instruktion, die Interaktion von Gedächtnisleistung und instruktionsvermittelnder Fokussierung, einen Erinnerungsvorteil für assoziative im Vergleich zu Iteminformationen sowie Leistungsminderung bei paralleler Aufmerksamkeitsbelastung. In der zeitunbegrenzten Testphase bwz. der Erfassung der probandeneigenen Reaktionszeiten wird eine wichtige Aufklärungsquelle vermutet.
The thesis studies the question how universal behavior is inherited by the Hadamard product. The type of universality that is considered here is universality by overconvergence; a definition will be given in chapter five. The situation can be described as follows: Let f be a universal function, and let g be a given function. Is the Hadamard product of f and g universal again? This question will be studied in chapter six. Starting with the Hadamard product for power series, a definition for a more general context must be provided. For plane open sets both containing the origin this has already been done. But in order to answer the above question, it becomes necessary to have a Hadamard product for functions that are not holomorphic at the origin. The elaboration of such a Hadamard product and its properties are the second central part of this thesis; chapter three will be concerned with them. The idea of the definition of such a Hadamard product will follow the case already known: The Hadamard product will be defined by a parameter integral. Crucial for this definition is the choice of appropriate integration curves; these will be introduced in chapter two. By means of the Hadamard product- properties it is possible to prove the Hadamard multiplication theorem and the Borel-Okada theorem. A generalization of these theorems will be presented in chapter four.
Seuchen und Krieg waren jedem einzelnen Individuum der spätmittelalterlichen Gesellschaft als elementare Bedrohungen des eigenen Lebens stets gegenwärtig. Welch hohen Stellenwert diese Katastrophen im Bewußtsein der Bevölkerung einnahmen, läßt sich anhand der vielfältigen zeitgenössischen Bild- und Textzeugnisse erschließen. Während diese vor der Mitte des 15. Jahrhunderts aufgrund der manuellen Fertigung in Skriptorien und den Werkstätten von Kartenmalern nur einem relativ kleinen Personenkreis zugänglich waren, herrschten nach der Erfindung des Buchdrucks völlig neue Voraussetzungen bei der Produktion, Reproduktion und Vervielfältigung von Schriftlichkeit. Mit der Druckkunst stand erstmals eine Technologie zur Verfügung, welches es erlaubte, in kurzer Zeit Abbildungen und Texte in bisher nicht geahnter Auflagenhöhe zu fertigen. Mit den Einblattdrucken wurde früh eine Form gefunden - der erste datierbare Einblattdruck ist ein Mainzer Ablaßbrief aus dem Jahre 1454 -, die es erlaubte, mit niedrigem Aufwand einen großen Personenkreis zu erreichen. Die inhaltliche Bandbreite dieser Sonderform des frühen Drucks war beträchtlich. Sowohl textliche als auch bildliche Elemente wurden genutzt, um Ablaßbriefe, Almanache, Lehr- und Mahnblätter sowie Wunderberichte, Sensationsmeldungen usw. zu gestalten. Auftraggeber dieser Blätter waren in der Regel kirchliche und weltliche Institutionen. Neben den bereits genannten Ablaßbriefen bildeten die sogenannten "Andachtsblätter" eine weitere wichtige Gruppe dieser Druckgattung. Nachweislich ist diese besondere Form der Gebets-Fokussierung bereits für das 14. Jahrhundert. Mit dem Aufkommen des Typendrucks setzte eine erste serielle Herstellung von Andachtsblättern ein. Speziell Blätter, welche die Seuchenabwehr thematisierten, wurden bald in großer Vielfalt verlegt. Der Schutz vor Pest und Syphilis nahm hierbei einen hohen Stellenwert ein.rnDas inhaltliche Spektrum dieser "Pestblätter" reichte von der einfachen Fürbitte um Interzession durch den jeweils angerufenen Krankheitspatron bis hin zu komplexen medizinisch, diätetischen Anweisungen in Bild und Text. Neben diesem eher anleitenden Charakter verband der mittelalterliche Mensch mit dieser Variante des Einblattdrucks auch die Funktion eines apotropäischen Talismans.rnAußer der Bedrohung durch Krankheiten sah sich die mittelalterliche Gesellschaft des 15. Jahrhunderts mit einer weiteren existentiellen Bedrohung konfrontiert - dem Krieg. Auch wenn die deutschen Territorien im 15. Jahrhundert weitgehend von großen kriegerischen Auseinandersetzungen verschont blieben, so reichte der sogenannte Schweizer- oder Schwabenkrieg sowie der Bayerisch-Pfälzische (oder Landshuter) Erbfolgekriege aus, die gravierenden Folgen der Kriegsführung für die zivile Gesellschaft vor Augen zu führen. Zu einer weiteren Steigerung der "Kriegsangst" führten die in diesem Zeitraum stattfindenden Auseinandersetzungen mit dem expandierenden Osmanischen Reich. Diese dezidierte Untersuchung der frühesten Einblattdrucke baut auf mehreren grundsätzlichen Fragestellungen auf: Wie, von wem, warum und wann wurden Einblattdrucke hergestellt? Wie und wo erfolgte die Verbreitung von Einblattdrucken? Wer erwarb wann Einblattdrucke und aus welcher Absicht heraus tat er dies? Diese recht komplexen Fragestellungen lassen sich auf drei Schlagworte reduzieren: »Produktion - Diffusion - Rezeption« Aus diesen drei Aspekten des "Lebenslaufes" eines Einblatts ergeben sich die zentralen Forschungsschwerpunkte dieses Projekts. Daher wird auch nach einer einführenden Begriffsdefinition des "Katastrophenblattes" das Hauptaugenmerk zunächst auf der Produktion dieser Druckgattung - den Einblattdrucken - liegen. Bei der anschließend untersuchten Diffusion ist von besonderem Interesse, an welchen Orten, zu welchem Zeitpunkt die Drucke vom Hersteller oder Auftraggeber in den Besitz des "Endverbrauchers" gelangten. Dieses Detail der Untersuchung ist auch daher von besonderer Bedeutung, da über die hier zu ermittelnden Ergebnisse eine Zuordnung erfolgen kann, in welchem gesellschaftlichen Umfeld die Blätter ihre Verwendung fanden. Der Kreis der Rezipienten schließlich ist in mehr als einer Beziehung für dieses Projekt von Bedeutung. Zunächst erlaubt die Kenntnis um ihren gesellschaftlichen Stand eine Einordnung in ein soziales Umfeld. Hieraus wiederum sind Rückschlüsse auf die Formen des Gebrauchs, in diesem Zusammenhang ist insbesondere die Lesefähigkeit von außerordentlicher Relevanz, der Einblattdrucke, welche Katastrophen thematisieren - möglich. Die somit gleichsam am Ende stehenden Gebrauchsformen - diese lassen sich nicht nur aus den Textinhalten der Blätter, sondern auch anhand von Benutzungsspuren, Fundorten usw. ermitteln - bieten Erkenntnisse, wie katastrophalen Ereignissen auf die spätmittelalterliche Gesellschaft einwirkten und welche Schlußfolgerungen diese daraus zog, um letztlich eine Antwort auf sie zu finden.
Die vorliegende Arbeit umfasst ein Modell der Zusammenhänge zwischen Führungsverhalten und psychologischen Kontrakten als Einflussfaktoren mitarbeiterbezogener Einstellungen. Auf Seiten der Konsequenzen liegt der Fokus insbesondere auf der Entgeltzufriedenheit der Mitarbeiter. Jede der drei in der Dissertation dargestellten Studien trägt zu dem Verständnis bei, wie sich das Führungsverhalten und psychologische Kontrakte auf die Entgeltzufriedenheit auswirken. Die erste Studie stellt den Zusammenhang zwischen transformationaler Führung und Arbeits- und Entgeltzufriedenheit sowie dem Commitment in den Vordergrund. Zusätzlich wird untersucht, inwiefern der Effekt des Führungsverhaltens durch verschiedene Formen des psychologischen Kontrakts vermittelt wird. Auf Basis dieser Ergebnisse wird in einer zweiten Studie geprüft, inwiefern Entgeltzufriedenheit als multidimensionales Konstrukt betrachtet werden kann. Ferner wird transformationales mit transaktionalem Führungsverhalten kontrastiert, um deren differentielle Effekte zu analysieren. In einer dritten Studie werden die kausalen Beziehungen fokussiert, indem eine Stichprobe von 169 Mitarbeitern aus acht caritativen Unternehmen, in denen leistungsabhängige Vergütungssysteme implementiert wurden, analysiert wird. Zusammenfassend zeigen die Ergebnisse, dass die perzeptuellen Variablen Führung und psychologische Kontrakte als entscheidende Einflussfaktoren der Entgeltzufriedenheit dienen. Eine Diskussion der theoretischen und praktischen Implikationen schließt die Arbeit ab.
The catechol-O-methyltransferase gene (COMT) plays a crucial role in the metabolism of catecholamines in the frontal cortex. A single nucleotide polymorphism (Val158Met SNP, rs4680) leads to either methionine (Met) or valine (Val) at codon 158, resulting in a three- to fourfold reduction in COMT activity. The aim of the present study was to assess the COMT Val158Met SNP as a risk factor for attention-deficit/hyperactivity disorder (ADHD), ADHD symptom severity and co-morbid conduct disorder (CD) in 166 children with ADHD. The main finding of the present study is that the Met allele of the COMT Val158Met SNP was associated with ADHD and increased ADHD symptom severity. No association with co-morbid CD was observed. In addition, ADHD symptom severity and early adverse familial environment were positive predictors of lifetime CD. These findings support previous results implicating COMT in ADHD symptom severity and early adverse familial environment as risk factors for co-morbid CD, emphasizing the need for early intervention to prevent aggressive and maladaptive behavior progressing into CD, reducing the overall severity of the disease burden in children with ADHD.
Quantitative Studien zur Plansprache Esperanto zu ausgewählten Fragestellungen der Phonologie, Morphologie, Syntax, Lexik, Semantik, Worthäufigkeit und - als Schwerpunkt - Wortbekanntheit wurden durchgeführt. Hauptergebnisse: Die Phonem-Häufigkeitsverteilung des Esperanto kann besonders gut mit dem Yule-Modell beschrieben werden; bei biphonematischer Wertung der Affrikaten ergibt sich eine etwas schlechere Anpassung als bei monophonematischer Wertung. Die Anwendung des klassifikatorischen Schlüssels von Altmann und Lehfeldt bestätigt die Meinung der meisten Autoren, wonach Esperanto agglutinierend mit einigen Merkmalen einer isolierenden Sprache ist. Die bei anderen Sprachen gefundene Gesetzmäßigkeit zwischen Lexermlänge und Polysemie gilt auch für Esperanto. Zur Untersuchung des Zusammenhangs zwischen Wortbekanntheit und Worthäufigkeit sowie zur Untersuchung der Selbsteinschätzung des eigenen Esperanto-Anwendungsvermögens durch seine Sprecher wurde das Verfahren der logistischen Regression (einschließlich statistischer Sicherheit) ausführlich dargestellt und als eine innovative Option auch zur Untersuchung analoger Fragestellungen angeboten. Zu den nachfolgend beschriebenen Haupthypothesen kann auf Grundlage der Untersuchung Folgendes ausgesagt werden (es sei angemerkt, dass die Haupthypothesen- (a) und (b) dabei ausschließlich für solche Esperanto-Sprecher gelten, die ihr Esperanto-Anwendungsvermögen als ausreichend gut einschätzen; die Haupthypothese- (c) gilt auch für solche Esperanto-Sprecher, die ihr Esperanto-Anwendungsvermögen als nicht ausreichend gut einschätzen): (a) Die Häufigkeit der zuverlässig bekannten Wörter entspricht der Häufigkeitsgruppe- 7 aus neun Häufigkeitsgruppen der von der Esperanto-Akademie entwickelten Statistik ("offizielle Basis-Wortwurzelsammlung", BRO; Häufigkeitsgruppe- 1: häufigste Wörter). (b)- Sei- A die Häufigkeit der Esperanto-Wörter, die Menschen mit einer Muttersprache aus dem romanischen oder germanischen Sprachzweig zuverlässig bekannt sind. Sei- B die Häufigkeit der Esperanto-Wörter, die Menschen mit Muttersprache Chinesisch, Japanisch oder aus der finno-ugrischen Sprachfamilie zuverlässig bekannt sind. Die Untersuchung zeigte: Zwischen A und B besteht kein signifikanter Unterschied. Das heißt: Die naheliegende Vermutung, dass Sprecher mit einer Muttersprache aus dem romanischen oder germanischen Sprachzweig (= Quelle der meisten Esperanto-Wörter) einen Vorteil haben und seltenere Esperanto-Wörter vergleichsweise besser kennen als Sprecher mit anderen Muttersprachen, wurde durch die vorliegende empirische Überprüfung nicht bestätigt. (c)- Bei einer statistischen Sicherheit von 95% ist die Selbsteinschätzung des eigenen Esperanto-Anwendungsvermögens durch seine Sprecher auch nach 100- Lernjahren nur 73%. Für eine zuverlässige Anwendbarkeit (also 90% bei 95%- statistischer Sicherheit) konnte keine Lernzeit ermittelt werden.
Diese Arbeit stellt eine Methodik zur Analyse kundenbezogener Arbeitsanforderungen personenbezogener Dienstleistungen am Beispiel der Verkäufertätigkeit im Einzelhandel vor. Eine Besonderheit der Arbeit ist die Einbeziehung des Kunden als Arbeitsanalytiker. Sie umfasst drei aufeinander aufbauende Studien. In der ersten Studie wurden mit Hilfe von Critical-Incident-Technique-Interviews mit Vorgesetzten (N = 35) und Verkäufern (N = 39) von drei Einzelhandelsvertriebsformen (Warenhaus, SB-Warenhaus, Supermarkt) sowie Kunden (N = 29) erfolgsrelevanten Verhaltensweisen von Verkäufern im Kontakt mit Kunden ermittelt. Darauf aufbauend wurde KAVEK V_VG/VK/K - ein Instrument zur Analyse kundenbezogener Arbeitsanforderungen und -aufgaben von Verkäufern im Einzelhandel " konzipiert und im Rahmen der zweiten Studie in den Stichproben der Vorgesetzten (N = 52), der Verkäufer (N = 157) und der Kunden (N= 511) der genannten Einzelhandelsvertriebsformen erprobt und validiert. Schließlich untersucht die dritte Studie Antezedenten kundenbezogener Arbeitsanforderungen sowie deren Effekte auf die arbeitsbezogenen Einstellungen und Befinden von Verkäufern (N = 155). Die Diskussion der Implikationen der Ergebnisse für die Forschung und Praxis schließt die Arbeit ab.
Theodor Fontanes Roman "Unwiederbringlich" ist - so die These dieser Arbeit - ein ganz im Zeichen von Memoria konzipiertes Werk. Fontane erzählt in seinen Geschichten auch immer Geschichte und der Umgang mit Vergangenheit und die Dialektik von Erinnerung und Vergessen spielen eine zentrale Rolle in seinen Texten und in besonderer Weise in Unwiederbringlich. Hier wird ein historischer Raum beschrieben, in dem die traditionellen Formen kultureller Erinnerung ihre Gültigkeit verlieren und die Auseinandersetzung mit kultureller und mit individueller Vergangenheit zunehmend problematisch erscheint. Memoria als identitätsstiftende Kraft konstituiert das Bewusstsein der Figuren in Unwiederbringlich. Das kulturelle Gedächtnis wird zur entscheidenden Handlungsmotivation. Dabei erfährt der Umgang mit Vergangenheit eine Subjektivierung und Perspektivierung durch die einzelnen Figuren und erfüllt nicht mehr die Funktion eines gemeinschaftsstiftenden Gedächtnisses, sondern verursacht gerade auch den Dissens der Figuren. Vor diesem Hintergrund bietet es sich an, Unwiederbringlich vor der Folie aktueller Memoria-Theoreme zu lesen, wie sie z.B. im New Historicism oder in der Diskussion um Archivprozesse thematisiert werden.
Die Verwendung von unbestimmten Rechtsbegriffen bereitet Schwierigkeiten bei der Anwendung und gefährdet die Rechtssicherheit. In vielen Rechtsnormen des Umweltrechts (u. a. UVPG) findet der unbestimmte Rechtsbegriff "voraussichtliche erhebliche Umweltauswirkungen" Verwendung. In dieser Arbeit wird ein Beitrag zur Konkretisierung dieses Begriffes im Rahmen der strategischen Umweltprüfung (SUP) geleistet. Dabei wird ein interdisziplinärer Forschungsansatz gewählt, der durch juristische, wie naturwissenschaftliche Methodik geprägt ist und dazu beiträgt das Schutzgut der Biodiversität genauer zu bestimmen. Dazu wird zunächst auf juristischer Ebene geprüft, ob aus dem UVPG sowie weiteren Rechtsnormen des Umweltrechts Informationen zur Konkretisierung dieses Begriffes zu gewinnen sind. Hiernach ergibt sich, dass der Erheblichkeitsbegriff insbesondere dazu dient, Bagatellfälle auszuklammern und Angleichungen zwischen den Rechtsnormen zu erreichen. Da die SUP seit 2005 geltendes Recht ist, ist es wichtig zu sehen, wie in der Gutachtenpraxis mit diesem unbestimmten Rechtsbegriff umgegangen wird. Daher sind vier Umweltberichte gemäß -§14g Satz 2 Nr.5 UVPG überprüft worden. Es stellte sich heraus, dass die Umweltberichte weder in der Lage sind die voraussichtlichen erheblichen Umweltauswirkungen zu Konkretisieren, noch wie es vom UVPG gemäß -§14g Satz 2 Nr.3 UVPG gefordert wird das Schutzgut der Biodiversität hinreichend darzustellen. Aus naturwissenschaftlicher Sicht wurden zunächst natürliche und anthropogene Auswirkungen auf die Biodiversität geprüft, um so die Faktoren zu ermitteln, die die Biodiversität besonders negativ zu beeinflussen vermögen. Demnach gilt es die Faktoren Habitatfragmentierung, Angleichungsprozesse (Biotic homogenization) und Intensität der Landnutzung im Rahmen der SUP frühzeitig zu vermeiden. Die "Convention of Biodiversity" zählt neben den Arten und Landschaften auch die genetische Ebene zum Begriff der Biodiversität. So ist es sinnvoll auch genetische Aspekte in die Schadensbewertung zu integrieren. Daher wurden in einer phylogeographischen Analyse die zwei Genorte Cytochrom Oxidase I und die Control Region der mtDNA des silbergrünen Bläuling, Polyommatus coridon (30 Populationen) untersucht. Es konnte gezeigt werden, dass genetische Analysen zwar wichtige Informationen für die Konkretisierung des unbestimmten Rechtsbegriffes liefern, aber dennoch mit Vorsicht diesbezüglich zu behandeln sind. Letztendlich stellte sich heraus, dass die Konkretisierung des unbestimmten Rechtbegriffes der voraussichtlichen erheblichen Umweltauswirkungen sich im Rahmen der strategischen Umweltprüfung mehr als schwierig und in Hinblick auf der Konzeption der SUP wenig sinnvoll erweist.
The reduction of information contained in model time series through the use of aggregating statistical performance measures is very high compared to the amount of information that one would like to draw from it for model identification and calibration purposes. It is readily known that this loss imposes important limitations on model identification and -diagnostics and thus constitutes an element of the overall model uncertainty as essentially different model realizations with almost identical performance measures (e.g. r-² or RMSE) can be generated. In three consecutive studies the present work proposes an alternative approach towards hydrological model evaluation based on the application of Self-Organizing Maps (SOM; Kohonen, 2001). The Self-Organizing Map is a type of artificial neural network and unsupervised learning algorithm that is used for clustering, visualization and abstraction of multidimensional data. It maps vectorial input data items with similar patterns onto contiguous locations of a discrete low-dimensional grid of neurons. The iterative training of the SOM causes the neurons to form a discrete, data-compressed representation of the high-dimensional input data. Using appropriate visualization techniques, information on distributions, patterns and relationships in complex data sets can be extracted. Irrespective of their potential, SOM applications have earned very little attention in hydrological modelling compared to other artificial neural network techniques. Therefore, the aim of the present work is to demonstrate that the application of Self-Organizing Maps has very high potential to address fundamental issues of model evaluation: It is shown that the clustering and classification of model time series by means of SOM can provide useful insights into model behaviour. In combination with the diagnostic properties of Signature Indices (Gupta et al., 2008; Yilmaz et al., 2008) SOM provides a novel tool for interpreting the model parameters in the hydrological context and identifying parameter sets that simultaneously meet multiple objectives, even if the corresponding model realizations belong to different models. Moreover, the presented studies and reviews also encourage further studies on the application of SOM in hydrological modelling.
This thesis presents a study of tsunami deposits created by the 2004 Indian Ocean tsunami at the Thai Andaman coast. The outcomes of a study are the characteristics of tsunami deposit for paleo-tsunami database, the identification of major sediment layers in tsunami deposit and the reconstructing tsunami run-ups from the characteristics of tsunami deposit for a coastal development program. The investigations of tsunami deposit are made almost 3 years after the event. Field investigations characterize the tsunami deposit as a distinct sediment layer variable in thickness of gray sand deposited with an erosional basis on a pre-existing soil. The best location for the observation of recent tsunami deposit is the area located about 50-200 m inland from the coastline. In most cases, the deposit layer is normally graded. In some cases, the deposit contains rip-up clasts of muddy soils and/or organic matters. The tsunami deposits are compared with three deposits from coastal sub-environments. The mean grain-size and standard deviation of deposits show that the shoreface deposits are fine to very fine sand, poorly to moderately well sorted; the swash zone deposits are coarse to fine sand, poorly to well sorted; the berm/dune deposits are medium to fine sand, poorly to well sorted; and the tsunami deposits are coarse to very fine sand, poorly to moderately well sorted. The plots of deposit mean grain-size versus sorting indicate that the tsunami deposits are composed of shoreface deposits, swash zone deposits and berm/dune deposits as well. The vertical variation of the texture of tsunami deposit shows that the mean grain-size fines upward and fining landward. The analysis and interpretation of the run-up numbers from the characteristics of tsunami deposits get three run-ups for the 2004 Indian Ocean tsunami at the Thai Andaman coast. It corresponds to field observations from the eye-witness reports and local people- affirmations. The total deposition is a major transportation pattern of onshore tsunami sediments. The sediments must fine in the direction of transport. In general, the major origins of the sediment are the swash zone and berm/dune zone where coarse to medium sand is a significant material, the minor origin of tsunami sediment is a shoreface where a significant material is fine to very fine sand. Only at an area with flat slope shorface, the major origin of tsunami sediment is the shoreface. The thicknesses, the mean grain-sizes, and the standard deviations of tsunami deposits are used to evaluate the influences of coastal morphology on the sediment characteristics. The evaluations show that the tsunami affected areas were attacked by the variable energy waves. Wave energies at the direct tsunami wave affected areas are higher than at the indirect tsunami wave affected areas. Tsunami wave energy is highly dissipated at an area with steep slope shoreface. In the same way, tsunami run-up energy is highly dissipated at an area with steep slope onshore. A channel paralleled to the coastline decreases the run-up velocity, slightly dissipates run-up energy. The road and pond highly influence the characteristics of tsunami deposit and tsunami run-up. A road obstructs the run-up velocity, dissipates run-up energy. A pond decreases run-up velocity, dissipates run-up energy. The characteristics of tsunami deposit can be interpreted for reconstructing the characteristics of tsunami run-up such as a run-up height and a flow velocity. Soulsby et al.(2007)- model is applied for reconstructing tsunami run-up at the study areas. The input parameters are sediment grain-size and sediment inundation distance. Ao Kheuy beach and Khuk Khak beach, Phang Nga province, Thailand are the areas listed for reconstructing tsunami run-up. The evaluated run-up heights are 4.2-4.9 m at Ao Kheuy beach, and 5.4-9.4 m at Khuk Khak beach. The evaluated run-up velocities are 12.8-19.2 m/s (maximum) and 0.2-1.9 m/s (mean) at the coastline and onshore, respectively. Hence, a reasonably good agreement between the evaluated and observed run-up is found. Tsunami run-up height and velocity can be used for coastal development and risk management in the tsunami affected areas. The case studies from the Thai Andaman coast suggest that in the area from coastline to about 70-140 m inland was flooded by the high velocity (high energy) run-ups, and those run-up energies were dissipated there. That area ought to be a non-residential area or a physical protection construction area (flood barrier, forest planting, etc.).
Der Radtourismus hat in den letzten 15 bis 20 Jahren eine dynamische Entwicklung genommen, die ihn zu einer wichtigen Tourismusart für viele Regionen in vor allem ländlich geprägten Regionen werden ließ. Die Konsequenz war und ist ein erheblicher Ausbau der radtouristischen Infrastruktur, die hauptsächlich aus öffentlichen Mitteln finanziert wurde. Die radtouristische Nachfrage umfasst in Deutschland - je nach zu Grunde gelegten Daten - zwischen 4,2 und 7,9 Mio. Bundesbürger. Dabei ist die Entwicklung dieser Nachfrage in den letzten Jahren eher stagnierend verlaufen, trotzdem steht ihr ein weiter wachsendes radtouristisches Angebot gegenüber. Die Frage, ob sich diese Investitionen über die durch den Radtourismus ausgelösten regionalwirtschaftlichen Effekte bezahlt machen, steht im Zentrum dieser Arbeit und wurde mit Hilfe einer empirischen Erhebung untersucht. Für das Bundesland Rheinland-Pfalz insgesamt konnte eine Spannweite von 4,2 bis 7,7 Mio. Radtouristen pro Jahr ermittelt werden, wovon zwischen 2,9 und 6,0 Mio. Tagesgäste sind. Auf Grund der während der Radurlaube getätigten Ausgaben lassen sich die durch den Radtourismus induzierten regionalwirtschaftlichen Effekte in einer Größenordnung von 275 Mio. € bis 327 Mio. € bestimmen, was rund 10% der gesamttouristischen Wertschöpfung in Rheinland-Pfalz entspricht. Werden die Investitionskosten für die vier untersuchten Radwege " Mosel-Radweg, Nahe-Radweg, Maare-Mosel-Radweg und Kraut und Rüben-Radweg " der jährlich auf diesen Wegen erzielten Wertschöpfung in Höhe von ca. 62 Mio. € gegenübergestellt, muss festgestellt werden, dass sich die Investitionen schon nach kurzer Zeit über die positiven, indirekten wirtschaftlichen Effekte in den Regionen bezahlt gemacht haben. Insgesamt gesehen stellt sich somit der Radtourismus als attraktives, wirtschaftlich tragfähiges touristisches Segment dar, welches in der Lage ist, auch in peripheren Regionen touristische Wertschöpfung zu erzeugen. Voraussetzung hierfür ist aber die Beachtung der dargestellten Anforderungen, welche die Nachfrage an das Produkt Radtourismus stellt und die Einhaltung von verschiedenen Qualitätsanforderungen. Erst wenn Radtourismus als Qualitätsprodukt verstanden wird, hinter dem auch die touristischen Leistungsträger einer Region stehen, kann Radtourismus zu einem wichtigen Wirtschaftsfaktor innerhalb einer Region entwickelt werden.
During and after application, pesticides enter the atmosphere by volatilisation and by wind erosion of particles on which the pesticide is sorbed. Measurements at application sites revealed that sometimes more than half of the amount applied is lost into the atmosphere within a few days. The atmosphere is an important part of the hydrologic cycle that can transport pesticides from their point of application and deposit them into aquatic and terrestrial ecosystems far from their point of use. In the region of Trier pesticides are widely used. In order to protect crops from pests and increase crop yields in the viniculture, six to eight pesticide applications take place between May and August. The impact that these applications have on the environmental pollution of the region is not yet well understood. The present study was developed to characterize the atmospheric presence, temporal patterns, transport and deposition of a variety of pesticides in the atmosphere of the area of Trier. To this purpose, rain samples were weekly collected at eight sites during the growing seasons 2000, 2001 and 2002, and air samples (gas and particle phases) were collected during the growing season 2002. Multiresidue analysis methods were developed to determine multiple classes of pesticides in rain water, particle- and gas-phase samples. Altogether 24 active ingredients and 3 metabolites were chosen as representative substances, focussing mainly on fungicides. Twenty-four of the 27 measured pesticides were detected in the rain samples; seventeen pesticides were detected in the air samples. The most frequently detected pesticides and at the highest concentrations, both in rain and air, were compounds belonging to the class of fungicides. The insecticide methyl parathion was also detected in several rain samples as well as two substances that are banned in Germany, such as the herbicides atrazine and simazine. Concentration levels varied during the growing season with the highest concentrations being measured in the late spring and summer months, coinciding with application times and warmer months. Concentration levels measured in the rain samples were, generally, in the order of rnng l-1. Though average concentrations for single substances were less than 100 ng l-1, total concentrations were considerable and in some instances well above the EU drinking water quality standard of 500 ng l-1 for total pesticides. Compared to the amounts applied for pest control, the amounts deposited by rain resulted between 0,004% and 0,10% of the maximum application rates. These low pesticide inputs from precipitation to surface-water bodies is not of concern in vinicultural areas where the impact of other sources, such as superficial runoff inputs from the treated areas and cleaning of field crop sprayers, is more important. However, the potential impacts of these aerial pesticide inputs to non-target sites, such as organic crops, and sensitive ecosystems are as yet not known. Concentration levels in the air samples were in the order of ng m-3 at sites close to the fields were pesticides were applied, while lower values, in the order of pg m-3, were detected at the site located further away from fields where applications were performed. The measured air concentration levels found in this study do not represent a concern for human health in terms of acute risk. Inhalation toxicity studies have shown that an acute potential risk only arises at air concentrations in the range of g m-3. Finally, it must be kept in mind that only a small number of chemicals that were applied in the area were analysed for in this study. In order to gain a better evaluation of the local atmospheric load of pesticides, a wider spectrum of applied substances (including metabolites) needs to be investigated.
Ziel der durchgeführten Arbeit war mittels einer geophysikalischen Untersuchungsmethode die Wasserverteilung in Deponien nach einer Infiltration zu beobachten. Für den Nachweis der Wasserverteilung unterhalb von Infiltrationsstellen wurde die geoelektrische Impedanztomografie eingesetzt. Um das Messverfahren auf seine Eignung zur Detektierung der Infiltrationsauswirkungen in der Deponie zu überprüfen, wurde ein mehrjähriges Untersuchungsprogramm durchgeführt. Dabei hat sich herausgestellt, dass Deponiesickerwasser eine Verringerung des spezifischen Widerstandes im Untersuchungsgebiet verursacht und dieser Tatbestand vom Messsystem gut detektiert wird. Durch das Aufreihen der Ergebnisse als Tomogrammsequenzen wurden die Infiltrationsauswirkungen unterhalb der Infiltrationsstelle visualisiert. Anhand der entstandenen Tomogrammsequenzen und aufgestellten Modellbetrachtungen werden die Einschränkungen und Rahmenbedingungen des eigens dafür entwickelten Darstellungs- und Auswertungsalgorithmus der Arbeit erörtert.
Der Forschungsbereich der Systembiologie hat sich in den letzten Jahren mit unvergleichlicher Dynamik entwickelt und sich als interdisziplinäres Feld in den Biowissenschaften etabliert. Die Systembiologie verfolgt hierbei unter anderem das Ziel, biologische Systeme als Ganzes zu betrachten. Die analytische Erfassung der Stoffwechselzwischenprodukte, auch Metaboliten genannt, eröffnet hierbei neue Möglichkeiten. Metaboliten stellen Zwischenprodukte in vivo ablaufender biochemischer Reaktionen dar und stehen in enger Abhängigkeit zu Vorgängen, welche auf der Ebene von Transkriptom und Proteom gesteuert und ermöglicht werden. In dieser Arbeit wurden Zeitreihen von Metabolitkonzentrationen untersucht, welche im Rahmen von Fermentationsexperimenten mit dem nicht-pathogenen Bodenbakterium Corynebacterium glutamicum erfasst worden sind. Die Fermentationsexperimente wurden auf unterschiedlichen Ausgangssubstraten durchgeführt, wobei die Erfassung der Metabolitkonzentration in äquidistanten zeitlichen Abständen gehandhabt wurde. Zur Korrektur von Messfehlern und zur optimalen Vorverarbeitung der Daten wurde ein maßgeschneidertes System der Datenprozessierung entwickelt. Eine unüberwachte Datenstrukturanalyse ergab, dass sich die Metaboliten ihrer zeitlichen Ausprägung nicht uniform oder gar zufällig verhalten, sondern sich in Gruppen unterschiedlichen Prozessverhaltens einordnen lassen. Diese unüberwachte Eingruppierung anhand der in den Zeitreihen vorhandenen Strukturen erlaubte eine erste grundlegende funktionelle Zuordnung der Metaboliten. Weiterhin konnten in den Konzentrationsdaten Strukturen gefunden werden, welche deutliche Übereinstimmungen mit den physiologischen Phasen des bakteriellen Wachstums zeigten. Die Analyse der Metabolomdaten wurde in einem nächsten Schritt durch eine theoretische Betrachtungsweise erweitert. Hierzu wurde der Stoffwechsel von C. glutamicum rechnergestützt modelliert. Zu diesem Zweck wurde eine Genomannotation durchgeführt, mit dem Ziel einen möglichst umfangreichen und qualitativ hochwertigen Katalog über das enzymatische Repertoire von C. glutamicum aus Sequenzinformation abzuleiten. Generiertes Wissen über vorhandene Enzyme wurde in biochemische Reaktionen übersetzt, welche zu Reaktionsnetzwerken zusammengefügt wurden. Die erzeugten Reaktionsnetzwerke wurden unter Verwendung graphentheoretischer Ansätze analysiert. Die integrative Analyse experimenteller und theoretischer Daten ergab, dass sich Eigenschaften von Metabolitzeitreihen deutlich topologischen Merkmalen zuordnen lassen. So zeigt sich beispielsweise, dass ein auffälliger Zusammenhang zwischen der experimentell erfassten Sensitivität im Konzentrationsverlauf eines Metaboliten und seinem theoretischen Verknüpfungsgrad existiert. Weiterhin konnte gezeigt werden, dass eine hochsignifikante Prozessähnlichkeit zwischen Metaboliten sowohl in direkter Nachbarschaft als auch in größeren Reaktionsabständen auftreten kann, jedoch vorzugsweise dann existiert, wenn beide Metaboliten ihrerseits wenige Reaktionspartner haben. Die integrative Datenanalyse wurde in einem weiteren Schritt abermals erweitert, indem Transkriptominformation weiterer Studien integriert wurde. Im Detail wurde in dieser Analyse die Prozessähnlichkeit theoretisch benachbarter Metaboliten des Zentralstoffwechsels in Zusammenschau mit der Transkription enzymkodierender Gene untersucht. Die Ergebnisse zeigten deutlich, dass eine erhöhte Prozessähnlichkeit benachbarter Metaboliten dann existiert, wenn die entsprechenden enzymkodierenden Gene in Abhängigkeit des verwendeten Ausgangssubstrates signifikant exprimiert waren. Somit konnte ein Zusammenhang zwischen der Prozessähnlichkeit benachbarter Metaboliten in Abhängigkeit zur Genexpression als Resultat substratinduzierter Anpassungsvorgänge gezeigt werden. Es konnte folglich im systembiologischen Kontext belegt werden, dass auf der Ebene des Transkriptoms stattfindende Vorgänge sich deutlich bis in die Zeitreiheneigenschaften erfasster Metabolitkonzentrationen durchpausen können. Darüber hinaus zeigte sich, dass die Berechnung paarweiser Prozessähnlichkeiten das Potenzial zur Charakterisierung der zugrundeliegenden Systemeigenschaften besitzt. So ermöglichte die Betrachtung paarweiser Prozessähnlichkeiten aus allen untersuchten Fermentationsexperimenten, signifikante substrat-induzierte Veränderungen als auch invariante Merkmale im Stoffwechsel von C. glutamicum zu detektieren.
Die Fauna-Flora-Habitat-Richtlinie (Richtlinie 92/43/EWG) stellt derzeit das umfangreichste Instrument des internationalen Naturschutzes zur Erhaltung der europäischen Biodiversität dar. Das Grundkonzept der FFH-RL beruht hierbei sowohl auf dem Schutz gefährdeter Arten als auch auf dem Erhalt natürlicher Lebensräume. Dieser ganzheitliche Ansatz verursacht jedoch infolge der großen Anzahl zu berücksichtigender Schutzgüter einen hohen personellen wie finanziellen Aufwand bei der Umsetzung der Richtlinienvorgaben. Daher wurde in der vorliegenden Arbeit am Beispiel der Schmetterlingsart Euphydryas aurinia (Anhang II FFH-RL) überprüft, inwieweit die Konzepte von ESUs (Evolutionarily Significant Units) und MUs (Management Units) geeignete Möglichkeiten bieten, um die Prioritätensetzung bei der Auswahl besonders schützenswerter Vorkommen gefährdeter Arten zu erleichtern. Zu diesem Zweck wurden mit drei verschiedenen Subspezies von E. aurinia (E. aurinia beckeri, E. aurinia debilis, E. aurinia aurinia) Fang-Markierung-Wiederfangstudien durchgeführt, sowie mit Hilfe von Allozym-Elektrophoresen populationsgenetische Parametern in europäischem Kontext und auf regionaler Ebene (Westtschechien) erfasst. Die drei untersuchten Subspezies zeigten hierbei spezifische ökologische Adaptationen an die jeweiligen Habitatbedingungen (z.B. bzgl. der Populationsdichte, Demographie und Mobilität). Ferner wiesen die genetischen Analysen starke Differenzierungen bei E. aurinia in Europa nach, die u.a. Antworten auf phylogeographische und taxonomische Fragestellungen ermöglichen. Auch auf regionaler Ebene (Westtschechien) konnten genetische Differenzierungen festgestellt werden. Auf Basis der erhobenen populationsökologischen und -genetischen Daten wird abschließend die generelle Anwendbarkeit und der Nutzen der Konzepte von ESUs und MUs bei der Etablierung von Schutzkonzepten für E. aurinia und andere Arten der FFH-RL diskutiert. rnDer zweite Teil der vorliegenden Arbeit beschäftigt sich exemplarisch mit dem aktuellen Schutzverfahren für deutsche E. aurinia-Vorkommen im Rahmen der FFH-RL und den damit verbundenen Problemen. Der Schwerpunkt lag hierbei auf der Schutzgebietsauswahl, dem Monitoring und dem Gebietsmanagement. In diesem Kontext werden u.a. Problematiken angesprochen, die sich aus der großen ökologischen Variabilität der Art ergeben bzw. die aufgrund von Koordinierungsschwierigkeiten zwischen einzelnen Bundesländern bestehen. Vor dem Hintergrund dieser Erkenntnisse werden Lösungsvorschläge unterbreitet, wie das aktuelle Schutzverfahren für E. aurinia in Deutschland weiter verbessert werden könnte.
Studienförderung in der Frühen Neuzeit. Das Luzerner Stipendienwesen in den Jahren 1550 bis 1650
(2008)
Anhand von Ratsprotokolle, Korrespondenzen und Testamenten wurde das Luzerner Stipendienwesen hinsichtlich seiner Funktionsweise, Intension und Wirkung untersucht für den Zeitraum 1550 bis 1650.Es stellt sich heraus, dass die Stipendien als obrigkeitliches Instrument der politischen und konfessionellen Stabilisierung des Standes Luzern dienten. Dabei erhielten in erster Linie die Söhne der Ratsherrengeschlechter die Studienförderung. D.h., dass eine Bildungsförderung eher armer Gesellschaftsschichten dem Anliegen der Statussicherung der neuen Luzerner Ratsgeschlechter entgegen stand. Dennoch wurden die obrigkeitlichen Stipendien nicht effektiv genutzt, wobei sie in Verbindung mit den (kirchlich-)privaten Studienstiftungen ein aufeinander aufbauendes Stipendiensystem ausbildeten, das die Grundausbildung und die Hochschulbildung zu mindest für einige Stipendiaten ermöglichte.
Der Beitrag setzt sich mit der Frage auseinander, ob die Todesstrafe eine rechtlich begründbare Strafe darstellt, bzw. aus welchen Gründen ihre Abschaffung im Rechtsstaat erforderlich ist. Dabei unterwirft die Autorin die Todesstrafe einer Überprüfung von einem fundamentalen Verständnis des Rechts aus, wobei sowohl empirische als auch pragmatische Gesichtspunkte in eine Gesamtbetrachtung einfließen. Weiter wird die Vollstreckung bzw. die Aussetzung der Vollstreckung der Todesstrafe erörtert. Die Rechtslagen in Korea sowie seinen Nachbarländern Japan und China, zwischen denen aufgrund der geographischen Lage und zum Teil gemeinsamen kulturellen, sowie rechtshistorischen Wurzeln, Wechselwirkungen bestehen, werden aufgezeigt und einer vergleichenden Betrachtung unterzogen.
Germany as law-exporting nation is a worldwide role model especially for its criminal law and criminal procedure law which has influenced several East Asian countries. The author offers a short historical overview on the establishment of the rule of law in Germany. He describes the role of the German Federal Constitution as source of criminal procedure law by referring to fundamental constitutional principles as well as giving specific case examples. The second part of the essay focuses on the relevance and application of the European Convention on Human Rights. The author points out basic principles of the European Convention on Human Rights and illustrates its influence on German legal practice.
Das israelische Religionsrecht ist gegenwärtig trotz des jüdischen Charakters des Staates Israel grundsätzlich als System der Trennung von Staat und Religion bei gleichzeitiger Kooperation des Staates mit den Religionen beziehungsweise Religionsgemeinschaften zu charakterisieren. Mit Blick auf den aktuellen Verfassungsentwurf des israelischen Parlaments stellt sich die Frage, welche Konsequenzen seine Annahme für das Religionsrecht haben würde: Würde Israel Züge eines religiösen Staates annehmen, oder bildet das Regelungswerk lediglich den Ist-Zustand ab? Die Beantwortung dieser Frage hängt zum einen von dem Charakter der neuen Regelungen ab, die der Entwurf enthält, und zum anderen davon, ob die bestehende Rechtssubstanz durch die Transponierung in eine formelle Verfassung ihr Wesen verändern würde.
Die Renaissance und die frühe Neuzeit sind entscheidende Phasen für die Entstehung der modernen Naturwissenschaften " und weisen gleichzeitig Merkmale auf, die zunächst ganz und gar nicht wissenschaftlich erscheinen. Dies gilt insbesondere für die Weltbilder, denen die Forscher dieser Zeit verhaftet waren und für die Methoden, mit denen sie zu wissenschaftlichen Erkenntnissen gelangten. Nachvollziehen lässt sich dieser Befund bei Paracelsus, Robert Boyle und Isaac Newton. Sie alle haben die Wissenschaft vorangetrieben und ihr zu neuen Einsichten verholfen. Ihre Vorgehensweise war dabei weder einheitlich noch im heutigen Sinne streng wissenschaftlich " es genügt zu sagen, dass alle drei sich ernsthaft mit der Alchemie beschäftigt haben. Der Alchemie liegt eine ganz andere Weltanschauung zugrunde als der sich entwickelnden modernen Naturwissenschaft: Magische Wechselwirkungen, Entsprechungen und Ähnlichkeiten sowie Kräfte wie Sympathien und Antipathien sind unumstrittene Grundelemente. Das Weltbild der modernen Naturwissenschaften wird dagegen zunehmend mechanisiert und quantifiziert " mit dem Ziel, alles auf rein mechanische Wechselwirkungen zwischen den atomaren Bausteinen der Materie zu reduzieren. Die naturwissenschaftlichen Erklärungen und Hypothesen, die innerhalb dieser beiden unterschiedlichen Weltbilder entstanden sind, waren demzufolge grundsätzlich voneinander verschieden. Gleiches gilt für die Methoden, die jeweils als adäquate Mittel des Erkenntniserwerbs akzeptiert wurden. Die Beurteilung von Forschern, die sich mit Alchemie beschäftigt haben, ist daher nicht immer einfach. Gerade das Verhältnis von alchemistischer und anerkannt wissenschaftlicher Forschung verlangt eine differenzierte Untersuchung. Wie kann man sowohl Newtons Interesse für Alchemie als auch seinen quantitativ-mathematischen Erkenntnissen Rechnung tragen und dennoch zu einem einheitlichen Bild kommen? Müssen beide Bereiche getrennt betrachtet werden " und damit eindeutig in "wissenschaftlich" und "unwissenschaftlich" geschieden werden " oder kann es sein, dass sich beides gegenseitig befruchtet hat? Die vorliegende Dissertation versucht zu zeigen, dass der eigentümliche weltanschauliche und methodologische Pluralismus der Renaissance und der frühen Neuzeit die Wissenschaft in vieler Hinsicht bereichert hat. So verschieden die zur Debatte stehenden Weltbilder waren, so reich war auch das Repertoire an unterschiedlichen Erfahrungstatsachen, Erklärungsmustern, theoretischen Begriffen und wissenschaftlichen Methoden, das sie zur Verfügung stellten. In diesem Sinne lässt sich feststellen, dass Paracelsus, Boyle und Newton nicht wissenschaftliche Erfolge erzielten, obwohl sie Alchemisten waren, sondern auch weil sie es waren.
Wenn eine stets von Null verschiedene Nullfolge h_n gegeben ist, dann existieren nach einem Satz von Marcinkiewicz stetige Funktionen f vom Intervall [0,1] in die reelle Achse, die in dem Sinne maximal nicht differenzierbar sind, dass zu jeder messbaren Funktion g ein Teilfolge n_k existiert, so dass (f(x+h_n_k)-f(x))/h_n_k fast sicher gegen g konvergiert. Im ersten Teil dieser Arbeit beweisen wir Erweiterungen dieses Satzes im Mehrdimensionalen und Analoga für Funktionen in der komplexen Ebene. Der zweite Teil dieser Arbeit befasst sich mit Operatoren die in enger Beziehung zum Satz von Korovkin über positive lineare Operatoren stehen. Wir zeigen, dass es Operatoren L_n gibt, die jeweils eine der Eigenschaften aus dem Satz von Korovkin nicht erfüllen und gleichzeitig eine residuale Menge von Funktionen f existiert, so dass L_nf nicht nur nicht gegen f konvergiert, sondern sogar dicht im Raum aller stetigen Funktionen des Intervalls [0,1] ist. Ähnliche Phänomene werden bei polynomieller Interpolation untersucht.
In diesem Band sind einige der Beiträge zusammengefasst, die im Rahmen und in der Folge der chinesisch-deutschen Fachkonferenz zu Aspekten der Studienvorbereitung und Studienbegleitung entstanden sind, die vom 21. bis 22. Mai 2007 mit Unterstützung des Deutschen Akademischen Austauschdienstes (DAAD) am Deutschkolleg - Zentrum zur Studienvorbereitung der Tongji-Universität in Shanghai veranstaltet wurde. Schwerpunkte bilden die Bereiche: Wissenschaftskommunikation, Interkulturelle Kommunikation / Landeskundekonzepte und " als Ausblick " Fachsprache. Der Band enthält Beiträge von: Gutjahr, Jacqueline / Yu, Xuemei (S. 1-4 = Dokument 1); Gutjahr, Jacqueline / Porsche, Sabine / Yu, Xuemei (S. 5-22 = Dokument 2); Bärenfänger, Olaf (S. 23-43 = Dokument 3); Li, Yuan (S. 44-56 = Dokument 4); Yu, Xuemei (S. 57-67 = Dokument 5); Burkhardt, Armin (S. 68-87 = Dokument 6); Dahlhaus, Barbara (S. 88-106 = Dokument 7); Freudenberg-Findeisen, Renate / Schröder, Jörg (S. 107-134 = Dokument 8); Dege, Christopher P. / Timmermann, Waltraud (S. 135-151 = Dokument 9); Brandl, Heike (S. 152-167 = Dokument 10) und Liu, Fang (S. 168-178 = Dokument 11).
In this thesis, we investigate the quantization problem of Gaussian measures on Banach spaces by means of constructive methods. That is, for a random variable X and a natural number N, we are searching for those N elements in the underlying Banach space which give the best approximation to X in the average sense. We particularly focus on centered Gaussians on the space of continuous functions on [0,1] equipped with the supremum-norm, since in that case all known methods failed to achieve the optimal quantization rate for important Gauss-processes. In fact, by means of Spline-approximations and a scheme based on the Best-Approximations in the sense of the Kolmogorov n-width we were able to attain the optimal rate of convergence to zero for these quantization problems. Moreover, we established a new upper bound for the quantization error, which is based on a very simple criterion, the modulus of smoothness of the covariance function. Finally, we explicitly constructed those quantizers numerically.
Der erste Band der im Auftrag des Historisch-Kulturwissenschaftlichen Forschungszentrums (HKFZ) Mainz-Trier herausgegebenen Reihe "e-Beiträge zu den Historischen Kulturwissenschaften" präsentiert die Ergebnisse der Mainzer Tagung "Wissen und Raumgenese". Die Beiträge behandeln den zentralen Forschungsgegenstand "Räume des Wissens" mit unterschiedlicher Schwerpunktsetzung und gewähren Einblicke in die interdisziplinäre Projektarbeit des Forschungszentrums. Inhaltsverzeichnis EMBACH, Michael / RAPP, Andrea: Neue Tendenzen der Handschriften- und Bibliotheksforschung " Ergebnisse des Trierer Workshops ... Seite 4 SCHMID, Wolfgang: Mittelalterliche Kathedralen als Kommunikations- und Wissensräume ... Seite 10 DREYER, Mechthild: Räume des Wissens " integriert oder ausgegrenzt? ... Seite 16 TODT, Klaus-Peter: Venedig und Kreta als Räume des Wissens über Byzanz und die orthodoxe Christenheit im 14. und 15. Jahrhundert ... Seite 24 VOLLET, Matthias / ALTHOFF, Jochen: Räume des Wissbaren in der Philosophie der Antike. Räume des Wissens und des Wissbaren bei Platon und Aristoteles ... Seite 34
Das Motiv "Wasser" in der Kunst " unter Berücksichtigung der Werke Bill Violas und Fabrizio Plessis
(2008)
Wasser ist ein beliebtes Motiv in allen Kunstepochen. Der Grund für die Beliebtheit des Wassers als Sujet bei Künstlerinnen und Künstlern liegt einerseits an seiner existenziellen und kulturellen Bedeutung für das menschliche Leben und andererseits an seinen physikalischen Eigenschaften mit den daraus resultierenden vielfältigen gestalterischen Möglichkeiten. Auch in der Videokunst wird es häufig als Gegenstand aufgegriffen. Insbesondere Bill Viola (1952, USA), der tief von der östlichen Philosophie beeinflusst ist, und Fabrizio Plessi (1940, Italien) stellen in ihren Werken ein je besonderes Verhältnis zwischen Video und Wasser dar. Die vorliegende Arbeit befasst sich zunächst mit einer vergleichenden Be-trachtung der Bedeutung des Wassers in der westlichen und östlichen Kultur und einem Überblick über das Motiv in der Kunst vom Mittelalter bis zum 20. Jahrhundert. Im Mittelpunkt dieser Arbeit steht die Untersuchung der Videoskulpturen, Videoinstallationen und Videobänder Bill Violas und Fabrizio Plessis. Erörtert werden folgende Fragen: In welcher Weise hat das Wasser ästhetische, formale, inhaltliche oder symbolische sowie persönliche Bedeutung für die einzelnen Künstler? Auf welche Art haben sie ihre Vorstellungen in die Arbeiten umgesetzt? Wie weit wird dieses tradierte Thema und in welcher Form wird das natürliche Element in der Videokunst durch das moderne, technische Medium wieder aufgegriffen, weiter entwickelt oder modifiziert? Aus diesen Beobachtungen heraus zeigt die Autorin die Charakteristika der mit technischen Medien produzierten Kunstwerke der besprochenen Künstler bei der Verwendung des Motivs Wasser auf.
Nach getroffenen Entscheidungen werden gewählte Alternativen typischerweise aufgewertet, abgewählte Alternativen werden abgewertet (spreading apart of alternatives). Die vorliegende Arbeit ordnet solche tendenziösen Umwertungen in einen handlungstheoretischen Zusammenhang ein und untersucht vor diesem Hintergrund mögliche Bedingungen solcher Umwertungen. Ausgangspunkt der Überlegungen ist das Assimilations-Akkommodations-Modell von Brandtstädter. Demnach sind die beschriebenen Umwertungen Ausdruck eines akkommodativen Modus der Zielablösung und sollten zum einen von der Irreversibilität der Entscheidung abhängen, zum anderen von zwei dispositionellen Faktoren, die die Stärke akkommodativer Prozesse bestimmen (Flexibilität der Zielanpassung, Hartnäckigkeit der Zielverfolgung). Drei Studien bestätigen die Vorhersagen des Assimilations-Akkommodations-Modells und geben zudem Hinweise auf vermittelnde Prozesse der Umwertung von Alternativen. So scheinen insbesondere solche Attribute aufgewertet zu werden, deren Zutreffen bei der betreffenden Alternative subjektiv nicht abzuleugnen ist. Die individuelle Ausprägung solcher selektiven Umwertungen wird in einem Anpassungsindex (AI) abgebildet. Abschließend wird der empirische Befund diskutiert und auf die Frage der Rationalität der gefundenen Umwertungen eingegangen.
The aim of the thesis was to investigate the role of the immune system in fibromyalgia (FM), as part of a dynamic co-regulation between different bodily systems. FM is a chronic musculoskeletal disorder characterized by widespread pain and specific tender points, combined with other symptoms including fatigue, sleep disturbances, morning stiffness and anxiety. The main goal of the work was to identify possible dysregulation of peripheral immune and endocrine parameters in patients with FM compared to matched healthy controls. Moreover, the possible relation between symptom complaints and the specific parameters measured was also evaluated. A first approach was to investigate possible differences between FM patients and controls in the expression of cytokines, as they have been implicated in the occurrence of several of the symptoms associated with FM. Furthermore, adhesion molecules which are involved in cell-to-cell communication and immune cell trafficking were also studied. The latter are known to be regulated by both cytokines and glucocorticoids (GCs) and their expression is often found altered in patients with immune dysregulation. It was expected that subjects with FM would have an increased production of proinflammatory cytokines and/or a reduced antiinflammatory cytokine production and that certain cytokines and/or adhesion molecules would be differently regulated by dexamethasone (DEX). Unstimulated blood was used in the analysis of adhesion molecule expression by flow cytometry while stimulated whole blood cell cultures were used in cytokine flow cytometry assays. Peripheral blood mononuclear cells (PBMCs) were also cultured and the supernatants collected to determine the concentration of cytokines by biochip protein array. In addition, serum samples were used in enzyme-linked immunosorbent assays (ELISA) for quantification of soluble adhesion molecules. L-selectin was found elevated on monocytes and neutrophils of FM patients. A bias toward lower IL-4 levels was observed in FM patients. Based on studies showing differences in glucocorticoid receptor (GR) affinity and disturbances associated with loss of hypothalamic-pituitary-adrenal (HPA) axis resiliency in FM, it was hypothesized whether FM would be associated with abnormalities in glucocorticoid sensitivity. Total plasma cortisol and salivary free cortisol were quantified by ELISA and time-resolved fluorescence immunoassay, respectively. GR sensitivity through DEX inhibition of IL-6, in stimulated whole blood, was evaluated after cytokine quantification by ELISA. The corticosteroid receptors, GR alpha and mineralocorticoid receptor (MR), as well as the glucocorticoid-induced leucine zipper (GILZ) and the FK506 binding protein 5 mRNA expression were assessed in PBMCs by real-time reverse transcription-polymerase chain reaction (RT-PCR). Furthermore, sequencing of RT-PCR products and/or genomic DNA was used for mutational analysis of the corticosteroid receptors. We observed lower basal plasma cortisol levels (borderline statistical significance) and a lower expression of corticosteroid receptors and GILZ in FM patients when compared to healthy controls. The minor allele of the MR single nucleotide polymorphism (SNP) rs5522 was found more often in FM patients than in controls. In addition, female carriers of this SNP seemed to have reduced salivary cortisol responses to a strong psychological stressor (Trier Social Stress Test) compared to non-carriers. FM patient carriers of an MR intronic SNP (rs17484245), before exon 3, were associated with significantly higher scores of depression symptoms compared to patient non-carriers. The thesis includes also a comprehensive analysis of the complexity of GR regulation and the role of alternative mRNA splicing. It focuses on the differential expression of the untranslated GR first exons, their high sequence homology among different species and how genetic determinants, without apparent relevance, may have implications in health and disease. In FM patients, GR exon 1-C expression was found lower and a significant difference was observed when comparing GR 1-C expression between antidepressant-free and patients who had taken antidepressants until two weeks before sample collection. In summary, the study shows a slight disturbance of some components of the innate immune system of FM patients and suggests an enhanced adhesion and possible recruitment of leukocytes to inflammatory sites. The reduced expression of corticosteroid receptors and possibly the reduced MR function may be associated with an impaired function of the HPA axis in these patients. A hyporesponsiveness of the HPA axis under stress or disturbances of the stress response could make these patients more vulnerable to cytokines and inflammation which, compounded by lower antiinflammatory mediators, may sustain some of the symptoms that contribute to the clinical picture of FM.
Das Konzept psychologischer und philosophischer Hilfe des niederländischen Psychologen und Philosophen Jac van Essen (1908-1989) ist in der wissenschaftlichen Literatur bislang weitgehend unbekannt. Es beruht auf dem sog. Allmenschlichkeitsgedanken. Zunächst wird Theorie und Praxis der Allmenschlichkeit eingehend als eigenständiger Ansatz dargestellt. Danach werden exemplarisch diverse Konzepte psychologischer Hilfe (Freud, Jung, Adler, Kognitive Therapie, Rogers u.a.) im Licht dieses Ansatzes diskutiert. Er erweist sich als geeigneter Prüfstein dafür, inwieweit Theorie und Praxis jener Konzepte zugleich wissenschaftlich und integral humanitär befriedigen, auch in bezug auf existentielle Aspekte.
Im Lebensrückblick wird bedeutsamen Ereignissen lebensgeschichtliche Bedeutung zugeschrieben; diese werden sodann als zugehörig zur eigenen Person und Lebensgeschichte wahrgenommen. Dieser Vorgang wurde als "Stiftung von Kohärenz" bezeichnet und für ein zurückliegendes belastendes Ereignis explorativ untersucht. In einer Fragebogenerhebung mit Daten von insgesamt N = 260 Probanden im Alter zwischen 41 und 86 Jahren wurde die Stiftung von Kohärenz für ein belastendes Ereignis daraufhin untersucht, inwieweit diese mit verschiedenen Formen der gedanklichen Auseinandersetzung mit dem Ereignis zusammenhängt. Weiterhin wurden die Zusammenhänge der Kohärenzstiftung mit ereignisbedingten Veränderungen des Selbstbildes und bestimmter Lebensumstände sowie mit Merkmalen des Ereignisses und der Person exploriert.
During the last decade, anatomic and physiological neuroscience research has yielded extensive information on the physiological regulators of short-term satiety, visceral and interoceptive sensation. Distinct neural circuits regulate the elements of food ingestion physiologically. The general aim of the current studies is to elucidate the peripheral neural pathways to the brain in healthy subjects to establish the groundwork for the study of the pathophysiology of bulimia nervosa (BN). We aimed to define the central activation pattern during non-nutritive gastric distension in humans, and aimed to define the cognitive responses to this mechanical gastric distension. We estimated regional cerebral blood flow with 15O-water positron emission tomography during intragastric balloon inflation and deflation in 18 healthy young women of normal weight. The contrast between inflated minus deflated in the exploratory analysis revealed activation in more than 20 brain regions. The analysis confirmed several well known areas in the central nervous system that contribute to visceral processing: the inferior frontal cortex, representing a zone of convergence for food related stimuli; the insula and operculum referred to as "visceral cortex"; the anterior cingulate gyrus (and insula), processing affective information; and the brainstem, a site of vagal relay for visceral afferent stimuli. Brain activation in the left ventrolateral prefrontal cortex was reproducible. This area is well known for higher cognitive processing, especially reward-related stimuli. The ventrolateral prefrontal cortex with the insular regions may provide a link between the affective and rewarding components of eating and disordered eating as observed in BN and binge-eating obesity. Gastric distension caused a significant rapid, reversible, and reproducible increase in the feelings of fullness, sleepiness, and gastric discomfort as well as a significant rapid, reversible, and reproducible decrease in the feeling of hunger. We showed that mechanical activation of the neurocircuitry involved in meal termination led to the described phenomena. The current brain activation studies of non-painful, proximal gastric distension could provide groundwork in the field of abnormal eating behavior by suggesting a link between visceral sensation and abnormal eating patterns. A potential treatment for disordered eating and obesity could alter the conscious and unconscious perception and interoceptive awareness of gastric distension contributing to meal termination.
The human brain is characterised by two apparently symmetrical cerebral hemispheres. However, the functions attributed to each half of the brain are very distinct with a relative specialisation of the left hemisphere for language processing. Most laterality research has been performed on a behavioural level, using techniques such as visual half-field presentation. The visual half-field technique involves the presentation of stimuli in the left or right visual field for a very short time (about 200 ms). During the presentation of lateralized stimuli, the gaze of the participants is fixated on a centrally presented fixation cross. This technique takes advantage of the anatomy of the visual pathway as the temporal hemiretinae project ipsilateral, while the nasal hemiretinae project contralateral. Thus, stimuli presented in the left or right visual field are initially processed in the contralateral hemisphere. Language organisation can also be directly investigated using functional magnetic resonance imaging (fMRI). Both behavioural and neuroimaging studies showed that about 95% of right-handed men have a left hemispheric specialisation for language. In contrast, data on language organisation in women are ambiguous. It is supposed that this ambivalent picture might be associated with changes in gonadal steroid levels in blood during the menstrual cycle. However, gonadal steroid effects are complex and their role in functional cerebral lateralization is still open to discussion. The aim of this PhD project was to investigate, using fMRI: (1) the processing of linguistic information initially received in the specialised, non-specialised or both hemispheres; (2) linking the associated brain activation pattern with progesterone levels during the menstrual cycle. Firstly, brain activation was measured in 16 right-handed, healthy males during processing of different components of language (orthography, phonology and semantics) after reception in the left, right or both hemispheres. Secondly, to investigate changes in language organisation during the menstrual cycle, we conducted an event-related fMRI study during semantic and phonological processing also using visual half-field and central presentation of linguistic stimuli. Our results revealed higher BOLD signal intensity change in the visual cortex contralateral to the visual field of stimulus presentation compared to the ipsilateral visual cortex reflecting the crossing of visual pathways. We also found support for the hypothesis that the superiority of word recognition in the left VWFA is the result of a reduced activity in the right VWFA under left hemispheric control. Further, linguistic information received in the subdominant RH, is interhemispheric transferred to the left hemisphere for phonological processing. Semantic processing in contrast occurs in the specialised and in the non-specialised hemisphere. For the group of women, data analysis revealed that during semantic processing, salivary progesterone levels correlated positively with brain activity of the left superior frontal gyrus, left middle and inferior occipital gyri and bilateral fusiform gyrus. In contrast, the brain activation pattern for phonological processing did not change significantly across the menstrual cycle. In conclusion, the effect of serum progesterone levels on brain activity is task and region specific.
The glucocorticoid (GC) cortisol, main mediator of the hypothalamic-pituitary-adrenal axis, has many implications in metabolism, stress response and the immune system. GC function is mediated mainly via the glucocorticoid receptor (GR) which binds as a transcription factor to glucocorticoid response elements (GREs). GCs are strong immunosuppressants and used to treat inflammatory and autoimmune diseases. Long-term usage can lead to several irreversible side effects which make improved understanding indispensable and warrant the adaptation of current drugs. Several large scale gene expression studies have been performed to gain insight into GC signalling. Nevertheless, studies at the proteomic level have not yet been made. The effects of cortisol on monocytes and macrophages were studied in the THP-1 cell line using 2D fluorescence difference gel electrophoresis (2D DIGE) combined with MALDI-TOF mass spectrometry. More than 50 cortisol-modulated proteins were identified which belonged to five functional groups: cytoskeleton, chaperones, immune response, metabolism, and transcription/translation. Multiple GREs were found in the promoters of their corresponding genes (+10 kb/-0.2 kb promoter regions including all alternative promoters available within the Database for Transcription Start Sites (DBTSS)). High quality GREs were observed mainly in cortisol modulated genes, corroborating the proteomics results. Differential regulation of selected immune response related proteins were confirmed by qPCR and immuno-blotting. All immune response related proteins (MX1, IFIT3, SYWC, STAT3, PMSE2, PRS7) which were induced by LPS were suppressed by cortisol and belong mainly to classical interferon target genes. Mx1 has been selected for detailed expression analysis since new isoforms have been identified by proteomics. FKBP51, known to be induced by cortisol, was identified as the strongest differentially expressed protein and contained the highest number of strict GREs. Genomic analysis of five alternative FKBP5 promoter regions suggested GC inducibility of all transcripts. 2D DIGE combined with 2D immunoblotting revealed the existence of several previously unknown FKBP51 isoforms, possibly resulting from these transcripts. Additionally multiple post-translational modifications were found, which could lead to different subcellular localization in monocytes and macrophages as seen by confocal microscopy. Similar results were obtained for the different cellular subsets of human peripheral blood mononuclear cells (PBMCs). FKBP51 was found to be constitutively phosphorylated with up to 8 phosphosites in CD19+ B lymphocytes. Differential Co-immunoprecipitation for cytoplasm and nucleus allowed us to identify new potential interaction partners. Nuclear FKBP51 was found to interact with myosin 9, whereas cytosolic FKBP51 with TRIM21 (synonym: Ro52, Sjögren`s syndrome antigen). The GR has been found to interact with THOC4 and YB1, two proteins implicated in mRNA processing and transcriptional regulation. We also applied proteomics to study rapid non-genomic effects of acute stress in a rat model. The nuclear proteome of the thymus was investigated after 15 min restraint stress and compared to the non-stressed control. Most of the identified proteins were transcriptional regulators found to be enriched in the nucleus probably to assist gene expression in an appropriate manner. The proteomic approach allowed us to further understand the cortisol mediated response in monocytes/macrophages. We identified several new target proteins, but we also found new protein variants and post-translational modifications which need further investigation. Detailed study of FKBP51 and GR indicated a complex regulation network which opened a new field of research. We identified new variants of the anti-viral response protein MX1, displaying differential expression and phosphorylation in the cellular compartments. Further, proteomics allowed us to follow the very early effects of acute stress, which happen prior to gene expression. The nuclear thymocyte proteome of restraint stressed rats revealed an active preparation for subsequent gene expression. Proteomics was successfully applied to study differential protein expression, to identify new protein variants and phosphorylation events as well as to follow translocation. New aspects for future research in the field of cortisol-mediated immune modulation have been added.