Filtern
Erscheinungsjahr
- 2024 (27)
- 2023 (63)
- 2022 (80)
- 2021 (75)
- 2020 (90)
- 2019 (84)
- 2018 (77)
- 2017 (50)
- 2016 (39)
- 2015 (36)
- 2014 (45)
- 2013 (47)
- 2012 (56)
- 2011 (49)
- 2010 (55)
- 2009 (49)
- 2008 (42)
- 2007 (61)
- 2006 (45)
- 2005 (52)
- 2004 (62)
- 2003 (54)
- 2002 (45)
- 2001 (30)
- 2000 (28)
- 1999 (11)
- 1998 (6)
- 1997 (4)
- 1996 (6)
- 1995 (8)
- 1994 (3)
- 1993 (2)
- 1992 (3)
- 1991 (1)
- 1990 (2)
- 1989 (2)
- 1988 (2)
- 1987 (2)
- 1986 (3)
- 1985 (1)
- 1984 (4)
- 1983 (2)
- 1980 (3)
- 1979 (1)
- 1978 (1)
- 1976 (1)
- 1973 (1)
- 1972 (3)
- 1970 (4)
- 1969 (1)
- (31)
Dokumenttyp
- Dissertation (832)
- Wissenschaftlicher Artikel (219)
- Buch (Monographie) (113)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (108)
- Arbeitspapier (62)
- Ausgabe (Heft) zu einer Zeitschrift (24)
- Teil eines Buches (Kapitel) (22)
- Konferenzveröffentlichung (17)
- Sonstiges (15)
- Rezension (10)
Sprache
- Deutsch (841)
- Englisch (517)
- Französisch (75)
- Mehrsprachig (15)
- Russisch (1)
Volltext vorhanden
- ja (1449) (entfernen)
Schlagworte
- Deutschland (84)
- Luxemburg (52)
- Stress (40)
- Schule (37)
- Schüler (33)
- Politischer Unterricht (29)
- Modellierung (28)
- Fernerkundung (25)
- Geschichte (24)
- Demokratie (23)
Institut
- Psychologie (212)
- Raum- und Umweltwissenschaften (212)
- Politikwissenschaft (132)
- Universitätsbibliothek (83)
- Rechtswissenschaft (77)
- Wirtschaftswissenschaften (66)
- Mathematik (65)
- Fachbereich 4 (57)
- Medienwissenschaft (57)
- Fachbereich 6 (50)
Ausgangspunkt ist der demographische Wandel und die damit einhergehende älter werdende Erwerbsbevölkerung. Es wird davon ausgegangen, dass aufgrund dieser Entwicklung einige Unternehmen senioritätsorientierte Entgeltstrukturen grundlegend verändern bzw. abschaffen müssen. Es gibt bisher einige wenige theoretische Überlegungen, wie diese veränderten Entgeltstrukturen aussehen könnten. Jedoch wird hierbei nicht berücksichtigt, wie ältere Beschäftigte auf eine derartige Veränderung reagieren könnten. Dieser Frage wird im Rahmen der Dissertation nachgegangen. Ein gesondertes Augenmerk, wird zudem auf die möglichen Reaktionen älterer Arbeitnehmer auf eine Anhebung des Renteneintrittsalters auf 67 Jahre gelegt. Zu diesem Zweck werden aus verschiedenen theoretischen Perspektiven mögliche Verhaltensreaktionen älterer Arbeitnehmer abgeleitet. Grund für die breitangelegte Betrachtung des Sachverhaltes ist die mehrdeutige Bedeutung von Einkommen. Die Höhe der Entlohnung ist nicht nur als Gegenleistung der erbrachten Arbeitsleistung zu sehen, sondern immer auch als Ausdruck von Macht, Prestige, sozialen Status etc. Berücksichtigung finden klassische ökonomische Theorien, Motivationstheorien, Wertwandeltheorien, Theorien zur Arbeitszufriedenheit und Machttheorien. Bei der Behandlung der verschiedenen Theorien wurde des Weiteren der Frage nach alternativen Anreizen zu monetären Anreizen nachgegangen, welche eine spezifische Wirkung auf ältere Arbeitnehmer entwickeln können. Durch eine weiterentwickelte Typologie drei verschiedener Typen der Arbeitsorientierung werden als Ergebnis mögliche Verhaltensreaktionen näher erläutert und auf mögliche alternative Anreize eingegangen.
Seuchen und Krieg waren jedem einzelnen Individuum der spätmittelalterlichen Gesellschaft als elementare Bedrohungen des eigenen Lebens stets gegenwärtig. Welch hohen Stellenwert diese Katastrophen im Bewußtsein der Bevölkerung einnahmen, läßt sich anhand der vielfältigen zeitgenössischen Bild- und Textzeugnisse erschließen. Während diese vor der Mitte des 15. Jahrhunderts aufgrund der manuellen Fertigung in Skriptorien und den Werkstätten von Kartenmalern nur einem relativ kleinen Personenkreis zugänglich waren, herrschten nach der Erfindung des Buchdrucks völlig neue Voraussetzungen bei der Produktion, Reproduktion und Vervielfältigung von Schriftlichkeit. Mit der Druckkunst stand erstmals eine Technologie zur Verfügung, welches es erlaubte, in kurzer Zeit Abbildungen und Texte in bisher nicht geahnter Auflagenhöhe zu fertigen. Mit den Einblattdrucken wurde früh eine Form gefunden - der erste datierbare Einblattdruck ist ein Mainzer Ablaßbrief aus dem Jahre 1454 -, die es erlaubte, mit niedrigem Aufwand einen großen Personenkreis zu erreichen. Die inhaltliche Bandbreite dieser Sonderform des frühen Drucks war beträchtlich. Sowohl textliche als auch bildliche Elemente wurden genutzt, um Ablaßbriefe, Almanache, Lehr- und Mahnblätter sowie Wunderberichte, Sensationsmeldungen usw. zu gestalten. Auftraggeber dieser Blätter waren in der Regel kirchliche und weltliche Institutionen. Neben den bereits genannten Ablaßbriefen bildeten die sogenannten "Andachtsblätter" eine weitere wichtige Gruppe dieser Druckgattung. Nachweislich ist diese besondere Form der Gebets-Fokussierung bereits für das 14. Jahrhundert. Mit dem Aufkommen des Typendrucks setzte eine erste serielle Herstellung von Andachtsblättern ein. Speziell Blätter, welche die Seuchenabwehr thematisierten, wurden bald in großer Vielfalt verlegt. Der Schutz vor Pest und Syphilis nahm hierbei einen hohen Stellenwert ein.rnDas inhaltliche Spektrum dieser "Pestblätter" reichte von der einfachen Fürbitte um Interzession durch den jeweils angerufenen Krankheitspatron bis hin zu komplexen medizinisch, diätetischen Anweisungen in Bild und Text. Neben diesem eher anleitenden Charakter verband der mittelalterliche Mensch mit dieser Variante des Einblattdrucks auch die Funktion eines apotropäischen Talismans.rnAußer der Bedrohung durch Krankheiten sah sich die mittelalterliche Gesellschaft des 15. Jahrhunderts mit einer weiteren existentiellen Bedrohung konfrontiert - dem Krieg. Auch wenn die deutschen Territorien im 15. Jahrhundert weitgehend von großen kriegerischen Auseinandersetzungen verschont blieben, so reichte der sogenannte Schweizer- oder Schwabenkrieg sowie der Bayerisch-Pfälzische (oder Landshuter) Erbfolgekriege aus, die gravierenden Folgen der Kriegsführung für die zivile Gesellschaft vor Augen zu führen. Zu einer weiteren Steigerung der "Kriegsangst" führten die in diesem Zeitraum stattfindenden Auseinandersetzungen mit dem expandierenden Osmanischen Reich. Diese dezidierte Untersuchung der frühesten Einblattdrucke baut auf mehreren grundsätzlichen Fragestellungen auf: Wie, von wem, warum und wann wurden Einblattdrucke hergestellt? Wie und wo erfolgte die Verbreitung von Einblattdrucken? Wer erwarb wann Einblattdrucke und aus welcher Absicht heraus tat er dies? Diese recht komplexen Fragestellungen lassen sich auf drei Schlagworte reduzieren: »Produktion - Diffusion - Rezeption« Aus diesen drei Aspekten des "Lebenslaufes" eines Einblatts ergeben sich die zentralen Forschungsschwerpunkte dieses Projekts. Daher wird auch nach einer einführenden Begriffsdefinition des "Katastrophenblattes" das Hauptaugenmerk zunächst auf der Produktion dieser Druckgattung - den Einblattdrucken - liegen. Bei der anschließend untersuchten Diffusion ist von besonderem Interesse, an welchen Orten, zu welchem Zeitpunkt die Drucke vom Hersteller oder Auftraggeber in den Besitz des "Endverbrauchers" gelangten. Dieses Detail der Untersuchung ist auch daher von besonderer Bedeutung, da über die hier zu ermittelnden Ergebnisse eine Zuordnung erfolgen kann, in welchem gesellschaftlichen Umfeld die Blätter ihre Verwendung fanden. Der Kreis der Rezipienten schließlich ist in mehr als einer Beziehung für dieses Projekt von Bedeutung. Zunächst erlaubt die Kenntnis um ihren gesellschaftlichen Stand eine Einordnung in ein soziales Umfeld. Hieraus wiederum sind Rückschlüsse auf die Formen des Gebrauchs, in diesem Zusammenhang ist insbesondere die Lesefähigkeit von außerordentlicher Relevanz, der Einblattdrucke, welche Katastrophen thematisieren - möglich. Die somit gleichsam am Ende stehenden Gebrauchsformen - diese lassen sich nicht nur aus den Textinhalten der Blätter, sondern auch anhand von Benutzungsspuren, Fundorten usw. ermitteln - bieten Erkenntnisse, wie katastrophalen Ereignissen auf die spätmittelalterliche Gesellschaft einwirkten und welche Schlußfolgerungen diese daraus zog, um letztlich eine Antwort auf sie zu finden.
Theoretischer Hintergrund der vorliegenden Arbeit bildet das Persönlichkeitskonstrukt der Kontrollüberzeugungen (locus of control). Es wurde im Rahmen der sozialen Lerntheorie von Rotter (1954, 1966) entwickelt und beinhaltet generalisierte Handlungs-Ergebnis-Erwartungen. Die zunächst eindimensionale Erfassung der internalen versus externalen Kontrollüber-zeugungen erfuhr " nicht zuletzt aufgrund widersprüchlicher empirischer Befunde " durch Levenson (1972) eine Differenzierung in eine sozial bedingte und eine fatalistische Externalität. In Bezug auf die Vorhersage des Behandlungserfolgs bei Alkoholabhängigkeit hat sich in bisherigen Studien die mehrdimensionale, bereichsspezifische Erfassung der Kontrollüberzeugungen etabliert. In den zahlreichen Untersuchungen, die sich in ihrer Methodik stark voneinander unterscheiden, stellte sich eine höhere Internalität als prädiktiv für eine günstige, eine erhöhte fatalistische Externalität hingegen als prädiktiv für eine ungünstige Prognose heraus. Dabei wird von einem umgekehrt u-förmigen Verlauf eines günstigen Kontrollüberzeugungsstils ausgegangen, wonach sowohl eine zu hohe als auch eine zu niedrige Internalität zu einer inadäquaten Wahrnehmung der eigenen Kontrollmöglichkeiten führen. In dieser Arbeit interessieren die Veränderungen in den generalisierten und bereichsspezifischen Kontroll- und Kompetenzüberzeugungen bei stationär behandelten alkoholabhängigen Patienten. Unter Berücksichtigung weiterer Variablen wie Therapiemotivation, psychopathologische Symptombelastung, Suchtverlangen und komorbide depressive Erkrankung sollen Prädiktoren für die Rückfälligkeit während der Behandlung sowie bis zu einem Jahr danach identifiziert werden. Im Weiteren werden bedeutsame Zusammenhänge zwischen der Ausprägung der Kontrollüberzeugungen und kognitiven Leistungsbeeinträchtigungen vermutet. Externale Kontrollüberzeugungen werden dabei mit Leistungsdefiziten in Verbindung gebracht. Zur Untersuchung der Frage, ob eine hohe Internalität mit einer generellen Überschätzung der eigenen Fähigkeiten und damit einem ungünstigeren Behandlungsergebnis einhergeht, soll die Selbsteinschätzung in fünf neuropsychologischen Testverfahren herangezogen werden. Es wurden 102 alkoholabhängige Patienten in die Studie eingeschlossen. 81 davon konnten sowohl am Anfang als auch am Ende einer durchschnittlich zehnwöchigen stationären Behandlung untersucht werden. 51 Patienten wurden zusätzlich nach einem Jahr schriftlich befragt. Während der Behandlung konnten bei der gesamten Stichprobe, insbesondere bei Patienten mit einem ungünstigeren Kontrollüberzeugungsstil, Veränderungen in die gewünschte Richtung beobachtet werden: Das Selbstkonzept und die Internalität nahmen zu, während sich die sozial bedingte und fatalistische Externalität verringerten. Als einziger signifikanter Prädiktor für die Ein-Jahres-Abstinenz stellte sich das bereichsspezifische, prospektiv ausgerichtete Selbstkonzept zu Beginn der Behandlung heraus. Die bei Behandlungsende erhobenen Variablen besassen keinen Vorhersagewert. Insofern kann angenommen werden, dass die Veränderungen während der Behandlung in nicht unerheblichem Masse durch kurzzeitige Hospitalisations- und soziale Erwünschtheitseffekte beeinflusst worden sind. Patienten, die bereits während der Behandlung rückfällig wurden, zeichneten sich im Vergleich zu abstinenten Patienten bereits zu Beginn durch ein niedrigeres Selbstkonzept, eine niedrigere Internalität sowie eine erhöhte fatalistische Externalität aus. Sie waren psychisch belasteter, hatten ein grösseres Suchtverlangen und wiesen häufiger eine komorbide depressive Störung auf. Bezüglich der bereichsspezifischen, nicht jedoch der generalisierten Kontrollüberzeugungen unterschieden sie sich am Ende der Behandlung noch deutlicher von abstinen-ten Patienten. Die Differenzen blieben bis zur Ein-Jahres-Katamnese bestehen. Insgesamt stellten für die Rückfälligkeit während der Behandlung ein ungünstigerer Kontrollüberzeugungsstil, eine depressive Erkrankung, ein hohes Suchtverlangen und kognitive Leistungseinbussen Risikofaktoren dar, die sich wechselseitig beeinflussten. Patienten mit sehr hoher Internalität zeichneten sich durch eine generelle Überschätzung ihrer kognitiven Leistungsfähigkeit aus. Übereinstimmend damit schützte eine sehr hohe Internalität nicht vor Rückfälligkeit. Eine niedrige Internalität ging hingegen mit einer Unterschätzung der Leistungsfähigkeit in zwei von fünf Tests einher. Die Ergebnisse entsprechen grösstenteils den Erwartungen. Sie werden abschliessend unter Berücksichtigung der methodischen Stärken und Schwächen der vorliegenden empirischen Untersuchung erörtert, in den aktuellen Kenntnisstand eingeordnet und im Hinblick auf zukünftige Forschungsperspektiven diskutiert.
Die vorliegende Arbeit widmet sich der Beantwortung der Fragestellung, inwieweit die NATOisierung Polens und Tschechiens im Bereich der zivil-militärischen Beziehungen erfolgreich war, und aufgrund welcher Akteure, Praktiken und Bedingungen die Normübernahme (nicht) erfolgte. NATOisierung wird hierbei als Sozialisationsprozess im Politikfeld Sicherheit begriffen. Konzeptioneller Ausgangspunkt für die theoriegeleiteten Fallstudien bildet die Entwicklung eines Forschungsdesigns, mittels dessen der rational-institutionalistische und der konstruktivistisch-institutionalistische Strang der internationalen Sozialisations-forschung für die Analyse der NATOisierung postkommunistischer Sicherheitspolitik nutzbar gemacht werden kann. In Kritik an der Mehrheit der Sozialisationsstudien, die die Übernahme von Normen internationaler Institutionen seitens der postkommunistischen Staaten entweder als Verhandlungs- und Anpassungsprozess strategisch handelnder Akteure oder als sozialen Lern- und normativen Überzeugungsprozess intrinsisch motivierter Akteure betrachten, argumentiert diese Studie, dass die Wahl eines komplementären Zugangs sowohl aus theoretisch-konzeptionellen als auch empirisch-phänomenologischen Erwägungen unabdingbar ist. Die hierbei zu Grunde liegende Methode der doppelten Interpretation, mittels derer der Verlauf und das Ergebnis der NATOisierung Polens und Tschechiens im Bereich der zivil-militärischen Beziehungen sowohl aus Sicht des rationalen als auch des konstruktivistischen Institutionalismus beleuchtet worden sind, hat sich als tragfähig erwiesen. In der Tat variiert die Erklärungskraft beider theoretischer Ansätze im Hinblick auf die unterschiedlichen Akteure, Phasen und/oder Kontexte des sicherheitspolitischen Sozialisationsprozesses. Wenngleich die NATO durch ihre Sozialisationspolitik den Demokratisierungsprozess Polens und Tschechiens im Politikfeld Sicherheit begünstigte, bestätigt die empirische Analyse die weit verbreitete Betrachtungsweise der 'Partnerschaft für den Frieden' als ausschließliche Erfolgsgeschichte nicht. Vielmehr war die Erweiterungs- und Sozialisationspolitik der NATO mit gravierenden (nichtintendierenden) Konsequenzen verbunden, die sich hinderlich auf die Transformation der zivil-militärischen Beziehungen postkommunistischer Staaten auswirkten.
Abstracts book of oral presentations and poster contributions for the mid-term conference of the Interreg IVB NWE project ForeStClim. The international conference took place in Nancy (France) from 20. to 22. September 2010. The topics of the conference sessions were as follows:rnSession 1: Projecting forest sites and stand shiftsrnSession 2: Climate change and water: modelling across spatial and temporal scalesrnSession 3: Addressing climate change in practical silvicultural decision support
Aggression is one of the most researched topics in psychology. This is understandable, since aggression behavior does a lot of harm to individuals and groups. A lot is known already about the biology of aggression, but one system that seems to be of vital importance in animals has largely been overlooked: the hypothalamic-pituitary-adrenal (HPA) axis. Menno Kruk and Jószef Haller and their research teams developed rodent models of adaptive, normal, and abnormal aggressive behavior. They found the acute HPA axis (re)activity, but also chronic basal levels to be causally relevant in the elicitation and escalation of aggressive behavior. As a mediating variable, changes in the processing of relevant social information is proposed, although this could not be tested in animals. In humans, not a lot of research has been done, but there is evidence for both the association between acute and basal cortisol levels in (abnormal) aggression. However, not many of these studies have been experimental of nature. rnrnOur aim was to add to the understanding of both basal chronic levels of HPA axis activity, as well as acute levels in the formation of aggressive behavior. Therefore, we did two experiments, both with healthy student samples. In both studies we induced aggression with a well validated paradigm from social psychology: the Taylor Aggression Paradigm. Half of the subjects, however, only went through a non-provoking control condition. We measured trait basal levels of HPA axis activity on three days prior. We took several cortisol samples before, during, and after the task. After the induction of aggression, we measured the behavioral and electrophysiological brain response to relevant social stimuli, i.e., emotional facial expressions embedded in an emotional Stroop task. In the second study, we pharmacologically manipulated cortisol levels 60min before the beginning of the experiment. To do that, half of the subjects were administered 20mg of hydrocortisone, which elevates circulating cortisol levels (cortisol group), the other half was administered a placebo (placebo group). Results showed that acute HPA axis activity is indeed relevant for aggressive behavior. We found in Study 1 a difference in cortisol levels after the aggression induction in the provoked group compared to the non-provoked group (i.e., a heightened reactivity of the HPA axis). However, this could not be replicated in Study 2. Furthermore, the pharmacological elevation of cortisol levels led to an increase in aggressive behavior in women compared to the placebo group. There were no effects in men, so that while men were significantly more aggressive than women in the placebo group, they were equally aggressive in the cortisol group. Furthermore, there was an interaction of cortisol treatment with block of the Taylor Aggression Paradigm, in that the cortisol group was significantly more aggressive in the third block of the task. Concerning basal HPA axis activity, we found an effect on aggressive behavior in both studies, albeit more consistently in women and in the provoked and non-provoked groups. However, the effect was not apparent in the cortisol group. After the aggressive encounter, information processing patterns were changed in the provoked compared to the non-provoked group for all facial expressions, especially anger. These results indicate that the HPA axis plays an important role in the formation of aggressive behavior in humans, as well. Importantly, different changes within the system, be it basal or acute, are associated with the same outcome in this task. More studies are needed, however, to better understand the role that each plays in different kinds of aggressive behavior, and the role information processing plays as a possible mediating variable. This extensive knowledge is necessary for better behavioral interventions.
In dieser Abhandlung wird die Stellung der Mädchenbildung in der staatlichen Bildungspolitik in der Phase verdichteter staatlicher Reformbestrebungen an der Wende vom 18. zum 19. Jahrhundert untersucht. Dazu wird ein Vergleich zwischen der preußischen Kurmark und dem Land Österreich unter der Enns in Österreich durchgeführt.
This work addresses the algorithmic tractability of hard combinatorial problems. Basically, we are considering \NP-hard problems. For those problems we can not find a polynomial time algorithm. Several algorithmic approaches already exist which deal with this dilemma. Among them we find (randomized) approximation algorithms and heuristics. Even though in practice they often work in reasonable time they usually do not return an optimal solution. If we constrain optimality then there are only two methods which suffice for this purpose: exponential time algorithms and parameterized algorithms. In the first approach we seek to design algorithms consuming exponentially many steps who are more clever than some trivial algorithm (who simply enumerates all solution candidates). Typically, the naive enumerative approach yields an algorithm with run time $\Oh^*(2^n)$. So, the general task is to construct algorithms obeying a run time of the form $\Oh^*(c^n)$ where $c<2$. The second approach considers an additional parameter $k$ besides the input size $n$. This parameter should provide more information about the problem and cover a typical characteristic. The standard parameterization is to see $k$ as an upper (lower, resp.) bound on the solution size in case of a minimization (maximization, resp.) problem. Then a parameterized algorithm should solve the problem in time $f(k)\cdot n^\beta$ where $\beta$ is a constant and $f$ is independent of $n$. In principle this method aims to restrict the combinatorial difficulty of the problem to the parameter $k$ (if possible). The basic hypothesis is that $k$ is small with respect to the overall input size. In both fields a frequent standard technique is the design of branching algorithms. These algorithms solve the problem by traversing the solution space in a clever way. They frequently select an entity of the input and create two new subproblems, one where this entity is considered as part of the future solution and another one where it is excluded from it. Then in both cases by fixing this entity possibly other entities will be fixed. If so then the traversed number of possible solution is smaller than the whole solution space. The visited solutions can be arranged like a search tree. To estimate the run time of such algorithms there is need for a method to obtain tight upper bounds on the size of the search trees. In the field of exponential time algorithms a powerful technique called Measure&Conquer has been developed for this purpose. It has been applied successfully to many problems, especially to problems where other algorithmic attacks could not break the trivial run time upper bound. On the other hand in the field of parameterized algorithms Measure&Conquer is almost not known. This piece of work will present examples where this technique can be used in this field. It also will point out what differences have to be made in order to successfully apply the technique. Further, exponential time algorithms for hard problems where Measure&Conquer is applied are presented. Another aspect is that a formalization (and generalization) of the notion of a search tree is given. It is shown that for certain problems such a formalization is extremely useful.
N-acetylation by N-acetyltransferase 1 (NAT1) is an important biotransformation pathway of the human skin and it is involved in the deactivation of the arylamine and well-known contact allergen para-phenylenediamine (PPD). Here, NAT1 expression and activity were analyzed in antigen presenting cells (monocyte-derived dendritic cells, MoDCs, a model for epidermal Langerhans cells) and human keratinocytes. The latter were used to study exogenous and endogenous NAT1 activity modulations. Within this thesis, MoDCs were found to express metabolically active NAT1. Activities were between 23.4 and 26.6 nmol/mg/min and thus comparable to peripheral blood mononuclear cells. These data suggest that epidermal Langerhans cells contribute to the cutaneous N-acetylation capacity. Keratinocytes, which are known for their efficient N-acetylation, were analyzed in a comparative study using primary keratinocytes (NHEK) and different shipments of the immortalized keratinocyte cell line HaCaT, in order to investigate the ability of the cell line to model epidermal biotransformation. N-acetylation of the substrate para-aminobenzoic acid (PABA) was 3.4-fold higher in HaCaT compared to NHEK and varied between the HaCaT shipments (range 12.0"44.5 nmol/mg/min). Since B[a]P induced cytochrome p450 1 (CYP1) activities were also higher in HaCaT compared to NHEK, the cell line can be considered as an in vitro tool to qualitatively model epidermal metabolism, regarding NAT1 and CYP1. The HaCaT shipment with the highest NAT1 activity showed only minimal reduction of cell viability after treatment with PPD and was subsequently used to study interactions between NAT1 and PPD in keratinocytes. Treatment with PPD induced expression of cyclooxygenases (COX) in HaCaT, but in parallel, PPD N-acetylation was found to saturate with increasing PPD concentration. This saturation explains the presence of the PPD induced COX induction despite the high N-acetylation capacities. A detailed analysis of the effect of PPD on NAT1 revealed that the saturation of PPD N-acetylation was caused by a PPD-induced decrease of NAT1 activity. This inhibition was found in HaCaT as well as in primary keratinocytes after treatment with PPD and PABA. Regarding the mechanism, reduced NAT1 protein level and unaffected NAT1 mRNA expression after PPD treatment adduced clear evidences for substrate-dependent NAT1 downregulation. These results expand the existing knowledge about substrate-dependent NAT1 downregulation to human epithelial skin cells and demonstrate that NAT1 activity in keratinocytes can be modulated by exogenous factors. Further analysis of HaCaT cells from different shipments revealed an accelerated progression through the cell cycle in HaCaT cells with high NAT1 activities. These findings suggest an association between NAT1 and proliferation in keratinocytes as it has been proposed earlier for tumor cells. In conclusion, N-acetylation capacity of MoDCs as well as keratinocytes contribute to the overall N-acetylation capacity of human skin. NAT1 activity of keratinocytes and consequently the detoxification capacities of human skin can be modulated by the presence of exogenous NAT1 substrates and endogenous by the cell proliferation status of keratinocytes.
Die Arbeit beschäftigt sich mit der Interaktion zwischen den Juden des Regnum Teutonicum und den verschiedenen Herrschaftsträgern, mit denen die Juden in Kontakt kamen. Dies waren neben dem König auch geistliche und weltliche Landes- und Stadtherren. Chronologisch an vier Herrschaftsphasen Rudolfs ausgerichtet, analysiert die Studie sämtliche überlieferte schriftliche Zeugnisse, um insbesondere der Frage nach der Bedeutung der Kammerknechtschaft im Reich nachzugehen. Diese stellt sich als höchst ambivalente und keinesfalls nur negative Beziehungsform heraus, die zudem nur in einem europäischen Kontext verständlich wird.
Stress is a common phenomenon for animals living in the wild, but also for humans in modern societies. Originally, the body's stress response is an adaptive reaction to a possibly life-threatening situation, and it has been shown to impact on energy distribution and metabolism, thereby increasing the chance of survival. However, stress has also been shown to impact on mating behaviour and reproductive strategies in animals and humans. This work deals with the effect of stress on reproductive behavior. Up to now, research has only focused on the effects of stress on reproduction in general. The effects of stress on reproduction may be looked at from two points of view. First, stress affects reproductive functioning by endocrine (e.g. glucocorticoid) actions on the reproductive system. However, stress can also influence reproductive behavior, i.e. mate choice and mating preferences. Animals and humans do not mate randomly, but exhibit preferences towards mating partners. One factor by which animals and humans choose their mating partners is similarity vs. dissimilarity: Similar mates usually carry more of one's own genes and the cooperation between similar mates is, at least theoretically, less hampered by expressing diverse behaviors. By mating with dissimilar mates on the other hand one may acquire new qualities for oneself, but also for one's offspring, useful to cope with environmental challenge. In humans we usually find a preference for similar mates. Due to the high costs of breeding, variables like cooperation and life-long partnerships may play a greater role than the acquaintance of new qualities.The present work focuses on stress effects on mating preferences of humans and will give a first answer to the question whether stress may affect our preference for similar mates. Stress and mating preferences are at the centre of this work. Thus, in the first Chapter I will give an introduction on stress and mating preferences and link these topics to each other. Furthermore, I will give a short summary of the studies described in Chapter II - Chapter IV and close the chapter with a general discussion of the findings and directions for further research on stress and mating preferences. Human mating behavior is complex, and many aspects of it may not relate to biology but social conventions and education. This work will not focus on those aspects but rather on cognitive and affective processing of erotic and sexually-relevant stimuli, since we assume that these aspects of mating behaviour are likely related to psychobiological stress mechanisms. Therefore, a paradigm is needed that measures such aspects of mating preferences in humans. The studies presented in Chapter II and Chapter III were performed in order to develop such a paradigm. In these studies we show that affective startle modulation may be used to indicate differences in sexual approach motivation to potential mating partners with different similarity levels to the participant. In Chapter IV, I will describe a study that aimed to investigate the effects of stress on human mating preferences. We showed that stress reverses human mating preferences: While unstressed individuals show a preference for similar mates, stressed individuals seem to prefer dissimilar mates. Overall, the studies presented in this work showed that affective startle modulation can be employed to measure mating preferences in humans and that these mating preferences are influenced by stress.
During and after application, pesticides enter the atmosphere by volatilisation and by wind erosion of particles on which the pesticide is sorbed. Measurements at application sites revealed that sometimes more than half of the amount applied is lost into the atmosphere within a few days. The atmosphere is an important part of the hydrologic cycle that can transport pesticides from their point of application and deposit them into aquatic and terrestrial ecosystems far from their point of use. In the region of Trier pesticides are widely used. In order to protect crops from pests and increase crop yields in the viniculture, six to eight pesticide applications take place between May and August. The impact that these applications have on the environmental pollution of the region is not yet well understood. The present study was developed to characterize the atmospheric presence, temporal patterns, transport and deposition of a variety of pesticides in the atmosphere of the area of Trier. To this purpose, rain samples were weekly collected at eight sites during the growing seasons 2000, 2001 and 2002, and air samples (gas and particle phases) were collected during the growing season 2002. Multiresidue analysis methods were developed to determine multiple classes of pesticides in rain water, particle- and gas-phase samples. Altogether 24 active ingredients and 3 metabolites were chosen as representative substances, focussing mainly on fungicides. Twenty-four of the 27 measured pesticides were detected in the rain samples; seventeen pesticides were detected in the air samples. The most frequently detected pesticides and at the highest concentrations, both in rain and air, were compounds belonging to the class of fungicides. The insecticide methyl parathion was also detected in several rain samples as well as two substances that are banned in Germany, such as the herbicides atrazine and simazine. Concentration levels varied during the growing season with the highest concentrations being measured in the late spring and summer months, coinciding with application times and warmer months. Concentration levels measured in the rain samples were, generally, in the order of rnng l-1. Though average concentrations for single substances were less than 100 ng l-1, total concentrations were considerable and in some instances well above the EU drinking water quality standard of 500 ng l-1 for total pesticides. Compared to the amounts applied for pest control, the amounts deposited by rain resulted between 0,004% and 0,10% of the maximum application rates. These low pesticide inputs from precipitation to surface-water bodies is not of concern in vinicultural areas where the impact of other sources, such as superficial runoff inputs from the treated areas and cleaning of field crop sprayers, is more important. However, the potential impacts of these aerial pesticide inputs to non-target sites, such as organic crops, and sensitive ecosystems are as yet not known. Concentration levels in the air samples were in the order of ng m-3 at sites close to the fields were pesticides were applied, while lower values, in the order of pg m-3, were detected at the site located further away from fields where applications were performed. The measured air concentration levels found in this study do not represent a concern for human health in terms of acute risk. Inhalation toxicity studies have shown that an acute potential risk only arises at air concentrations in the range of g m-3. Finally, it must be kept in mind that only a small number of chemicals that were applied in the area were analysed for in this study. In order to gain a better evaluation of the local atmospheric load of pesticides, a wider spectrum of applied substances (including metabolites) needs to be investigated.
Tropospheric ozone (O3) is known to have various detrimental effects on plants, such as visible leaf injury, reduced growth and premature senescence. Flux models offer the determination of the harmful ozone dose entering the plant through the stomata. This dose can then be related to phytotoxic effects mentioned above to obtain dose-response relationships, which are a helpful tool for the formulation of abatement strategies of ozone precursors. rnOzone flux models are dependant on the correct estimation of stomatal conductance (gs). Based on measurements of gs, an ozone flux model for two white clover clones (Trifolium repens L. cv Regal; NC-S (ozone-sensitive) and NC-R (ozone-resistant)) differing in their sensitivity to ozone was developed with the help of artificial neural networks (ANNs). White clover is an important species of various European grassland communities. The clover plants were exposed to ambient air at three sites in the Trier region (West Germany) during five consecutive growing seasons (1997 to 2001). The response parameters visible leaf injury and biomass ratio of NC-S/NC-R clone were regularly assessed. gs-measurements of both clones functioned as output of the ANN-based gs model, while corresponding climate parameters (i.e. temperature, vapour pressure deficit (VPD) and photosynthetic active radiation (PAR)) and various ozone concentration indices were inputs. The development of the model was documented in detail and various model evaluation techniques (e.g. sensitivity analysis) were applied. The resulting gs model was used as a basis for ozone flux calculations, which were related to above mentioned response parameters. rnThe results showed that the ANNs were capable of revealing and learning the complex relationship between gs and key meteorological parameters and ozone concentration indices. The dose-response relationships between ozone fluxes and visible leaf injury were reasonably strong, while those between ozone fluxes and NC-S/NC-R biomass ratio were fairly weak. The results were discussed in detail with respect to the suitability of the chosen experimental methods and model type.
Markenaufbau von Destinationen ist eine kostenintensive und langfristige Angelegenheit. In den vergangenen Jahren stieg das Interesse von Kommunen, Regionen und Ländern die Markenbildung zu verstärken. Gleichzeitig wird aber auch immer mehr der Ruf lauter ein Instrument zu schaffen, das Markenbewertung für Destinationen vornimmt. Vor allem in der Konsumgüter und Investitionsgüterindustrie finden sich zahlreiche Ansätze zur Markenbewertung, im Destinationsmanagement gibt es das bisher kaum. Es gibt drei verschiedene Arten von Verfahren, die meist von Unternehmensberatungen oder Wissenschaftlern entwickelt wurden: Messung des Markenwertes, Messung der Markenstärke und hybride Verfahren. Für Destinationen machen rein quantitative Verfahren wenig Sinn, da es beim Thema "Reise" auch auf eine Vielzahl von qualitativen Merkmalen ankommt. Von daher wurde im Rahmen dieser Dissertation entschieden, sich primär auf ein qualitatives Verfahren zu konzentrieren und verschiedene Modelle der Markenbewertung zu überprüfen. Das Resultat der Überprüfung zeigte, dass es notwendig war verschiedene Modelle zu kombinieren, um damit die Markenstärke einer Destination zu messen. Als empirisches Beispiel wurde hier Spanien ausgewählt, da dies als ein erfolgreiches Beispiel für Branding in der Fachliteratur gesehen wird. Dieses neu entwickelte Verfahren wurde an der Destination Spanien überprüft im Rahmen einer Projektstudie mit Studierenden der Universität Trier. Das Ergebnis zeigte, dass der Ansatz eines qualitativen Verfahrens richtig war, allerdings könnte es in ein hybrides Verfahren überführt werden. Kooperationspartner für die Dissertation war Turespana, Berlin.
For the first time, the German Census 2011 will be conducted via a new method the register based census. In contrast to a traditional census, where all inhabitants are surveyed, the German government will mainly attempt to count individuals using population registers of administrative authorities, such as the municipalities and the Federal Employment Agency. Census data that cannot be collected from the registers, such as information on education, training, and occupation, will be collected by an interview-based sample survey. Moreover, the new method reduces citizens' obligations to provide information and helps reduce costs significantly. The use of sample surveys is limited if results with a detailed regional or subject-matter breakdown have to be prepared. Classical estimation methods are sometimes criticized, since estimation is often problematic for small samples. Fortunately, model based small area estimators serve as an alternative. These methods help to increase the information, and hence the effective sample size. In the German Census 2011 it is possible to embed areas on a map in a geographical context. This may offer additional information, such as neighborhood relations or spatial interactions. Standard small area models, like Fay-Herriot or Battese-Harter-Fuller, do not account for such interactions explicitly. The aim of our work is to extend the classical models by integrating the spatial information explicitly into the model. In addition, the possible gain in efficiency will be analyzed.
This thesis introduces a calibration problem for financial market models based on a Monte Carlo approximation of the option payoff and a discretization of the underlying stochastic differential equation. It is desirable to benefit from fast deterministic optimization methods to solve this problem. To be able to achieve this goal, possible non-differentiabilities are smoothed out with an appropriately chosen twice continuously differentiable polynomial. On the basis of this so derived calibration problem, this work is essentially concerned about two issues. First, the question occurs, if a computed solution of the approximating problem, derived by applying Monte Carlo, discretizing the SDE and preserving differentiability is an approximation of a solution of the true problem. Unfortunately, this does not hold in general but is linked to certain assumptions. It will turn out, that a uniform convergence of the approximated objective function and its gradient to the true objective and gradient can be shown under typical assumptions, for instance the Lipschitz continuity of the SDE coefficients. This uniform convergence then allows to show convergence of the solutions in the sense of a first order critical point. Furthermore, an order of this convergence in relation to the number of simulations, the step size for the SDE discretization and the parameter controlling the smooth approximation of non-differentiabilites will be shown. Additionally the uniqueness of a solution of the stochastic differential equation will be analyzed in detail. Secondly, the Monte Carlo method provides only a very slow convergence. The numerical results in this thesis will show, that the Monte Carlo based calibration indeed is feasible if one is concerned about the calculated solution, but the required calculation time is too long for practical applications. Thus, techniques to speed up the calibration are strongly desired. As already mentioned above, the gradient of the objective is a starting point to improve efficiency. Due to its simplicity, finite differences is a frequently chosen method to calculate the required derivatives. However, finite differences is well known to be very slow and furthermore, it will turn out, that there may also occur severe instabilities during optimization which may lead to the break down of the algorithm before convergence has been reached. In this manner a sensitivity equation is certainly an improvement but suffers unfortunately from the same computational effort as the finite difference method. Thus, an adjoint based gradient calculation will be the method of choice as it combines the exactness of the derivative with a reduced computational effort. Furthermore, several other techniques will be introduced throughout this thesis, that enhance the efficiency of the calibration algorithm. A multi-layer method will be very effective in the case, that the chosen initial value is not already close to the solution. Variance reduction techniques are helpful to increase accuracy of the Monte Carlo estimator and thus allow for fewer simulations. Storing instead of regenerating the random numbers required for the Brownian increments in the SDE will be efficient, as deterministic optimization methods anyway require to employ the identical random sequence in each function evaluation. Finally, Monte Carlo is very well suited for a parallelization, which will be done on several central processing units (CPUs).
Die Fauna-Flora-Habitat-Richtlinie (Richtlinie 92/43/EWG) stellt derzeit das umfangreichste Instrument des internationalen Naturschutzes zur Erhaltung der europäischen Biodiversität dar. Das Grundkonzept der FFH-RL beruht hierbei sowohl auf dem Schutz gefährdeter Arten als auch auf dem Erhalt natürlicher Lebensräume. Dieser ganzheitliche Ansatz verursacht jedoch infolge der großen Anzahl zu berücksichtigender Schutzgüter einen hohen personellen wie finanziellen Aufwand bei der Umsetzung der Richtlinienvorgaben. Daher wurde in der vorliegenden Arbeit am Beispiel der Schmetterlingsart Euphydryas aurinia (Anhang II FFH-RL) überprüft, inwieweit die Konzepte von ESUs (Evolutionarily Significant Units) und MUs (Management Units) geeignete Möglichkeiten bieten, um die Prioritätensetzung bei der Auswahl besonders schützenswerter Vorkommen gefährdeter Arten zu erleichtern. Zu diesem Zweck wurden mit drei verschiedenen Subspezies von E. aurinia (E. aurinia beckeri, E. aurinia debilis, E. aurinia aurinia) Fang-Markierung-Wiederfangstudien durchgeführt, sowie mit Hilfe von Allozym-Elektrophoresen populationsgenetische Parametern in europäischem Kontext und auf regionaler Ebene (Westtschechien) erfasst. Die drei untersuchten Subspezies zeigten hierbei spezifische ökologische Adaptationen an die jeweiligen Habitatbedingungen (z.B. bzgl. der Populationsdichte, Demographie und Mobilität). Ferner wiesen die genetischen Analysen starke Differenzierungen bei E. aurinia in Europa nach, die u.a. Antworten auf phylogeographische und taxonomische Fragestellungen ermöglichen. Auch auf regionaler Ebene (Westtschechien) konnten genetische Differenzierungen festgestellt werden. Auf Basis der erhobenen populationsökologischen und -genetischen Daten wird abschließend die generelle Anwendbarkeit und der Nutzen der Konzepte von ESUs und MUs bei der Etablierung von Schutzkonzepten für E. aurinia und andere Arten der FFH-RL diskutiert. rnDer zweite Teil der vorliegenden Arbeit beschäftigt sich exemplarisch mit dem aktuellen Schutzverfahren für deutsche E. aurinia-Vorkommen im Rahmen der FFH-RL und den damit verbundenen Problemen. Der Schwerpunkt lag hierbei auf der Schutzgebietsauswahl, dem Monitoring und dem Gebietsmanagement. In diesem Kontext werden u.a. Problematiken angesprochen, die sich aus der großen ökologischen Variabilität der Art ergeben bzw. die aufgrund von Koordinierungsschwierigkeiten zwischen einzelnen Bundesländern bestehen. Vor dem Hintergrund dieser Erkenntnisse werden Lösungsvorschläge unterbreitet, wie das aktuelle Schutzverfahren für E. aurinia in Deutschland weiter verbessert werden könnte.
The subject of this thesis is a homological approach to the splitting theory of PLS-spaces, i.e. to the question for which topologically exact short sequences 0->X->Y->Z->0 of PLS-spaces X,Y,Z the right-hand map admits a right inverse. We show that the category (PLS) of PLS-spaces and continuous linear maps is an additive category in which every morphism admits a kernel and a cokernel, i.e. it is pre-abelian. However, we also show that it is neither quasi-abelian nor semi-abelian. As a foundation for our homological constructions we show the more general result that every pre-abelian category admits a largest exact structure in the sense of Quillen. In the pre-abelian category (PLS) this exact structure consists precisely of the topologically exact short sequences of PLS-spaces. Using a construction of Ext-functors due to Yoneda, we show that one can define for each PLS-space A and every natural number k the k-th abelian-group valued covariant and contravariant Ext-functors acting on the category (PLS) of PLS-spaces, which induce for every topologically exact short sequence of PLS-spaces a long exact sequence of abelian groups and group morphisms. These functors are studied in detail and we establish a connection between the Ext-functors of PLS-spaces and the Ext-functors for LS-spaces. Through this connection we arrive at an analogue of a result for Fréchet spaces which connects the first derived functor of the projective limit with the first Ext-functor and also gives sufficient conditions for the vanishing of the higher Ext-functors. Finally, we show that Ext^k(E,F) = 0 for a k greater or equal than 1, whenever E is a closed subspace and F is a Hausdorff-quotient of the space of distributions, which generalizes a result of Wengenroth that is itself a generalization of results due to Domanski and Vogt.
Der Forschungsbereich der Systembiologie hat sich in den letzten Jahren mit unvergleichlicher Dynamik entwickelt und sich als interdisziplinäres Feld in den Biowissenschaften etabliert. Die Systembiologie verfolgt hierbei unter anderem das Ziel, biologische Systeme als Ganzes zu betrachten. Die analytische Erfassung der Stoffwechselzwischenprodukte, auch Metaboliten genannt, eröffnet hierbei neue Möglichkeiten. Metaboliten stellen Zwischenprodukte in vivo ablaufender biochemischer Reaktionen dar und stehen in enger Abhängigkeit zu Vorgängen, welche auf der Ebene von Transkriptom und Proteom gesteuert und ermöglicht werden. In dieser Arbeit wurden Zeitreihen von Metabolitkonzentrationen untersucht, welche im Rahmen von Fermentationsexperimenten mit dem nicht-pathogenen Bodenbakterium Corynebacterium glutamicum erfasst worden sind. Die Fermentationsexperimente wurden auf unterschiedlichen Ausgangssubstraten durchgeführt, wobei die Erfassung der Metabolitkonzentration in äquidistanten zeitlichen Abständen gehandhabt wurde. Zur Korrektur von Messfehlern und zur optimalen Vorverarbeitung der Daten wurde ein maßgeschneidertes System der Datenprozessierung entwickelt. Eine unüberwachte Datenstrukturanalyse ergab, dass sich die Metaboliten ihrer zeitlichen Ausprägung nicht uniform oder gar zufällig verhalten, sondern sich in Gruppen unterschiedlichen Prozessverhaltens einordnen lassen. Diese unüberwachte Eingruppierung anhand der in den Zeitreihen vorhandenen Strukturen erlaubte eine erste grundlegende funktionelle Zuordnung der Metaboliten. Weiterhin konnten in den Konzentrationsdaten Strukturen gefunden werden, welche deutliche Übereinstimmungen mit den physiologischen Phasen des bakteriellen Wachstums zeigten. Die Analyse der Metabolomdaten wurde in einem nächsten Schritt durch eine theoretische Betrachtungsweise erweitert. Hierzu wurde der Stoffwechsel von C. glutamicum rechnergestützt modelliert. Zu diesem Zweck wurde eine Genomannotation durchgeführt, mit dem Ziel einen möglichst umfangreichen und qualitativ hochwertigen Katalog über das enzymatische Repertoire von C. glutamicum aus Sequenzinformation abzuleiten. Generiertes Wissen über vorhandene Enzyme wurde in biochemische Reaktionen übersetzt, welche zu Reaktionsnetzwerken zusammengefügt wurden. Die erzeugten Reaktionsnetzwerke wurden unter Verwendung graphentheoretischer Ansätze analysiert. Die integrative Analyse experimenteller und theoretischer Daten ergab, dass sich Eigenschaften von Metabolitzeitreihen deutlich topologischen Merkmalen zuordnen lassen. So zeigt sich beispielsweise, dass ein auffälliger Zusammenhang zwischen der experimentell erfassten Sensitivität im Konzentrationsverlauf eines Metaboliten und seinem theoretischen Verknüpfungsgrad existiert. Weiterhin konnte gezeigt werden, dass eine hochsignifikante Prozessähnlichkeit zwischen Metaboliten sowohl in direkter Nachbarschaft als auch in größeren Reaktionsabständen auftreten kann, jedoch vorzugsweise dann existiert, wenn beide Metaboliten ihrerseits wenige Reaktionspartner haben. Die integrative Datenanalyse wurde in einem weiteren Schritt abermals erweitert, indem Transkriptominformation weiterer Studien integriert wurde. Im Detail wurde in dieser Analyse die Prozessähnlichkeit theoretisch benachbarter Metaboliten des Zentralstoffwechsels in Zusammenschau mit der Transkription enzymkodierender Gene untersucht. Die Ergebnisse zeigten deutlich, dass eine erhöhte Prozessähnlichkeit benachbarter Metaboliten dann existiert, wenn die entsprechenden enzymkodierenden Gene in Abhängigkeit des verwendeten Ausgangssubstrates signifikant exprimiert waren. Somit konnte ein Zusammenhang zwischen der Prozessähnlichkeit benachbarter Metaboliten in Abhängigkeit zur Genexpression als Resultat substratinduzierter Anpassungsvorgänge gezeigt werden. Es konnte folglich im systembiologischen Kontext belegt werden, dass auf der Ebene des Transkriptoms stattfindende Vorgänge sich deutlich bis in die Zeitreiheneigenschaften erfasster Metabolitkonzentrationen durchpausen können. Darüber hinaus zeigte sich, dass die Berechnung paarweiser Prozessähnlichkeiten das Potenzial zur Charakterisierung der zugrundeliegenden Systemeigenschaften besitzt. So ermöglichte die Betrachtung paarweiser Prozessähnlichkeiten aus allen untersuchten Fermentationsexperimenten, signifikante substrat-induzierte Veränderungen als auch invariante Merkmale im Stoffwechsel von C. glutamicum zu detektieren.
Die vorliegende Arbeit umfasst ein Modell der Zusammenhänge zwischen Führungsverhalten und psychologischen Kontrakten als Einflussfaktoren mitarbeiterbezogener Einstellungen. Auf Seiten der Konsequenzen liegt der Fokus insbesondere auf der Entgeltzufriedenheit der Mitarbeiter. Jede der drei in der Dissertation dargestellten Studien trägt zu dem Verständnis bei, wie sich das Führungsverhalten und psychologische Kontrakte auf die Entgeltzufriedenheit auswirken. Die erste Studie stellt den Zusammenhang zwischen transformationaler Führung und Arbeits- und Entgeltzufriedenheit sowie dem Commitment in den Vordergrund. Zusätzlich wird untersucht, inwiefern der Effekt des Führungsverhaltens durch verschiedene Formen des psychologischen Kontrakts vermittelt wird. Auf Basis dieser Ergebnisse wird in einer zweiten Studie geprüft, inwiefern Entgeltzufriedenheit als multidimensionales Konstrukt betrachtet werden kann. Ferner wird transformationales mit transaktionalem Führungsverhalten kontrastiert, um deren differentielle Effekte zu analysieren. In einer dritten Studie werden die kausalen Beziehungen fokussiert, indem eine Stichprobe von 169 Mitarbeitern aus acht caritativen Unternehmen, in denen leistungsabhängige Vergütungssysteme implementiert wurden, analysiert wird. Zusammenfassend zeigen die Ergebnisse, dass die perzeptuellen Variablen Führung und psychologische Kontrakte als entscheidende Einflussfaktoren der Entgeltzufriedenheit dienen. Eine Diskussion der theoretischen und praktischen Implikationen schließt die Arbeit ab.
Large scale non-parametric applied shape optimization for computational fluid dynamics is considered. Treating a shape optimization problem as a standard optimal control problem by means of a parameterization, the Lagrangian usually requires knowledge of the partial derivative of the shape parameterization and deformation chain with respect to input parameters. For a variety of reasons, this mesh sensitivity Jacobian is usually quite problematic. For a sufficiently smooth boundary, the Hadamard theorem provides a gradient expression that exists on the surface alone, completely bypassing the mesh sensitivity Jacobian. Building upon this, the gradient computation becomes independent of the number of design parameters and all surface mesh nodes are used as design unknown in this work, effectively allowing a free morphing of shapes during optimization. Contrary to a parameterized shape optimization problem, where a smooth surface is usually created independently of the input parameters by construction, regularity is not preserved automatically in the non-parametric case. As part of this work, the shape Hessian is used in an approximative Newton method, also known as Sobolev method or gradient smoothing, to ensure a certain regularity of the updates, and thus a smooth shape is preserved while at the same time the one-shot optimization method is also accelerated considerably. For PDE constrained shape optimization, the Hessian usually is a pseudo-differential operator. Fourier analysis is used to identify the operator symbol both analytically and discretely. Preconditioning the one-shot optimization by an appropriate Hessian symbol is shown to greatly accelerate the optimization. As the correct discretization of the Hadamard form usually requires evaluating certain surface quantities such as tangential divergence and curvature, special attention is also given to discrete differential geometry on triangulated surfaces for evaluating shape gradients and Hessians. The Hadamard formula and Hessian approximations are applied to a variety of flow situations. In addition to shape optimization of internal and external flows, major focus lies on aerodynamic design such as optimizing two dimensional airfoils and three dimensional wings. Shock waves form when the local speed of sound is reached, and the gradient must be evaluated correctly at discontinuous states. To ensure proper shock resolution, an adaptive multi-level optimization of the Onera M6 wing is conducted using more than 36, 000 shape unknowns on a standard office workstation, demonstrating the applicability of the shape-one-shot method to industry size problems.
Die Verwendung von unbestimmten Rechtsbegriffen bereitet Schwierigkeiten bei der Anwendung und gefährdet die Rechtssicherheit. In vielen Rechtsnormen des Umweltrechts (u. a. UVPG) findet der unbestimmte Rechtsbegriff "voraussichtliche erhebliche Umweltauswirkungen" Verwendung. In dieser Arbeit wird ein Beitrag zur Konkretisierung dieses Begriffes im Rahmen der strategischen Umweltprüfung (SUP) geleistet. Dabei wird ein interdisziplinärer Forschungsansatz gewählt, der durch juristische, wie naturwissenschaftliche Methodik geprägt ist und dazu beiträgt das Schutzgut der Biodiversität genauer zu bestimmen. Dazu wird zunächst auf juristischer Ebene geprüft, ob aus dem UVPG sowie weiteren Rechtsnormen des Umweltrechts Informationen zur Konkretisierung dieses Begriffes zu gewinnen sind. Hiernach ergibt sich, dass der Erheblichkeitsbegriff insbesondere dazu dient, Bagatellfälle auszuklammern und Angleichungen zwischen den Rechtsnormen zu erreichen. Da die SUP seit 2005 geltendes Recht ist, ist es wichtig zu sehen, wie in der Gutachtenpraxis mit diesem unbestimmten Rechtsbegriff umgegangen wird. Daher sind vier Umweltberichte gemäß -§14g Satz 2 Nr.5 UVPG überprüft worden. Es stellte sich heraus, dass die Umweltberichte weder in der Lage sind die voraussichtlichen erheblichen Umweltauswirkungen zu Konkretisieren, noch wie es vom UVPG gemäß -§14g Satz 2 Nr.3 UVPG gefordert wird das Schutzgut der Biodiversität hinreichend darzustellen. Aus naturwissenschaftlicher Sicht wurden zunächst natürliche und anthropogene Auswirkungen auf die Biodiversität geprüft, um so die Faktoren zu ermitteln, die die Biodiversität besonders negativ zu beeinflussen vermögen. Demnach gilt es die Faktoren Habitatfragmentierung, Angleichungsprozesse (Biotic homogenization) und Intensität der Landnutzung im Rahmen der SUP frühzeitig zu vermeiden. Die "Convention of Biodiversity" zählt neben den Arten und Landschaften auch die genetische Ebene zum Begriff der Biodiversität. So ist es sinnvoll auch genetische Aspekte in die Schadensbewertung zu integrieren. Daher wurden in einer phylogeographischen Analyse die zwei Genorte Cytochrom Oxidase I und die Control Region der mtDNA des silbergrünen Bläuling, Polyommatus coridon (30 Populationen) untersucht. Es konnte gezeigt werden, dass genetische Analysen zwar wichtige Informationen für die Konkretisierung des unbestimmten Rechtsbegriffes liefern, aber dennoch mit Vorsicht diesbezüglich zu behandeln sind. Letztendlich stellte sich heraus, dass die Konkretisierung des unbestimmten Rechtbegriffes der voraussichtlichen erheblichen Umweltauswirkungen sich im Rahmen der strategischen Umweltprüfung mehr als schwierig und in Hinblick auf der Konzeption der SUP wenig sinnvoll erweist.
Von erinnerungsinduziertem Vergessen wird gesprochen, wenn die Gedächtnisleistung für bestimmte Information dadurch beeinträchtigt wird, dass zu ihr assoziierte Information zuvor abgerufen wurde. Die vorliegende Arbeit beschäftigt sich mit Effekten von Generierung und Selbstreferenz, die aus der Gedächtnisforschung als meist günstige Arten der Enkodierung bekannt sind, auf dieses Phänomen. Die bislang weitgehend vernachlässigt gebliebenen Gemeinsamkeiten von Generierung und Selbstreferenz sind der Ausgangspunkt für die Prüfung von Hypothesen über das Ausmaß erinnerungsinduzierten Vergessens generierter und selbstreferentiell enkodierter Items und dessen Moderation durch die Stimulusqualität der emotionalen Tönung von Items. Dabei wird auch eine funktionale Perspektive eingenommen, nach der erinnerungsinduziertes Vergessen als Ergebnis eines adaptiven Mechanismus verstanden wird und gefragt wird, nach welchen selbstdienlichen und handlungsrelevanten Funktionen erinnerungsinduziertes Vergessen verhindert werden mag und wie solche Funktionen mit verschiedenen Informationsverarbeitungsprozessen assoziiert sind.rnNachdem zunächst Enkodierungsprozesse und gespeicherte mentale Repräsentationen als Determinanten des Erinnerns, sowie die bisherige Forschung zu erinnerungsinduziertem Vergessen, Generierung und Selbstreferenz dargestellt werden, werden vier eigene Experimente geschildert. In Experiment 1 findet sich eine kontraintuitive Intensivierung erinnerungsinduzierten Vergessens infolge von Generierung, die zugleich aber in Einklang mit bestehenden Theorien steht und diese stützt. Außerdem ergeben sich Hinweise auf eine mit Generierung assoziierte Funktion, die durch die Aktivierung selbstrelevanter Repräsentationen gekennzeichnet ist. Beginnend mit Experiment 2 wird dann das Vorhaben verfolgt, Generierung und Selbstreferenz direkt gegenüberzustellen. Während die Experimente 2 und 3 zwar die Generalität des Phänomens erinnerungsinduzierten Vergessens weiter bestätigen und dessen Beeinflussung durch die emotionale Tönung demonstrieren, aber noch keine Ergebnisse zu Tage fördern, die eine Bewertung hinsichtlich unterschiedlicher oder identischer Konsequenzen von Generierung und Selbstreferenz erlauben, zeigt Experiment 4 schließlich eine Äquivalenz der Effekte von Generierung und Selbstreferenz auf, die in der identischen Moderation erinnerungsinduzierten Vergessens durch diernemotionale Tönung besteht. Diese Äquivalenz wird als Beleg der mit beiden Arten der Enkodierung gleichermaßen assoziierten Funktion selbstrelevanter Informationsverarbeitung interpretiert.
Die Breite und Tiefe der zu bewältigenden Aufgaben der Unternehmensführung, der Grad und die Geschwindigkeit der Veränderung der Umwelt der Unternehmung, die Interdependenz von Entscheidungen und ein schier unüberschaubares Netzwerk von Wechselbeziehungen mit den, von den Aktivitäten der Unternehmung betroffenen Individuen und Gruppen resultieren in sich laufend verändernden Ausgangslagen für die Unternehmung und verleihen der Notwendigkeit eines Gestaltungs-, Lenkungs- und Entwicklungsrahmens für das erforderliche Wechselspiel von Stabilisierung und Wandel der Unternehmung ihre Aktualität und Bedeutung. Die Hauptaufgabe der Unternehmensführung im Spannungsfeld komplexer systeminterner und systemexterner Beziehungsgeflechte ist der Umgang und die Bewältigung der sich aus diesen Beziehungsgeflechten bzw. deren Wandel ergebenden Komplexität. Der Paradigmenwechsel von einem reduktionistischen Unternehmensführungsverständnis, welches sich auf die Lenkung der Unternehmung auf Basis monistischer Zielvorstellungen versteht hin zu einem systemisch-evolutorischen Unternehmensführungsverständnis, welches sich auf die Gestaltung und Entwicklung der Unternehmung aufgrund von pluralistischen Zielsystemen und multiplen Kausalitätsbeziehungen versteht, ist noch nicht vollzogen. Auch sieht sich die Unternehmensführung den, im Wettbewerb stehenden Prämissen der opportunistischen Management-Philosophie des Shareholder-Value-Ansatzes und der verpflichteten Management-Philosophie des Stakeholder-Value-Ansatzes gegenüber. Diese Transitionsphase in Wissenschaft und Praxis sieht ein "Ringen zweier Paradigmen um ihre Durchsetzung", wobei diese Entwicklungsdynamik vom Spannungsverhältnis zwischen Bewahrung und Proliferation geprägt ist. Das vorgelegte systemisch-koevolutionäre Modell der strategischen Unternehmensführung stellt einen solchen Beitrag zum Paradigmenwechsel in der Unternehmensführung hin zu einem systemisch-evolutorischen Unternehmensführungsverständnisses auf Basis einer verpflichteten Management-Philosophie dar. Das, auf den dargelegten erkenntnistheoretischen Grundannahmen, Beschreibung von Wirkungszusammenhängen und Handlungsheuristiken der betrachteten Fallstudie aufbauende Modell für die langfristig erfolgreiche Unternehmensführung wird als ein Erklärungsmodell einerseits, welches die Wirkungszusammenhänge erfassen und verstehen helfen soll, und ein Gestaltungsmodell andererseits, welches den Entscheidungsprozess unterstützen soll, verstanden. Die strategische Unternehmensführung - als Prozess der Orientierung und Animation verstanden - soll in diesem Zusammenhang die nachhaltige Sicherung und den Aufbau von Erfolgspositionen, sowie die Aufrechterhaltung der bestehenden Koalitionen bzw. Schaffung der Voraussetzungen für die Bildung zukünftiger, nutzenstiftender Koalitionen zur Sicherung der sinnvollen langfristigen Lebensfähigkeit der Unternehmung, ermöglichen. Die Strategieentwicklung im "10-Stufen-Strategiemodell" wird durch die Komplementarität von marktorientierten und ressourcen- bzw. fähigkeitenorientierten Prozessen und Ansätzen geprägt, um die Wettbewerbsfähigkeit der Unternehmung im Zeitalter der "Hypercompetition" und Streben nach dynamischen und differenzierenden Fähigkeiten zu entwickeln und nachhaltig zu sichern. Dieser Strategieentwicklungsprozess erhält seinen Rahmen durch ein übergelagertes Stakeholdermanagementsystem, welches die Anspruchsbefriedigung und Nutzenoptimierung aller relevanten Stakeholdergruppen zur nutzenstiftenden Verankerung der Unternehmung in seiner Stakeholderumwelt zum Ziel hat. Das so genannte "Strategic Corporate Social Performance Modell" gibt diesem Stakeholdermanagementsystem Namen, Orientierung, Prozesse und Kontrollinstrumente und soll die gegenseitige Anerkennung der Ansprüche der so unterschiedlichen Stakeholdergruppen ermöglichen und zur Sicherung der wirtschaftlichen Basis, zur Wertsteigerung der Unternehmung und der Steigerung der Nutzenbefriedigung aller relevanter Stakeholder führen.
Die vorliegende Arbeit untersucht zwei grundlegende Fragestellungen im Hinblick auf den Betrieb von Genbanken als Beitrag zur Sicherung der genetischen Diversität. Das erste Kapitel behandelt aus rechtlicher Sicht die juristischen Fragen nach dem Zugang zu genetischen Ressourcen, nach dem Ausgleich aus der Nutzung entstehender Vorteile (Access and Benefit Sharing, ABS) und nach den Möglichkeiten des Handels mit Proben gefährdeter Tierarten, dies sowohl im Hinblick auf die rein wissenschaftliche Forschung als auch in Bezug auf kommerziell orientierte Zwecke. Grundlegend für die Bearbeitung dieser Fragen war die detaillierte Betrachtung des Übereinkommens über die biologische Vielfalt (CBD) und des Übereinkommens über den internationalen Handel mit gefährdeten Arten freilebender Tiere und Pflanzen (CITES). Da das CBD im Hinblick auf den Zugang zu genetischen Ressourcen in der Bundesrepublik Deutschland bisher nicht umgesetzt ist, bleibt dem Betreiber einer Genbank zur rechtlichen Absicherung und Klarheit nur die Aushandlung von Materialübertragungsverträgen mit den Ursprungsländern der genetischen Ressourcen. Der nachfolgende Handel mit gelagerten Proben gefährdeter Tierarten ist möglich, wenn dies nicht-kommerziell zur wissenschaftlichen Forschung erfolgt und die beteiligten Institutionen bei ihren Regierungen als wissenschaftliche Institutionen registriert sind. Bei kommerziellen Absichten unterliegt der Handel streng den durch das CITES vorgegebenen Regulierungen. Ausnahmen des Handelsverbotes sind möglich, z.B. dann wenn es sich um Proben von Tieren handelt, die in Gefangenschaft gezüchtet worden sind. Das zweite Kapitel behandelt aus naturwissenschaftlicher Sicht die Möglichkeit der direkten Gewinnung genetischer Materialien von Tieren. Hierbei wurde die Isolierung adulter Stammzellen aus der Haut von Säugetieren als Zielzellen zur Lagerung in Genbanken fokussiert. Am Modellorganismus Hausschwein (Sus scrofa domestica) wurde eine Methode zur Isolation adulter stammzellähnlicher Zellen aus der Haut etabliert. Durch nachfolgende Laborversuche wurden die isolierten stammzellähnlichen Zellen (pSSCs, porcine skin derived stem cell-like cells) charakterisiert. Wie mesenchymale Stammzellen haben pSSCs eine fibroblasten-ähnliche Morphologie und exprimieren die Oberflächenproteine CD9, CD29, CD44 , CD105 und sehr gering CD90. Neben diesen konnte die Expression der stammzellasoziierten Gene Stat3, Oct3/4, Sox2, Nestin, Bcrp1/ABCG2 und Bmi1 nachgewiesen werden. Weitere Versuche zeigten die induzierte Differenzierung der pSSCs zu Zellen zweier embryonaler Keimblätter, dem Ektoderm (Neuronen, Astrozyten) und dem Mesoderm (glatte Muskelzellen und Adipozyten). Zur vollständigen Charakterisierung und gänzlichen Ermittlung des Differenzierungspotentials bedarf es allerdings weiterer Versuche, die wegen der Kostspieligkeit und einem erhöhten zeitlichen Aufwand hier nicht realisierbar waren. Die Expansion und die Kryokonservierung der pSSCs zeigten geringfügige Auswirkungen auf den Phänotyp und das Differenzierungspotential. In Bezug auf die Kryokonservierung konnte wegen der geringen Anzahl an Versuchen eine definitive Aussage über ihre Folgen nicht getroffen werden. Folglich bedarf es weiterer Untersuchungen zur Ermittlung der Auswirkungen der Kryokonservierung auf adulte Stammzellen, die aus der Haut gewonnen werden können. Durch ihre Lagerung in Genbanken eröffnen aus der Haut isolierbare Stammzellen neue Möglichkeiten für den Artenschutz, dies vor allem durch ihre Anwendbarkeit im Rahmen modernster Reproduktionsmethoden und als nahezu unendliche DNA-Quelle für phylogenetische Studien, die zum Populationsmanagement unerlässlich sind. Trotz der sich aus dieser Arbeit ergebenden neuen Fragen - im Hinblick auf den Zugang, die Gewinnung und auch die Lagerung genetischer Materialien gefährdeter Tierarten -, bleibt festzuhalten, dass Genbanken generell die Möglichkeit bieten, vitales, biologisches Material bereitzuhalten. Dies ist sowohl bedeutend für die Grundlagenforschung als auch für den Einsatz dieser Materialien zur Steigerung der Reproduktion gefährdeter Arten, letztlich mit dem Ziel, genetische Variationen zu erhalten, die anderenfalls verloren gehen würden.
Reisen ist zum Spiegelbild einer Welt in Bewegung und ihrer Beschwörung grenzenloser Mobilität geworden. Dabei geht es nicht nur um die konkrete Bewegung zwischen Orten, sondern auch um das damit verbundene Bedeutungsnetzwerk, jene Imaginationen und Narrationen, die die Orte als Heimat und Ferne, Provinzen oder Urlaubsparadiese, Flucht- oder Treffpunkte erst entstehen lassen. Der vorliegende Band bietet einen multiperspektivischen Blick auf diese Topologien des Reisens, die utopische wie dystopische Raum- und Identitätsentwürfe evozieren. Neben geographischen und tourismuswissenschaftlichen Überlegungen zur Gestaltung und Nutzung von konkreten Tourismusräumen versammelt er vor allem kunst- und literaturwissenschaftliche Reflexionen über die Darstellung von Heimat und Fremde in Kunst und Literatur wie auch ethnologische Studien über das Leben spezifischer Personengruppen in der Migration. Häufig werden dabei Fragestellungen aus Postcolonial und Gender Studies zugrunde gelegt, die neben der politischen Dimension des Reisens auch die perspektivische Engführung bisheriger Erklärungsansätze aufzeigen, die beispielsweise in der analytischen Trennung von Reiseformen und Akteursperspektiven sowie in der Ignoranz gegenüber bestimmten Reiseformen ihren Ausdruck fand. rnSo steht der Band nicht nur für die Vielfalt an zeitgenössischen Reiseformen und -imaginationen im Zeitalter von Massentourismus, Migration und Virtualisierung, sondern auch für eine andere, theoretisch wie empirisch kritische Betrachtung eines globalen Phänomens. Inhalt: Alexandra Karentzos, Alma-Elisa Kittner, Julia Reuter Einleitung: Topologien des Reisens Julia Reuter Einleitung: Tourismus und Migration Andreas Ackermann Reisende Kulturen? Das Konzept der Diaspora in den Kulturwissenschaften, illustriert am Beispiel der Yeziden Jacqueline Knörr Vom "Expat Brat" in Afrika zum "Third Culture Kid" in Deutschland Ramona Lenz Migration und Tourismus als Gegenstand wissenschaftlicher und künstlerischer Projekte Alexandra Karentzos, Alma-Elisa Kittner Einführung: Holiday in Art - Kunst und Tourismus Christian Kravagna The Artist as Traveller. Aus den Reisealben der (Post-)Moderne Peter Schneemann "Miles and More". Welterfahrung und Weltentwurf des reisenenden Künstlers in der Gegenwart Hanna Büdenbender Massimo Vitali: Traumstrand versus Touristenmassen Thomas Küpper Einführung: Reisen in die heile Welt Ute Dettmar Berge voll Glück. Literarische Wege ins Reiseparadies Schweiz Christiane Holm Hier und Jetzt. Zur "Heilen Welt" in Reisetagebüchern und Weblogs von Frauen Peter Gendolla Phantome des Südens. Zur utopischen Differenz der Literatur im virtuellen Raum. Karlheinz Wöhler Tourismusräume: Virtualisierung des Realen - Realisierung des Virtuellen Viktoria Schmidt-Linsenhoff, Dorothea Coskun Einführung: Wandernde Objekte. Die Bedeutung der Mobilität der Dinge Gabriele Genge Grand Tour der reisenden Objekte: Performative Strategien in der afrikanischen Gegenwartskunst Jens Baumgarten Transformation asiatischer Artefakte in brasilianischen Kontexten
The catechol-O-methyltransferase gene (COMT) plays a crucial role in the metabolism of catecholamines in the frontal cortex. A single nucleotide polymorphism (Val158Met SNP, rs4680) leads to either methionine (Met) or valine (Val) at codon 158, resulting in a three- to fourfold reduction in COMT activity. The aim of the present study was to assess the COMT Val158Met SNP as a risk factor for attention-deficit/hyperactivity disorder (ADHD), ADHD symptom severity and co-morbid conduct disorder (CD) in 166 children with ADHD. The main finding of the present study is that the Met allele of the COMT Val158Met SNP was associated with ADHD and increased ADHD symptom severity. No association with co-morbid CD was observed. In addition, ADHD symptom severity and early adverse familial environment were positive predictors of lifetime CD. These findings support previous results implicating COMT in ADHD symptom severity and early adverse familial environment as risk factors for co-morbid CD, emphasizing the need for early intervention to prevent aggressive and maladaptive behavior progressing into CD, reducing the overall severity of the disease burden in children with ADHD.
Although it has been demonstrated that nociceptive processing can be modulated by heterotopically and concurrently applied noxious stimuli, the nature of brain processes involved in this percept modulation in healthy subjects remains elusive. Using functional magnetic resonance imaging (fMRI) we investigated the effect of noxious counter-stimulation on pain processing. FMRI scans (1.5 T; block-design) were performed in 34 healthy subjects (median age: 23.5 years; range: 20-31 yrs.) during combined and single application (duration: 15 s; ISI=36 s incl. 6 s rating time) of noxious interdigital-web pinching (intensity range: 6-15 N) and contact-heat (45-49 -°C) presented in pseudo-randomized order during two runs separated by approx. 15 min with individually adjusted equi-intense stimuli. In order to control for attention artifacts, subjects were instructed to maintain their focus either on the mechanical or on the thermal pain stimulus. Changes in subjective pain intensity were computed as percent differences (∆%) in pain ratings between single and heterotopic stimulation for both fMRI runs, resulting in two subgroups showing a relative pain increase (subgroup P-IN, N=10) vs. decrease (subgroup P-DE, N=12). Second level and Region of Interest analysis conducted for both subgroups separately revealed that during heterotopic noxious counter-stimulation, subjects with relative pain decrease showed stronger and more widespread brain activations compared to subjects with relative pain increase in pain processing regions as well as a fronto-parietal network. Median-split regression analyses revealed a modulatory effect of prefrontal activation on connectivity between the thalamus and midbrain/pons, supporting the proposed involvement of prefrontal cortex regions in pain modulation. Furthermore, the mid-sagittal size of the total corpus callosum and five of its subareas were measured from the in vivo magnetic resonance imaging (MRI) recordings. A significantly larger relative truncus size (P=.04) was identified in participants reporting a relative decrease of subjective pain intensity during counter-stimulation, when compared to subjects experiencing a relative pain increase. The above subgroup differences observed in functional and structural imaging data are discussed with consideration of potential differences in cognitive and emotional aspects of pain modulation.
Allergische Kontaktdermatitis ist eine zellvermittelte verzögerte Überempfindlichkeitsreaktion auf niedermolekulare Substanzen, die häufig Hautreaktionen hervorrufen und dadurch sowohl persönliche als auch berufliche Probleme verursachen. Chemikalien wie para-Phenylendiamin (PPD) und andere verwandte para-Aminobenzole werden häufig in Farben eingesetzt und erlangen aufgrund ihrer starken Allergenität eine immer größere Aufmerksamkeit. Bis jetzt ist das Wissen über zelluläre Immunantworten auf PPD nur begrenzt verstanden. In dieser Studie haben wir das immunmodulatorische Potential vonrnPPD untersucht, vor allem hinsichtlich der Fragestellung, ob PPD selber naive T-Zellen sensibilisieren kann oder ob PPD letztendlich nur ein Allergen ist. In Anbetracht der Tatsache das dendritische Zellen (DZ) eine vorherrschende Rolle bei der allergischen Kontaktdermatitis spielen, haben wir untersucht, in wie weit PPD in der Lage ist, funktionelle Reifung zu modulieren. Um abschätzen zu können, welcher Anteil an PPD nach der Stimulation zur potentiellen Aktivierung tatsächlich zur Verfügung steht, haben wir die metabolische Kompetenz von "monocyte derived dendritic cells" (MoDC) untersucht, PPD zurnacetylieren. Dazu haben wir die N-Acetyltransferase 1 (NAT-1) und N-Acetyltransferase 2(NAT-2) mRNA Expression charakterisiert und weitergehend die metabolische Aktivität von NAT-1 Enzym bestimmt. Mit diesen Versuchen konnten wir zeigen, dass MoDC von 9 aus 10 Spendern das NAT-1 Enzym exprimieren und konnten in 4 von 6 Spendern acetyliertes PPD in Extrakten aus Zellkulturüberständen detektieren. In Anbetracht der Tatsache, dassrnacetyliertes PPD nicht in der Lage ist, MoDC zu aktivieren, können wir davon ausgehen,dass der Anteil an acetyliertem PPD zur DC Aktivierung nicht zur Verfügung steht. Um das sensibilisierende Potential von PPD herauszufinden, haben wir nach Stimulation mit verschiedenen PPD Konzentrationen die Expression von Oberflächenmolekülen, die für die Antigenpräsentation, Co-Stimulation, späte Migration und dendritische Zell-/T-Zell-Wechselwirkung entscheidend sind, zu verschiedenen Zeitpunkten mittels Durchflusszytometrie Messungen (FACS) gemessen. Zusammengefasst konnten wir zeigen,dass PPD signifikant die "chemokine receptor 7" (CCR7) Expression und nicht signifikant die "human leukocyte antigen " DR" HLA-DR, "DC-specific C-type lectin intercellular adhesion molecule-3-grabbing nonintegrin" (DC-SIGN) und "cluster domain" 11c (CD11c) Expression erhöht. Die erhöhte CCR7 Expression ermutigte uns, weiter nachzuforschen, ob PPD trotz der Tatsache, dass es keine traditionelle CD80 und CD86 Expression induzieren kann, fähig ist, DCs zu aktivieren. Ausgiebige Zytokinkinetikmessungen konnten diese Hypothese bestätigen. Mit Cytometric Beat Array (CBA) Messungen konnten wir gleichzeitig Mediatoren wie "Interleukin -1ß" (IL-1ß), "tumor necrosis factor-alpha" (TNF-α), IL-8, IL-6, IL-12P70 undrnIL-10 messen und damit demonstrieren, dass PPD in der Lage ist, bei allen Spendern "Danger Signals" zu induzieren. Zudem konnten wir zeigen, dass die PPD induzierte Zytokinausschüttung interindividuell schwankte und zu unterschiedlichen Zeitpunkten erfolgte. Überraschenderweise war die qualitative Zusammensetzung der Zytokine vergleichbar. Während in 3 von 4 Spendern die Zytokinexpression eher schwach erhöht war und von kurzer Dauer, haben wir in einem Spender vor allem mit den Konzentrationen von 10μM und 50μM PPD verblüffend hohe Zytokinausschüttungen gemessen. Dieser Spenderrnscheint eine Person zu repräsetieren, die empfänglicher für eine PPD Sensibilisierung ist als andere. Unabhängig davon, hat uns die Tatsache, dass PPD in allen Spendern "Danger Signals", aber keine gesteigerte Expressionsrate von traditionellen Reifungsmarkern (mit Ausnahme von CCR7) induzierte, veranlasst zu untersuchen, ob PPD anderweitig fähig ist,in MoDC Immunantworten zu modulieren. Daraufhin haben wir den Einfluss von PPD aufrnaktivierte DCs gemessen und die Ergebnisse bestätigten die Annahme. Weiterhin konnten wir zeigen, dass PPD immunogenes Potential aufweist. Aufgrund der Tatsache, dass die LPS induzierten Signaltransduktionswege in MoDC gut charakterisiert sind, konnten wir mit dieser Studie zusätzlich Hinweise über die PPD induzierte Signalgebung liefern.
Der Radtourismus hat in den letzten 15 bis 20 Jahren eine dynamische Entwicklung genommen, die ihn zu einer wichtigen Tourismusart für viele Regionen in vor allem ländlich geprägten Regionen werden ließ. Die Konsequenz war und ist ein erheblicher Ausbau der radtouristischen Infrastruktur, die hauptsächlich aus öffentlichen Mitteln finanziert wurde. Die radtouristische Nachfrage umfasst in Deutschland - je nach zu Grunde gelegten Daten - zwischen 4,2 und 7,9 Mio. Bundesbürger. Dabei ist die Entwicklung dieser Nachfrage in den letzten Jahren eher stagnierend verlaufen, trotzdem steht ihr ein weiter wachsendes radtouristisches Angebot gegenüber. Die Frage, ob sich diese Investitionen über die durch den Radtourismus ausgelösten regionalwirtschaftlichen Effekte bezahlt machen, steht im Zentrum dieser Arbeit und wurde mit Hilfe einer empirischen Erhebung untersucht. Für das Bundesland Rheinland-Pfalz insgesamt konnte eine Spannweite von 4,2 bis 7,7 Mio. Radtouristen pro Jahr ermittelt werden, wovon zwischen 2,9 und 6,0 Mio. Tagesgäste sind. Auf Grund der während der Radurlaube getätigten Ausgaben lassen sich die durch den Radtourismus induzierten regionalwirtschaftlichen Effekte in einer Größenordnung von 275 Mio. € bis 327 Mio. € bestimmen, was rund 10% der gesamttouristischen Wertschöpfung in Rheinland-Pfalz entspricht. Werden die Investitionskosten für die vier untersuchten Radwege " Mosel-Radweg, Nahe-Radweg, Maare-Mosel-Radweg und Kraut und Rüben-Radweg " der jährlich auf diesen Wegen erzielten Wertschöpfung in Höhe von ca. 62 Mio. € gegenübergestellt, muss festgestellt werden, dass sich die Investitionen schon nach kurzer Zeit über die positiven, indirekten wirtschaftlichen Effekte in den Regionen bezahlt gemacht haben. Insgesamt gesehen stellt sich somit der Radtourismus als attraktives, wirtschaftlich tragfähiges touristisches Segment dar, welches in der Lage ist, auch in peripheren Regionen touristische Wertschöpfung zu erzeugen. Voraussetzung hierfür ist aber die Beachtung der dargestellten Anforderungen, welche die Nachfrage an das Produkt Radtourismus stellt und die Einhaltung von verschiedenen Qualitätsanforderungen. Erst wenn Radtourismus als Qualitätsprodukt verstanden wird, hinter dem auch die touristischen Leistungsträger einer Region stehen, kann Radtourismus zu einem wichtigen Wirtschaftsfaktor innerhalb einer Region entwickelt werden.
Interoception - the perception of bodily processes - plays a crucial role in the subjective experience of emotion, consciousness and symptom genesis. As an alternative to interoceptive paradigms that depend on the participants" active cooperation, five studies are presented to show that startle methodology may be employed to study visceral afferent processing. Study 1 (38 volunteers) showed that startle responses to acoustic stimuli of 105 dB(A) intensity were smaller when elicited during the cardiac systole (R-wave +230 ms) as compared to the diastole (R +530 ms). In Study 2, 31 diabetic patients were divided into two groups with normal or diminished (< 6 ms/mmHg) baroreflex sensitivity (BRS) of heart rate control. Patients with normal BRS showed a startle inhibition during the cardiac systole as was found for healthy volunteers. Diabetic patients with diminished BRS did not show this pattern. Because diminished BRS is an indicator of impaired baro-afferent signal transmission, we concluded that cardiac modulation of startle is associated with intact arterial baro-afferent feedback. Thus, pre-attentive startle methodology is feasible to study visceral afferent processing. rnVisceral- and baro-afferent information has been found to be mainly processed in the right hemisphere. To explore whether cardiac modulation of startle eye blink is lateralized as well, in Study 3, 37 healthy volunteers received 160 unilateral acoustic startle stimuli presented to both ears, one at a time (R +0, 100, 230, 530 ms). Startle response magnitude was only diminished at R +230 ms and for left-ear presentation. This lateralization effect in the cardiac modulation of startle eye blink may reflect the previously described advantages of right-hemispheric brain structures in relaying viscero- and baro-afferent signal transmission. rnThis lateralization effect implies that higher cognitive processes may also play a role in the cardiac modulation of startle. To address this question, in Study 4, 25 volunteers responded first by 'fast as possible' button pushes (reaction time, RT), and second, rated perceived intensity of 60 acoustic startle stimuli (85, 95, or 105 dB; R +230, 530 ms). RT was divided into evaluation and motor response time. Increasing stimulus intensity enhanced startle eye blink, intensity ratings, and RT components. Eye blinks and intensity judgments were lower when startle was elicited at a latency of R +230 ms, but RT components were differentially affected. It is concluded that the cardiac cycle affects the attentive processing of acoustic startle stimuli. rnBeside the arterial baroreceptors, the cardiopulmonary baroreceptors represent another important system of cardiovascular perception that may have similar effects on startle responsiveness. To clarify this issue, in Study 5, Lower Body Negative Pressure at gradients of 0, -10, -20, and -30 mmHg was applied to unload cardiopulmonary baroreceptors in 12 healthy males, while acoustic startle stimuli were presented (R +230, 530 ms). Unloading of cardiopulmonary baroreceptors increased startle eye blink responsiveness. Furthermore, the effect of relative loading/unloading of arterial baroreceptors on startle eye blink responsiveness was replicated. These results demonstrate that the loading status of cardiopulmonary baroreceptors also has an impact on brainstem-based CNS processes. rnThus, the cardiac modulation of acoustic startle is feasible to reflect baro-afferent signal transmission of multiple neural sources, it represents a pre-attentive method that is independent of active cooperation, but its modulatory effects also reach higher cognitive, attentive processes.rn
Auf der Grundlage von bodenphysikalischen Standortdaten wurden mit dem physikalisch basierten Modell CATFLOW Bodenwassergehalte und Abflussprozesse von verschiedenen Standorten im Mesozoikum der Trierer Bucht auf der Plotskale simuliert. Die Standorte unterscheiden sich durch das Ausgangssubstrat der Bodenbildung (lehmig-tonig, schluffig-sandig) und die Landnutzung (Acker, Grünland, Wald). Für die Modellvalidierung standen wöchentliche Bodenwassergehaltsmessungen, monatliche Sickerwassersummen aus Lysimetermessungen und Oberflächen- und Zwischenabflusskurven von Beregnungsversuchen zur Verfügung. Ziel der Arbeit ist es zu untersuchen, inwieweit Retentionseigenschaften, Abflussprozesse und Abflussmengen aus Standortdaten ohne eine weitere Kalibrierung des Modells abgeleitet werden können. Besonderer Wert wird dabei auf die Parametrisierung des Bodens gelegt. Das Modell simuliert den Wassertransport in der Bodenmatrix über die zweidimensionale Richardsgleichung und den schnellen Wassertransport in Makroporen über ein einfaches Bulk-Modell. Daneben werden Oberflächenrauhigkeit, Durchwurzelungstiefe und Vegetationsbedeckung im Jahresgang berücksichtigt. Um den Einfluss von unterschiedlichen Parametrisierungen des Bodens aufzuzeigen, werden verschiedene Parametrisierungsvarianten untersucht. Die van Genuchten/Mualem-Parameter, welche die Retentions- und Leitfähigkeitseigenschaften der einzelnen Bodenhorizonte beschreiben, wurden zum einen über die Bodenart und Trockenrohdichte bestimmt und zum anderen über die Anpassung von Retentionskurven an im Labor bestimmte Punkte der Wasserspannungskurve ermittelt. Die Ergebnisse der Simulationen für die Standorte mit Bodenfeuchtemessung zeigen, dass mit dem Modell der Jahresgang der Bodenfeuchte prinzipiell nachvollzogen werden kann. Jedoch führt keine der drei Parametrisierungsvarianten zu einer eindeutigen Überlegenheit bei der Simulationsgüte. Um neben den üblichen Gütemaßen ein weiteres Kriterium für den Erfolg oder Misserfolg einer Standortsimulation zu gewinnen, wurden die Simulationsergebnisse mit den Messwerten der anderen Standorte verglichen. An vier von zehn Standorten führt der Vergleich der Messwerte mit den Simulationen von anderen Standorten zu einer deutlich besseren Übereinstimmung als die Simulation für diesen Standort. Die Ergebnisse der Simulationen der Lysimeterstandorte zeigen, dass mit dem Makroporenansatz ein schneller Wasserfluss im Sommer nicht simuliert werden kann, da das "Anspringen" der Makroporen im Modellkonzept an den Bodenwassergehalt geknüpft ist. Auch hier wurden die Simulationsergebnisse mit den Messwerten der anderen Standorte verglichen. Für fünf von acht Standorten konnte mit den simulierten Sickerwassermengen von anderen Standorten eine bessere Übereinstimmung erzielt werden. Die Simulation der Sickerwassermenge aus Lysimetern scheint daher auf Grundlage der vorliegenden Datenbasis den jeweiligen Standort nicht in seiner Einzigartigkeit charakterisieren zu können. Die mit den Beregnungsversuchen bestimmten Abflussprozesse konnten für die Mehrheit der 18 Standorte mit dem Modell abgebildet werden. Der Oberflächenabfluss konnte für Standorte, die nicht zur Verschlämmung neigen, unter Berücksichtigung von Infiltrationsdaten sehr gut nachgezeichnet werden. Zwischenabfluss wird zwar simuliert, bleibt aber auf der Plotskale in Dynamik und Abflussmenge hinter dem Realsystem zurück. Mit der Untersuchung konnte gezeigt werden, dass sich sowohl die zeitliche Entwicklung des Bodenwassergehaltes, als auch die gemessenen Abflussprozesse allein über die Standortdaten, ohne eine weitere Kalibrierung des Modells, abbilden lassen. Die Trennschärfe der Modellierung ist bei Standorten mit relativ ähnlicher bodenphysikalischer Ausstattung begrenzt. Andererseits müssen aber auch Messungenauigkeiten, besonders bei der thermogravimetrischen Bestimmung des Bodenwassergehaltes, berücksichtigt werden. Eine standortbezogene Aussage über Retentions- und Abflussverhalten ist über eine Simulation möglich, jedoch bleibt die quantitative Aussagekraft begrenzt.
Diese Arbeit stellt eine Methodik zur Analyse kundenbezogener Arbeitsanforderungen personenbezogener Dienstleistungen am Beispiel der Verkäufertätigkeit im Einzelhandel vor. Eine Besonderheit der Arbeit ist die Einbeziehung des Kunden als Arbeitsanalytiker. Sie umfasst drei aufeinander aufbauende Studien. In der ersten Studie wurden mit Hilfe von Critical-Incident-Technique-Interviews mit Vorgesetzten (N = 35) und Verkäufern (N = 39) von drei Einzelhandelsvertriebsformen (Warenhaus, SB-Warenhaus, Supermarkt) sowie Kunden (N = 29) erfolgsrelevanten Verhaltensweisen von Verkäufern im Kontakt mit Kunden ermittelt. Darauf aufbauend wurde KAVEK V_VG/VK/K - ein Instrument zur Analyse kundenbezogener Arbeitsanforderungen und -aufgaben von Verkäufern im Einzelhandel " konzipiert und im Rahmen der zweiten Studie in den Stichproben der Vorgesetzten (N = 52), der Verkäufer (N = 157) und der Kunden (N= 511) der genannten Einzelhandelsvertriebsformen erprobt und validiert. Schließlich untersucht die dritte Studie Antezedenten kundenbezogener Arbeitsanforderungen sowie deren Effekte auf die arbeitsbezogenen Einstellungen und Befinden von Verkäufern (N = 155). Die Diskussion der Implikationen der Ergebnisse für die Forschung und Praxis schließt die Arbeit ab.
International private equity development is highly volatile with increasing global diversification. This thesis examines the transaction patterns of cross-border private equity investment with a particular focus on the affinity of country pairs. Analysis is based on a comprehensive dataset of 99 countries over 25 years. A three-dimensional gravity model analysis covering source and host country over time exposes the effects of the country determinants: economic mass, economic distance, banking system, corporate endowment, as well as legal, political, and institutional system on the transactions. A new method is developed to examine countries in their dual roles as investor and target. This approach verifies their global importance as source and host, and also makes possible an analysis of overall private equity investment. For private equity-specific multi-investor deals, a scheme is designed to measure cross-border activity with more precision by participation, proportional deal participation, and deal flow. The analysis identifies intense level of affinity between country pairs and reveals that no single country is ideal for private equity activity. Instead, the findings show that the specific push and pull factors within each country constellation define the optimal country as trading partner. The results verify a correlation between cross-border deals and economic masses and reduced economic distance of countries. Geographic distance and cultural similarities, such as language and legal system, intensify the likelihood of initiating transactions. International trade-oriented countries with a high level of development lower the entrance barriers and increase the chances of deal success. A well-funded financial system for the investor and an efficient and competitive banking system of target countries enhance the probability of investment between countries. Also relevant for the likelihood of starting cross-border deals are low corporate tax burdens and advanced scientific competitiveness, and a well-developed stock market in the investor country. Fundamental to frequency and likelihood of success are well-established, high standards of a country- social, political, and legal systems with widespread confidence in the rules of society. In particular, the reliability of contract enforcement, with proven quality of regulations that promote private sector development, proves to be crucial for deal success.
In this study, candidate loci for periodic catatonia (SCZD10, OMIM #605419) on chromosome 15q15 and 22q13.33 have been fine mapped and investigated. Previously, several studies found evidences for a major susceptibility locus on chromosome 15q15 and a further potential locus on 22q13.33 pointing to genetic heterogeneity. Fine mapping was done in our multiplex families through linkage and mutational analysis using genomic markers selected from public databases. Positional candidate genes like SPRED1 and BRD1, and ultra-conserved elements were investigated by direct sequencing in these families. The results narrow down the susceptibility locus on chromosome 15q14-15q15.1 to a region between markers D15S1042 and D15S968, as well as exclusion of SPRED1 and ultra-conserved elements as susceptibility candidates. Fine mapping for two chromosome 23q13.33-linked families showed that the recombination events would place the disease-causing gene to a telomeric ~577 Kb interval and SNP rs138880 investigation revealed an A-allele in the affected person, therefore excludes BRD1 as well as confirmed MLC1 to be the candidate gene for periodic catatonia.
In Beloved, Jazz and Paradise, Toni Morrison negotiates ways of individual and collective identity formation through figurations of space and trauma. In geographical spaces that are public and private, open and closed, inclusive and exclusive, space of the past and spaces of the present, Morrison writes discursive spaces in which to create individual and communal African American history and identity, based on the traumatic hi-stories at the core of the Black American experience: the Middle Passage, slavery, Jim Crow and the Civil Rights Movement, just to name a few. In the three novels, Toni Morrison subscribes to a postmodern notion of space and place, presenting it as relative to the individual- frame of mind. Places are used as metonymies for the protagonists" traumatized minds and their different ways of dealing with trauma. Trauma that is not worked through and transcended is presented by Morrison as impacting the protagonists- ability to fashion a home out of a vast and often hostile space. The physical and mental space of Morrison- protagonists is occupied by historical traumata that disables the protagonists to find a place in the present without revisiting the places of their troubled past. While this burdens their lives, it also opens up a historical and metahistorical discourse that allows the revision of mainstream historiography to include minority histories of oppression and trauma. Morrison reconfigures the American historical landscape by emphasizing the subjectivity of any history and offering alternatives to historical grand narratives through her historiographic metafiction. All three novels explore the possibility of reconciliation between past trauma and present life. Doing so requires Morrison to send her protagonists on strenuous journeys through time and space in order to visit the past trauma that keeps them from making a home in the here and now. The protagonists venture back to the primal scenes that bear major significance for their lives but have been suppressed for being too painful to remember. Their pain thus awakens anew, but out of it grow the possibility of a life in the present and the hope for a future. The pasts Morrison thus digs up serve as anchors to situate the African American place in the American historical landscape. Those primal places have a geographical as well as a historical and psychological quality, as places in Morrison- novels are often used as metonymies for the protagonists" traumatized minds, containing the memory of the traumatic past. By spatializing time, Morrison makes history accessible to a communal working through, thus countering the modernist impulse to treat memory as a private faculty embedded in the individual- psyche. This makes it difficult, for African Americans with individual recollections of slavery and racist oppression for example, to use traumatic memory as the basis for a common sense of identity. Morrison uses spatialized time as a forum to discover this basis, to allow for the establishment of a common historical bond. At the same time, she warns against instrumentalizing a common history to exclude those who do not share it. Any history, for Morrison, should be open and flexible enough to accommodate different perspectives. Essentially, Morrison suggests that western historiography is a discursive construct. By allowing, in all three novels, a polyphonic weaving of different equal histories to destablize a single, authoritative, hegemonic historiography, Morrison gives African Americans the power to construct her own past, her own present, and thereby claim back her identity. Moreover, Morrison destabilizes the duality of private space and public space that has long served to distinguish subjective individual memory from objective communal history and thus to legitimize certain accounts of history at the expense of others. The gendered as well as the racial other, by virtue of being excluded from the public sphere, have been excluded from their own historicization. By opening up the private sphere of personal trauma and loss, Morrison spatializes personal memory in a way that it forms a parallel public sphere in which African Americans may negotiate their historicity, move out of the timelessness of the private into the historicized public. By opening up the traditionally private sphere of the home to the public and turning it into a deeply political place, Morrison redefines home in a way that it does not necessarily conform to the classic view of a closed-off shelter but rather a transient place with flexible boundaries that allows for the formation of liberated individual and communal identities out of (hi)stories of pain and trauma.
Zehn Jahre nach dem Beginn des Eurosystems haben die beteiligten Euro-Zentralbank den Umfang ihrer Gold- und Devisenreserven in der Summe nahezu beibehalten. Hingegen wurde vor der Euro-Einführung erwartet, dass die Europäische Währungsunion einen substanziellen Abbau des Reservevolumens begünstigt. Vor diesem Hintergrund hat die Arbeit das Ziel,die Haltung von Währungsreserven im Eurosystem zu analysieren, deren Höhe, Struktur und Management zu prüfen und strategische Optionen für eine Optimierung aufzuzeigen. Im Ergebnis lässt sich ein signifikanter Abbau von Währungsreserven sowie eine Neuausrichtung im Management der Reservebestände hinsichtlich deren Struktur und Verwaltung begründen. Exemplarisch für das Notenbanksystem der Eurozone werden hierzu die Reservepolitiken der Europäischen Zentralbank und der Deutschen Bundesbank als Fallstudien ausführlich untersucht und Vorschläge für eine Optimierung dieser volkswirtschaftlichen Vermögensbestände aufgezeigt.
Zurzeit werden gesundheitliche Auswirkungen von Mobilfunkstrahlung auf den Menschen kontroversiell diskutiert. Die vorliegende Arbeit untersuchte mögliche Auswirkungen auf Befindlichkeit und psychische Variablen in zwei Studien. Es zeigte sich ein Trend bei einer Variable, es gab jedoch keine signifikanten Effekte. Bei den nicht-experimentellen Befunden wiesen Anrainer von Mobilfunksendeanlagen (self-rater) höhere psychische Belastung auf.
One mechanism underlying the acquisition of interpersonal attitudes is the formation of an association between a valenced unconditioned stimulus (US) and an affectively neutral conditioned stimulus (CS). However, a stimulus (e.g., a person) is not always and necessarily perceived to be unambiguously positive or negative. An individual can be negative regarding abstract (trait) information but at the same time display a positive (concrete) behavior. The present research deals with the question of whether the valence of abstract or concrete information about a US is encoded and subsequently transferred to an associated CS. The central assumptions are that the valence of the concrete information is more important for the evaluation of the US, whereas the abstract information is more important for the evaluation of the CS. The rationale behind these assumptions is that the US is a psychologically proximal stimulus because it elicits a more direct affective reaction. The CS, however, is psychologically more distal because it is merely associated with the US and is therefore only experienced indirectly. It is postulated that the associative relation between US and CS constitutes a dimension of psychological distance. In four studies, the valence of abstract and concrete information about a number of USs was manipulated. Within an evaluative learning paradigm, these stimuli were associated with affectively neutral CSs. As predicted, ambivalent USs were evaluated according to the valence of the concrete information. The evaluation of CSs, however, was influenced more strongly by the valence of the abstract information. Moreover, in a subsequent lexical decision task, participants were faster to categorize abstract (vs. concrete) stimuli when the stimuli were preceded by a CS prime as compared to a US prime. The results provide first evidence that perceived psychological distance influences the evaluations of US and CS in an associative evaluative learning paradigm.
Ziel der vorliegenden Forschungsarbeit war es, den Einfluss des dispositionellen Bedürfnisses nach kognitiver Geschlossenheit (NCC) auf Entscheidungen unter Unsicherheit zu untersuchen. Es wurde vorhergesagt, dass NCC Entscheidungsphänomene moderiert, die sich durch unterschiedliche Ausmaße an Unsicherheit kennzeichnen. Um diese Annahme zu testen, wurden im Rahmen dreier Studien klassische Entscheidungsprobleme vorgegeben, die eine Wahl zwischen Entscheidungsalternativen mit unterschiedlichen Ausmaßen an Unsicherheit, aber gleichem Erwartungswert erforderten. Studien 1 bis 3 untersuchten den Einfluss des NCC auf den fundamentalen Ambiguitätsaversionseffekt im Ellsberg-Paradigma (Ellsberg, 1961). Hierzu wurde eine Adaption des klassischen Zwei-Farben-Urnenproblems vorgegeben, in dem eine Wahl zwischen einer Urne mit bekanntem Risiko und einer ambiguen Urne getroffen werden musste. Hypothesenkonform erwies sich NCC als signifikanter Prädiktor der Urnenwahl. Einzelanalysen zeigten, dass der Ambiguitätsaversionseffekt, der als Präferenz der bekannten (versus der ambiguen) Urne definiert ist, nur in der Gruppe mit hohem NCC auftrat. In der Gruppe mit niedrigem NCC zeigte sich keine systematische Präferenz. Dieser Effekt konnte in allen drei Studien nachgewiesen werden und erwies sich somit als besonders robust und reliabel. Zudem wurde in der dritten Studie der Einfluss des NCC auf Risikoframingeffekte im Asian-Disease-Paradigma untersucht. Hierbei mussten sich die Teilnehmer und Teilnehmerinnen zwischen einer sicheren und einer riskanten Option entscheiden, die in zwei kontextuellen Bedingungen dargeboten wurden: einem Gewinnframe und einem Verlustframe. Die Ergebnisse dieser Studie zeigten, dass sich Individuen mit einem hohen und einem niedrigen NCC in ihren Präferenzen in Abhängigkeit vom jeweiligen Problemframe unterschieden. In der Gruppe mit einem hohen NCC zeigte sich unter Gewinnframing eine starke Präferenz der sicheren Alternative (Risikovermeidung), wohingegen unter Verlustframing keine Option bevorzugt wurde. Individuen mit einem niedrigen NCC wiesen hingegen unter Gewinnframing keine systematische Präferenz auf, wohingegen sie unter Verlustframing stark die riskante Option bevorzugten. Zudem zeigte eine Betrachtung des Verhaltens über die untersuchten Entscheidungsprobleme hinweg, dass Individuen mit einer starken Ausprägung auf dieser Variablen dazu neigten, sich über die untersuchten Entscheidungssituationen hinweg konsistent zu verhalten. Insgesamt unterstützen die Ergebnisse die Annahme, dass NCC eine Persönlichkeitsvariable darstellt, die Entscheidungsverhalten unter Unsicherheit bedeutsam beeinflusst. Implikationen und Konsequenzen dieser Ergebnisse werden diskutiert.
The reduction of information contained in model time series through the use of aggregating statistical performance measures is very high compared to the amount of information that one would like to draw from it for model identification and calibration purposes. It is readily known that this loss imposes important limitations on model identification and -diagnostics and thus constitutes an element of the overall model uncertainty as essentially different model realizations with almost identical performance measures (e.g. r-² or RMSE) can be generated. In three consecutive studies the present work proposes an alternative approach towards hydrological model evaluation based on the application of Self-Organizing Maps (SOM; Kohonen, 2001). The Self-Organizing Map is a type of artificial neural network and unsupervised learning algorithm that is used for clustering, visualization and abstraction of multidimensional data. It maps vectorial input data items with similar patterns onto contiguous locations of a discrete low-dimensional grid of neurons. The iterative training of the SOM causes the neurons to form a discrete, data-compressed representation of the high-dimensional input data. Using appropriate visualization techniques, information on distributions, patterns and relationships in complex data sets can be extracted. Irrespective of their potential, SOM applications have earned very little attention in hydrological modelling compared to other artificial neural network techniques. Therefore, the aim of the present work is to demonstrate that the application of Self-Organizing Maps has very high potential to address fundamental issues of model evaluation: It is shown that the clustering and classification of model time series by means of SOM can provide useful insights into model behaviour. In combination with the diagnostic properties of Signature Indices (Gupta et al., 2008; Yilmaz et al., 2008) SOM provides a novel tool for interpreting the model parameters in the hydrological context and identifying parameter sets that simultaneously meet multiple objectives, even if the corresponding model realizations belong to different models. Moreover, the presented studies and reviews also encourage further studies on the application of SOM in hydrological modelling.
Das Ziel dieser Forschungsarbeit liegt in der Entwicklung einer innovativen Klassifikationsstrategie zur satellitengestützten Forstinventur in einem europäischen Mittelgebirgsraum. Über die Ableitung von thematischen Karten der flächenscharfen Verbreitung von fünf Baumartengruppen (Eiche, Buche, Fichte, Douglasie und Kiefer) sowie drei Entwicklungsphasen (Qualifizierung, Dimensionierung und Reife) werden wichtige für eine nachhaltige Bewirtschaftung von Wäldern erforderliche Grundlagendaten bereitgestellt. rnDie nachhaltige Bewirtschaftung der Vielfachfunktionen von Wäldern (Nutz-, Schutz- und Erholungsfunktionen) sowie der steigende Informationsbedarf in Folge nationaler und internationaler Monitoring- und Berichtspflichten (u.a. Montréal Prozess und Kyoto Protokoll) erfordern aktuelle und flächendeckende Informationen über den Zustand der Wälder. In diesem Kontext können fernerkundliche Daten und Methoden zur Unterstützung konventioneller terrestrischer Verfahren zum Einsatz kommen.rnDas Untersuchungsgebiet dieser Studie umfasst den südlichen und östlichen Teil der rheinland-pfälzischen Eifel mit einer Fläche von mehr als 5200 km-², davon rund 2080 km-² bewaldet. Die naturräumliche Heterogenität, die wuchsklimatischen Unterschiede, die Variabilität von Relief und Topographie, die große Zahl vorkommender Baumarten sowie die kulturhistorische Waldentwicklung in der Eifel stellen eine besondere Herausforderung für satellitengestützte Inventurmethoden dar.rnDurch die bevorzugte Verwendung von Referenzdaten aus der unmittelbaren räumlichen Umgebung eines zu klassifizierenden Bereichs wird bei der Parametrisierung des Klassifikationsansatzes die jeweilige naturräumliche und wuchsklimatische Charakteristik berücksichtigt. Der Vergleich dieses räumlich adaptiven Klassifikationsansatzes mit einer konventionellen Maximum-Likelihood Klassifikation zeigt, dass eine Verbesserung der Klassifikationsgenauigkeit um 12 Prozentpunkte erreicht werden konnte. Die Adaptierung der Klassifikationsstrategie an die naturräumlichen und wuchsklimatischen Bedingungen sowie die Anpassung an bestehende Erhebungsmethoden und Datenorganisation bilden die Grundlage für eine erfolgreiche Anwendung des Verfahrens in einem heterogenen Mittelgebirgsraum. Die hohe erreichte Gesamtgenauigkeit des Klassifikationsergebnisses von rund 74% (über 87% für die fünf Hauptbaumarten) erlaubt die Einbindung der Methode in operationelle Erhebungsverfahren zur Unterstützung der terrestrischen Forstinventur.
Quantitative Untersuchungen im Französischen: Häufigkeitsverteilungen und funktionale Zusammenhänge
(2009)
Die Quantitative Linguistik ist eine relativ junge Disziplin, deren Hauptziel es ist, Gesetzmäßigkeiten zu erforschen, denen sprachliche Phänomene folgen, und gesetzmäßige Zusammenhänge zwischen sprachlichen Variablen zu erklären. Es hat sich inzwischen in einer ganzen Reihe von Untersuchungen immer wieder gezeigt, dass solche Gesetzmäßigkeiten aufgedeckt und erklärt werden können. Die vorliegende Untersuchung stellt einen Beitrag zu dieser Thematik dar. Sie dient der Überprüfung bestimmter lexikalischer und syntaktischer Hypothesen an französischem Sprachmaterial unter der Anwendung quantitativer Methoden. Diese Hypothesen betreffen zweidimensionale Zusammenhänge zwischen den operational definierten quantitativen Eigenschaften der Länge, Frequenz und Polylexie von sprachlichen Einheiten und die Häufigkeitsverteilungen der Einheiten hinsichtlich dieser Eigenschaften. Jede Untersuchungshypothese wird mathematisch modelliert, wobei eine direkte Anwendung der Statistik betrieben wird. D.h.: Bereits existierende theoretische Modelle, die als wahres Bild der zu überprüfenden Hypothesen angesehen werden, werden verwendet. Die Güte der Anpassung des jeweiligen Modells an die empirischen Daten wird aus den Differenzen zwischen den empirischen und den entsprechenden theoretischen Werten abgeschätzt. Bei der empirischen Überprüfung der Hypothesen werden zwei Testverfahren eingesetzt: die Berechnung des Determinationskoeffizienten für die Zusammenhänge zwischen zwei quantitativen Größen und der Chiquadrat-Test für die Verteilungshypothesen. Die durchgeführten Tests bestätigen im Großen und Ganzen die Verträglichkeit der Daten mit den aufgestellten Hypothesen.
Welche Ziele verfolgen Forscher/innen in interdisziplinären Kooperationen mit welchen Handlungen und unter welchen Bedingungen? Ausgehend von dieser Frage ergänzt diese Arbeit die Wissenschaftsforschung zur Interdisziplinarität und die psychologische Forschung zur handlungsleitenden Wissensbasis langfristiger Vorhaben. Mentale Modell von Handlungsstrategien werden aufbauend auf kognitiven und handlungstheoretischen Ansätzen als kognitiv-motivationale Aggregate von Ziel-, Handlungs- und Bedingungswissen konzipiert. Derartige Handlungsstrategien können als Wissensrepräsentationen zur Planung, Regulation und Bewertung des Handelns genutzt werden. Zur theoriegeleiteten Erhebung von Handlungsstrategien wird die Struktur-Lege-Technik Action Strategy Mapping (ASM) neu entwickelt und empirisch validiert. Die ASM-Technik erweist sich als sehr praktikabel, gut erlernbar sowie qualitativ reliable und valide zur Repräsentation handlungsleitenden Wissens im Rahmen eines teilstrukturierten Interviews. Die Analysen der in drei Sonderforschungsbereichen bei 57 Wissenschaftler/innen erhobenen Handlungsstrategien interdisziplinärer Forschungskooperation belegen empirisch sehr heterogene aufgabenbezogene, koorientierte und persönliche Ziele. Der kommunikative Austausch bestätigt sich als zentrale und besonders häufige Handlung interdisziplinärer Kooperation. Die Interdependenz der Handlungsstrategien hängt zudem mit der Projektinterdependenz der Forscher/innen zusammen. Ein Vergleich der Handlungsstrategien von Forscher/innen mit hoher, mittlerer und niedriger Projektinterdependenz zeigt mehrere Zusammenhänge: Bei mittlerer Interdependenz korrelieren inhaltliche und strukturelle Merkmale der Handlungsstrategien positiv mit dem selbst berichteten Erfolg. Bei hoher und niedriger Projektinterpendenz zeigen sich aber negative Zusammenhänge mit dem Erfolg. Die Ergebnisse werden diskutiert im Hinblick auf den Einsatz der ASM-Technik als Diagnose- und Reflexionsmethode sowie inhaltlich auf ihre Bedeutung für das Management interdisziplinärer Forschungskooperation in Sonderforschungsbereichen, insbesondere einer zweckmäßigen Kommunikation und Interdependenz der Wissenschaftler/innen.
Ziel der durchgeführten Arbeit war mittels einer geophysikalischen Untersuchungsmethode die Wasserverteilung in Deponien nach einer Infiltration zu beobachten. Für den Nachweis der Wasserverteilung unterhalb von Infiltrationsstellen wurde die geoelektrische Impedanztomografie eingesetzt. Um das Messverfahren auf seine Eignung zur Detektierung der Infiltrationsauswirkungen in der Deponie zu überprüfen, wurde ein mehrjähriges Untersuchungsprogramm durchgeführt. Dabei hat sich herausgestellt, dass Deponiesickerwasser eine Verringerung des spezifischen Widerstandes im Untersuchungsgebiet verursacht und dieser Tatbestand vom Messsystem gut detektiert wird. Durch das Aufreihen der Ergebnisse als Tomogrammsequenzen wurden die Infiltrationsauswirkungen unterhalb der Infiltrationsstelle visualisiert. Anhand der entstandenen Tomogrammsequenzen und aufgestellten Modellbetrachtungen werden die Einschränkungen und Rahmenbedingungen des eigens dafür entwickelten Darstellungs- und Auswertungsalgorithmus der Arbeit erörtert.
This thesis presents a study of tsunami deposits created by the 2004 Indian Ocean tsunami at the Thai Andaman coast. The outcomes of a study are the characteristics of tsunami deposit for paleo-tsunami database, the identification of major sediment layers in tsunami deposit and the reconstructing tsunami run-ups from the characteristics of tsunami deposit for a coastal development program. The investigations of tsunami deposit are made almost 3 years after the event. Field investigations characterize the tsunami deposit as a distinct sediment layer variable in thickness of gray sand deposited with an erosional basis on a pre-existing soil. The best location for the observation of recent tsunami deposit is the area located about 50-200 m inland from the coastline. In most cases, the deposit layer is normally graded. In some cases, the deposit contains rip-up clasts of muddy soils and/or organic matters. The tsunami deposits are compared with three deposits from coastal sub-environments. The mean grain-size and standard deviation of deposits show that the shoreface deposits are fine to very fine sand, poorly to moderately well sorted; the swash zone deposits are coarse to fine sand, poorly to well sorted; the berm/dune deposits are medium to fine sand, poorly to well sorted; and the tsunami deposits are coarse to very fine sand, poorly to moderately well sorted. The plots of deposit mean grain-size versus sorting indicate that the tsunami deposits are composed of shoreface deposits, swash zone deposits and berm/dune deposits as well. The vertical variation of the texture of tsunami deposit shows that the mean grain-size fines upward and fining landward. The analysis and interpretation of the run-up numbers from the characteristics of tsunami deposits get three run-ups for the 2004 Indian Ocean tsunami at the Thai Andaman coast. It corresponds to field observations from the eye-witness reports and local people- affirmations. The total deposition is a major transportation pattern of onshore tsunami sediments. The sediments must fine in the direction of transport. In general, the major origins of the sediment are the swash zone and berm/dune zone where coarse to medium sand is a significant material, the minor origin of tsunami sediment is a shoreface where a significant material is fine to very fine sand. Only at an area with flat slope shorface, the major origin of tsunami sediment is the shoreface. The thicknesses, the mean grain-sizes, and the standard deviations of tsunami deposits are used to evaluate the influences of coastal morphology on the sediment characteristics. The evaluations show that the tsunami affected areas were attacked by the variable energy waves. Wave energies at the direct tsunami wave affected areas are higher than at the indirect tsunami wave affected areas. Tsunami wave energy is highly dissipated at an area with steep slope shoreface. In the same way, tsunami run-up energy is highly dissipated at an area with steep slope onshore. A channel paralleled to the coastline decreases the run-up velocity, slightly dissipates run-up energy. The road and pond highly influence the characteristics of tsunami deposit and tsunami run-up. A road obstructs the run-up velocity, dissipates run-up energy. A pond decreases run-up velocity, dissipates run-up energy. The characteristics of tsunami deposit can be interpreted for reconstructing the characteristics of tsunami run-up such as a run-up height and a flow velocity. Soulsby et al.(2007)- model is applied for reconstructing tsunami run-up at the study areas. The input parameters are sediment grain-size and sediment inundation distance. Ao Kheuy beach and Khuk Khak beach, Phang Nga province, Thailand are the areas listed for reconstructing tsunami run-up. The evaluated run-up heights are 4.2-4.9 m at Ao Kheuy beach, and 5.4-9.4 m at Khuk Khak beach. The evaluated run-up velocities are 12.8-19.2 m/s (maximum) and 0.2-1.9 m/s (mean) at the coastline and onshore, respectively. Hence, a reasonably good agreement between the evaluated and observed run-up is found. Tsunami run-up height and velocity can be used for coastal development and risk management in the tsunami affected areas. The case studies from the Thai Andaman coast suggest that in the area from coastline to about 70-140 m inland was flooded by the high velocity (high energy) run-ups, and those run-up energies were dissipated there. That area ought to be a non-residential area or a physical protection construction area (flood barrier, forest planting, etc.).
Auf der Grundlage der Beobachtung, dass Städte und Regionen in Deutschland signifikant unterschiedliche durchschnittliche Lohnniveaus aufweisen, macht es sich die Dissertation zur Aufgabe, die Gründe für die Divergenz regionaler Lohnniveaus in Westdeutschland zu erforschen. Theoretischer Ausgangpunkt der Analyse ist das Konzept der lokalen Humankapitalexternalitäten. Dieses besagt, dass der individuelle Bildungsstand eines Arbeitnehmers nicht nur für diesen selbst produktivitätsbestimmend ist, sondern darüber hinaus auch einen Einfluss auf die Produktivität anderer Arbeitnehmer in räumlicher Nähe ausüben kann. Das Vorliegen von Humankapitalexternalitäten ist für den deutschen Fall potenziell relevant, da sich beträchtliche Unterschiede in den durchschnittlichen regionalen Bildungsniveaus feststellen lassen. Die Dissertation untersucht daher, in welchem Umfang regionale Lohndisparitäten in Deutschland auf externe Produktivitätseffekte des regionalen Bildungsniveaus zurückzuführen sind und durch welche mikroökonomischen Mechanismen derartige Effekte entstehen. Diese Frage wird in vier thematisch eng miteinander verknüpften Artikeln beantwortet. Der erste Artikel stellt eine Überblicksstudie dar, in der die Literaturen zu regionalen Humankapitalexternalitäten und zur städtischen Lohnprämie hinsichtlich ihrer Ergebnisse und Methodik miteinander verglichen werden. Der Literaturvergleich zeigt, dass sowohl Agglomerationseffekte, als auch Humankapitalexternalitäten gültige Erklärungen für regionale Lohnunterschiede darstellen. Weiterhin werden die ökonometrische Methodik und die Identifikationsstrategien, die beiden Literaturen zugrunde liegen, verglichen. Es wird gezeigt, dass ein beträchtliches gegenseitiges Lernpotenzial zwischen beiden Literaturen besteht. Der zweite Artikel untersucht empirisch die Bedeutung von Humankapitalexternalitäten für die Divergenz regionaler Lohnniveaus in Deutschland. Es werden individuelle Lohngleichungen geschätzt, die um regionale Variablen erweitert werden. Einer möglichen Inkonsistenz der Schätzer wird durch den Einsatz von Instrumentvariablen begegnet. Die Ergebnisse weisen darauf hin, dass ebenso wie in anderen Ländern der regionale Humankapitalbestand auch in Deutschland einen signifikanten Einfluss auf die Löhne von Arbeitnehmern ausübt und somit zum Auftreten regionaler Lohndifferenziale beiträgt. Der dritte Artikel untersucht das Auftreten von Matchingeffekten als möglichen mikroökonomischen Mechanismus, durch den Humankapitalexternalitäten individuelle Löhne beeinflussen. Konkret wird überprüft, ob in humankapitalintensiven Regionen stärker ausgeprägte lokale Karrierenetzwerke bestehen, die durch einen besseren Informationsfluss im Hinblick auf Karrierechancen zu einer erhöhten Matchingeffizienz und damit zu höheren Löhnen in regionalen Arbeitsmärkten führen. Hierzu wird untersucht, ob sich signifikante Unterschiede zwischen humankapitaintensiven und humankapitalschwachen Regionen hinsichtlich des Lohnanpassungs- und Arbeitsplatzwechselverhaltens von Arbeitnehmern feststellen lassen. Die empirischen Ergebnisse zeigen, dass regionale Humankapitalexternalitäten unter anderem durch verbesserte Matches zwischen Arbeitnehmern und Unternehmen in humankapitalintensiven Regionen entstehen. Der vierte Artikel untersucht, ob erfolgreicher industrieller Wandel und regionale Humankapitalexternalitäten insoweit zwei Seiten derselben Medaille sind, als dass die produktivitätsbestimmende Wirkung des einen Einen das Vorliegen des Anderen voraussetzt. Die Ergebnisse deuten auf eine Komplementarität dynamischer Arbeitsmärkte und regionaler Humankapitalausstattungen hin. So weisen lokale Industrien eine signifikant höhere Produktivität auf, wenn sie in regionalen Arbeitsmärkten beheimatet sind, die gleichermaßen einen hohen Anteil hochqualifizierter Arbeitnehmer und eine überdurchschnittliche Arbeitsmarktdynamik aufweisen. Die Ergebnisse zeigen weiterhin, dass Humankapitalexternalitäten vor allem dann entstehen, wenn Arbeitnehmer ihren Arbeitsplatz innerhalb einer Region wechseln und damit zum Auftreten von produktivitätssteigernden Wissenspillovers und einer erhöhten Matchingeffizienz beitragen. Die Ergebnisse aus allen vier Artikeln untermauern die Bedeutung regionaler Humankapitalexternalitäten für das Entstehen regional unterschiedlicher Lohnniveaus. Hieraus erwachsen zwei zentrale Implikation für die regionale Bildungs- und Infrastrukturpolitiken, die im Schlusskapitel der Dissertation erörtert werden. So können staatliche Investitionen in Humankapital effizienzsteigernd wirken, da eine Unterinvestition in Bildung eine wahrscheinliche Folge beim Vorliegen von Humankapitalexternalitäten ist. Weiterhin können Infrastrukturinvestitionen zu einem Verschmelzen von humankapitalarmen mit humankapitalintensiven Arbeitsmärkten führen und somit eine größere Zahl an Arbeitnehmern an den positiven Produktivitätseffekten, die durch regionale Humankapitalexternalitäten entstehen, teilhaben lassen.
Diese Dissertation behandelt das Thema des Sprachkontakts zwischen der Maya-Sprache k'iche' und das Spanische in Guatemala. Der Sprachkontakt ist seit der Eroberung des Eroberung des K'iche'-Königreichs durch Don Pedro de Alvarado im 16. Jahrhundert von verschiedenen Faktoren geprägt worden: Diese sind ethnohistorischer, sprachpolitischer, religiöser und soziokultureller Natur. So waren die ersten, die sich mit den indigenen Sprachen in der Neuen Welt befassten, die katholischen Missionaren, die Katechismen und Gebetsbücher in einheimische Sprachen übersetzten. Die Renaissance der Erforschung dieser Sprachen wiederum verdankt man den modernen Missionaren, die in den 70er Jahren des vergangenen Jahrhunderts nach Guatemala kamen. Heute versteht man die Maya-Lingustik als Teil einer soziokulturellen Bewegung, die in den letzten 20 Jahren ganz Lateinamerika verändert hat: der sogenannte indigenismo. Das Spanische Guatemalas zeigt sich in der Gegenwart von der Jahrhunderte lange Koexistenz mit den Mayasprachen (hier vor allem der Mayasprache k'iche') geprägt. Diese Prägung ist, wie in dieser Arbeit dargelegt wird, auf phonologischer, morphologischer, morphosyntaktischer und pragmatischer Weise zu erkennen.
This thesis presents a study of the visual change detection mechanism. This mechanism is thought to be responsible for the detection of sudden and unexpected changes in our visual environment. As the brain is a capacity limited system and has to deal with a continuous stream of information from its surroundings only a part of the vast amount of information can be completely processed and be brought to conscious awareness. This information, which passes through attentional filters, is used for goal-directed behaviour. Therefore, the change detection mechanism is a very useful aid to cope with important information which is outside the focus of our attention. rnIt is thought that a neural memory trace of repetitive visual information is stored. Each new information input is compared to this existing memory trace by a so-called change or mismatch detection system. Following a sudden change, the comparison process leads to a mismatch and the detection system elicits a warning signal, to which an orienting response can follow. This involves a change in the focus of attention towards this sudden environmental change which can then be evaluated for potential danger and allows for a behavioural adaptation to the new situation. rnTo this purpose a paradigm was developed combining a 2-choice response time task with in the background a mismatch detection task of which the subjects were not aware. This paradigm was implemented in an ERP and an fMRI study and was used to study the the change detection mechanism and its relationship with impulsivity.rnIn previous studies a change detection system for auditory information had already been established. As the brain is a very efficient system it was thought to be unlikely that this change detection system is only available for the processing of auditory information. rnIndeed, a modality specific mismatch response at the sensory specific occipital cortex and a more general response at the frontocentral midline, both resembling the components shown in auditory research, were found in the ERP study.rnAdditionally, magnetic resonance imaging revealed a possible functional network of regions, which responded specifically to the processing of a deviant. These regions included the occipital gyrus, premotor cortex, inferior frontal cortex, thalamas, insula, and parts of the cingular cortex. rnThe relationship between impulsivity measures and visual change detection was established in an additional study. More impulsive subjects showed less detection of deviant stimuli, which was most likely due to too fast and imprecise information processing.rnIn summary it can be said, that the work presented in this thesis demonstrates that visual mismatch negativity was established, a number of regions could be associated with change detection and additionally the relevance of change detection in information processing was shown.rn
Das Konzept psychologischer und philosophischer Hilfe des niederländischen Psychologen und Philosophen Jac van Essen (1908-1989) ist in der wissenschaftlichen Literatur bislang weitgehend unbekannt. Es beruht auf dem sog. Allmenschlichkeitsgedanken. Zunächst wird Theorie und Praxis der Allmenschlichkeit eingehend als eigenständiger Ansatz dargestellt. Danach werden exemplarisch diverse Konzepte psychologischer Hilfe (Freud, Jung, Adler, Kognitive Therapie, Rogers u.a.) im Licht dieses Ansatzes diskutiert. Er erweist sich als geeigneter Prüfstein dafür, inwieweit Theorie und Praxis jener Konzepte zugleich wissenschaftlich und integral humanitär befriedigen, auch in bezug auf existentielle Aspekte.
Die Studie beschäftigt sich mit der kommunalen Armenfürsorge in Galway und Gort,im Westen Irlands und ihrem Einfluss auf die Entwicklung der lokalen Verwaltung. Der zeitliche Rahmen wird von der Einführung der irischen Armengesetzgebung 1838 und der Unabhängigkeit Irlands 1921 bestimmt. Im Mittelpunkt der Arbeit steht die Frage,welche Bedeutung der Armenverwaltung bei der generellen Ausbildung staatlicher Administration in Irland zukam. Im ersten Teil werden zunächst die sozioökonomischen Rahmenbedingungen in Galway und Gort vorgestellt. Die Lage und Größe,aber auch die wirtschaftliche Situation des Untersuchungsgebietes beeinflusste die Arbeitsweise der lokalen Aufsichtsgremien der Armenverwaltung. Von zentraler Bedeutung ist der rechtliche Rahmen,innerhalb dessen die Aufsichtsgremien der Armenverwaltung operierten. Um die "spezifische Ausprägung" der irischen Institutionen der Armenverwaltung zu analysieren,wird der Vergleich zur englischen und schottischen Armengesetzgebung gezogen. Die Studie untersucht jedoch nicht nur die normative Ebene der Armengesetzgebung zwischen 1838 und 1921,sondern beschäftigt sich vor allem mit der alltäglichen Praxis der Verwaltung vor Ort. Im Mittelpunkt stehen dabei die Akteure auf der lokalen und zentralen Ebene: die Board of Guardians und die Poor Law Commission bzw das Local Government Board. Andere lokale Verwaltungseinrichtungen,wie die Grand Juries oder die Town Commissioners,werden in die Betrachtung einbezogen,soweit sie mit den Aufsichtsgremien der Armenverwaltung in Berührung kamen. Dabei werden besonders parallele und/oder konkurrierende Zuständigkeitsbereiche in den Blick genommen. Diese Analyse der Akteure ermöglicht die Untersuchung von Ausdifferenzierungs- und Veränderungsprozessen in der lokalen Verwaltung in Irland. Der zweite Teil der Arbeit untersucht detailliert die Aufsichtsgremien der Armenverwaltung von Galway und Gort in vergleichender Perspektive. Durch den Stadt-Land Vergleich sollen Unterschiede und Gemeinsamkeiten in der personellen Zusammensetzung und der Arbeitsweise der lokalen Aufsichtsgremien der Armenverwaltung herauspräpariert werden. Dabei werden zunächst die (Armen-)Steuerzahler analysiert. Sie wählten einen Teil der Mitglieder der lokalen Armenverwaltung und beeinflussten so die Zusammensetzung der Aufsichtsgremien. Ein Kapitel im zweiten Teil der Arbeit untersucht die Mitglieder der Aufsichtsgremien der Armenadministration. Sozioökonomische, familiäre, religiöse und berufliche Hintergründe sowie Angaben zu anderen Ämtern dienen dazu, deren Auswirkungen auf die Arbeitsweise der Personen in der lokalen Armenadministration zu untersuchen. Wie regelmäßig nahmen die einzelnen Mitglieder an den Sitzungen teil? In diesem Kapitel können nicht alle der erfassten Mitglieder behandelt werden, so dass besonders die Vorsitzenden und ihre Stellvertreter analysiert werden. Weiterhin werden Mitglieder, die einflussreiche politische Funktionsträger waren, untersucht. Ein weiteres Kapitel widmet sich der Professionalisierung der Aufsichtsgremien der Armenadministration in der zeitlichen Entwicklung nach 1838. Es wird der Frage nachgegangen, ob mit der Aufgabenakkumulation über die eigentliche Armenadministration hinaus auch eine Zunahme des Einflusses der Aufsichtsgremien der Armenverwaltungen im Hinblick auf ihr Verhältnis zur Dienststelle in Dublin einherging. Der Kontakt zur zentralen Behörde war sehr ausgeprägt und regelmäßig, so dass die Kommunikation mit der übergeordneten Verwaltungsebene als sehr wichtig angesehen werden kann. Wie wirkten sich die umfassenden Kontroll- und Weisungsbefugnisse auf die Arbeitsweise der lokalen Armenadministration aus und welchen Einfluß hatten diese Befugnisse auf das Kommunikationsverhältnis? Gelang es den Mitgliedern der Armenverwaltung ihren Handlungsspielraum zu erweitern, etwa durch die Nutzung alternativer Kommunikationswege oder in ihrer Aufgabe als politische Funktionsträger? Wie häufig war die Kommunikation mit anderen irischen lokalen Aufsichtsgremien der Armenverwaltung und gab es Kooperationen? Ein weiteres Kapitel im zweiten Teil der Arbeit untersucht den Stellenwert von politischen Themen in den Diskussionen der Aufsichtsgremien der Armenverwaltungen, wobei insbesondere das Spektrum der Diskussionen innerhalb des Board of Guardians analysiert wird. Wie wirkten sich die Auseinandersetzungen um die Landfrage oder die Forderung nach Selbstverwaltung aus? Kam es zu personellen Veränderungen in den Aufsichtsgremien oder veränderten Arbeitsweisen der örtlichen Armenverwaltung? Ein Paragraph dieser Studie geht der Frage nach, ob und inwieweit die Board of Guardians mit anderen lokalen Apparaten vernetzt waren, anhand des Beispiels der Verflechtungen von Medizin und Armenadministration.
Die Arbeit untersucht das Lexem 'Fusion' in Fachtexten verschiedener medizinischer Disziplinen: Ophthalmologie, Orthopädie, Chirurgie, Pädiatrie. Dabei treten semantische Widersprüchlichkeiten, Ungenauigkeiten und Doppeldeutigkeiten zutage, die die Leser mehr verwirren als sachkundig informieren. Die expertensprachliche Kommunikation ist gestört. Des weiteren finden sich Hinweise darauf, dass die verwendete Semantik von fachlich-kognitive Einflüsse geprägt wird; so spiegelt das Lexem 'Fusion' beispielhaft den dreiteiligen Denkschritt der Mediziner wider: Physiologie, Pathologie, Therapie. Auch andere kognitive Einflüsse werden bei der semantischen Untersuchung des Lexems deutlich.
In einer empirischen Neuroimaging Studie an einer Gruppe von 141 rechts- und linkshändigen Probanden beiderlei Geschlechts wurden fMRT-Korrelate der funktionalen Sprachrepräsentation untersucht. Es fanden sich bedeutsame Unter-schiede in der Sprachverarbeitungskompetenz der beiden Hemisphären sowohl zwischen Rechts- und Linkshändern als auch zwischen Männern und Frauen.
Synergieeffekte und Kollaboration bei e-Learning-Anwendungen in selbstorganisierenden Computernetzen
(2009)
In den letzten Jahren haben sich mehrere neue Netzklassen im Bereich der Verteilten Systeme etabliert. Diese können unter Ausnutzung von Selbstorganisationsprinzipien und verschiedener kollaborativer Aspekte viele der netzinhärenten Probleme wie Skalierbarkeit, Latenz- und Lastverteilungsbetrachtungen sowie Konsistenzwahrung entschärfen. Gleichzeitig kann die Nutzung entsprechender Prinzipien zu positiven Synergieeffekten führen, die von den verschiedenen auf diesen Netzen aufsetzten Applikationsdomänen genutzt werden können. Von besonderer Bedeutung sind diese Aspekte für die beiden neuartigen Netzklassen der Multi-Hop Adhoc-Netze (MANETs) und der globalen virtuellen Umgebungen (MMVEs). Beiden Netzklassen ist gemeinsam, dass sie aufgrund der erwähnten Problemstellungen nicht mit traditionellen verteilten Architekturen, wie zentralistischen und monolithischen Systemen, umgesetzt werden können. Hier muss ein Paradigmenwechsel hin zu dezentralen, selbstorganisierenden Systemstrukturen erfolgen, um den angesprochenen Herausforderungen zu begegnen. Die erste in dieser Arbeit untersuchte Netzklasse der MANETs zeichnet sich dadurch aus, dass sie Nutzern erlaubt, immer und überall auf Ihre Daten zugreifen zu können und mit der vor Ort vorhandenen Infrastruktur transparent zu kommunizieren. Dabei erfolgen die Daten-zugriffe vermehrt über immer kleiner werdende mobile Endgeräte, die sowohl aufgrund ihrer inhärenten Mobilität als auch ihrer eingeschränkten Ressourcen daran angepasste Netzstrukturen erfordern. Die neuartige Netzklasse der MMVEs dagegen soll Dateninhalte in einem dreidimensionalen Rahmen und damit nativ und intuitiver als die vorherrschende zweidimensionale Darstellung, wie z.B. im Internet, präsentieren. Der Datenzugriff erfolgt hier meist über eine virtuelle Benutzerrepräsentation " einen Avatar. MMVEs basieren zwar im Vergleich zu MANETs in der Regel auf physisch verlässlichen Netzen, benötigen aber aufgrund der massiven Verteilung und der großen Nutzerzahlen neue Netzwerkarchitekturen. Die Anwendungsdomäne e-Learning eignet sich in diesem Zusammenhang besonders gut für wissenschaftliche Untersuchungen, da hier eine ähnliche Entwicklung beobachtbar ist, wie bei den eingangs erwähnten Netzklassen. Genauso wie mobile Endgeräte immer kleiner und ubiquitär verfügbar werden und das Internet praktisch an jedem Ort der Welt mit hoher Bandbreite nutzbar ist, finden e-Learning Inhalte immer mehr Einzug in das tägliche Leben. Während sie früher nur eine vernachlässigbare Ergänzung zu etablierten Schulungsformen darstellten, die mehr oder weniger invasiv und starr zentral administriert wurde, steigt Ihre Bedeutung besonders im Zusammenhang mit neuen Zugangsformen täglich. Besonders das Bedürfnis an Schulen oder Universitäten sowie bei der innerbetrieblichen Aus- und Weiterbildung, immer und überall verteilt, nativ und transparent auf entsprechende Lehr- und Lerninhalte zugreifen zu können, steigt mit dem wachsenden und teilweise rein wirtschaftlich bedingten Bedarf nach einer qualitativ hohen, kontinuierlichen gesellschafts- und technikdurchdringenden Grund- und Weiterbildung. Die geforderte Transparenz und Ubiquität kann für die angesprochene Anwendungsdomäne dadurch erreicht werden, dass spezielle, auf die neuartigen verteilten Netzstrukturen abgestimmte, Applikationen entwickelt werden, die die netzinhärenten Selbstorganisations-prinzipien explizit ausnutzen. Eine wichtige Fragestellung in diesem Zusammenhang ist, welche Auswirkungen ein solcher Paradigmenwechsel auf die Qualität der Wissens-vermittlung und der Inhalte hat. Erste Evaluationen mit prototypischen Applikationen haben gezeigt, dass dieser Wechsel problemlos möglich ist. Dabei spiegeln auftretende Synergie-effekte die Abbildung auf soziale Netze wieder, die beiden Aspekten inhärent zugrunde liegt und einen Mehrwert erzeugen, der die dabei auftretenden technischen Herausforderungen und Probleme relativiert. Entsprechende Effekte lassen sich sogar noch weiter verstärken, indem kollaborative Aspekte sowohl auf Applikationsebene als auch in den darunter liegenden Basisstrukturen ausgenutzt werden. Die vorliegende Arbeit soll diese Annahmen durch adäquate Beispiele aus beiden Bereichen (MANETs und MMVEs) aus verschiedenen Perspektiven beleuchten und anhand von beispielhaften Anwendungen und darauf aufbauende Evaluationen den Synergiegewinn von e-Learning Applikationen und mögliche kollaborative Aspekte in diesem Umfeld aufzeigen.
Quantitative Studien zur Plansprache Esperanto zu ausgewählten Fragestellungen der Phonologie, Morphologie, Syntax, Lexik, Semantik, Worthäufigkeit und - als Schwerpunkt - Wortbekanntheit wurden durchgeführt. Hauptergebnisse: Die Phonem-Häufigkeitsverteilung des Esperanto kann besonders gut mit dem Yule-Modell beschrieben werden; bei biphonematischer Wertung der Affrikaten ergibt sich eine etwas schlechere Anpassung als bei monophonematischer Wertung. Die Anwendung des klassifikatorischen Schlüssels von Altmann und Lehfeldt bestätigt die Meinung der meisten Autoren, wonach Esperanto agglutinierend mit einigen Merkmalen einer isolierenden Sprache ist. Die bei anderen Sprachen gefundene Gesetzmäßigkeit zwischen Lexermlänge und Polysemie gilt auch für Esperanto. Zur Untersuchung des Zusammenhangs zwischen Wortbekanntheit und Worthäufigkeit sowie zur Untersuchung der Selbsteinschätzung des eigenen Esperanto-Anwendungsvermögens durch seine Sprecher wurde das Verfahren der logistischen Regression (einschließlich statistischer Sicherheit) ausführlich dargestellt und als eine innovative Option auch zur Untersuchung analoger Fragestellungen angeboten. Zu den nachfolgend beschriebenen Haupthypothesen kann auf Grundlage der Untersuchung Folgendes ausgesagt werden (es sei angemerkt, dass die Haupthypothesen- (a) und (b) dabei ausschließlich für solche Esperanto-Sprecher gelten, die ihr Esperanto-Anwendungsvermögen als ausreichend gut einschätzen; die Haupthypothese- (c) gilt auch für solche Esperanto-Sprecher, die ihr Esperanto-Anwendungsvermögen als nicht ausreichend gut einschätzen): (a) Die Häufigkeit der zuverlässig bekannten Wörter entspricht der Häufigkeitsgruppe- 7 aus neun Häufigkeitsgruppen der von der Esperanto-Akademie entwickelten Statistik ("offizielle Basis-Wortwurzelsammlung", BRO; Häufigkeitsgruppe- 1: häufigste Wörter). (b)- Sei- A die Häufigkeit der Esperanto-Wörter, die Menschen mit einer Muttersprache aus dem romanischen oder germanischen Sprachzweig zuverlässig bekannt sind. Sei- B die Häufigkeit der Esperanto-Wörter, die Menschen mit Muttersprache Chinesisch, Japanisch oder aus der finno-ugrischen Sprachfamilie zuverlässig bekannt sind. Die Untersuchung zeigte: Zwischen A und B besteht kein signifikanter Unterschied. Das heißt: Die naheliegende Vermutung, dass Sprecher mit einer Muttersprache aus dem romanischen oder germanischen Sprachzweig (= Quelle der meisten Esperanto-Wörter) einen Vorteil haben und seltenere Esperanto-Wörter vergleichsweise besser kennen als Sprecher mit anderen Muttersprachen, wurde durch die vorliegende empirische Überprüfung nicht bestätigt. (c)- Bei einer statistischen Sicherheit von 95% ist die Selbsteinschätzung des eigenen Esperanto-Anwendungsvermögens durch seine Sprecher auch nach 100- Lernjahren nur 73%. Für eine zuverlässige Anwendbarkeit (also 90% bei 95%- statistischer Sicherheit) konnte keine Lernzeit ermittelt werden.
The thesis studies the question how universal behavior is inherited by the Hadamard product. The type of universality that is considered here is universality by overconvergence; a definition will be given in chapter five. The situation can be described as follows: Let f be a universal function, and let g be a given function. Is the Hadamard product of f and g universal again? This question will be studied in chapter six. Starting with the Hadamard product for power series, a definition for a more general context must be provided. For plane open sets both containing the origin this has already been done. But in order to answer the above question, it becomes necessary to have a Hadamard product for functions that are not holomorphic at the origin. The elaboration of such a Hadamard product and its properties are the second central part of this thesis; chapter three will be concerned with them. The idea of the definition of such a Hadamard product will follow the case already known: The Hadamard product will be defined by a parameter integral. Crucial for this definition is the choice of appropriate integration curves; these will be introduced in chapter two. By means of the Hadamard product- properties it is possible to prove the Hadamard multiplication theorem and the Borel-Okada theorem. A generalization of these theorems will be presented in chapter four.
In this psycho-neuro-endocrine study the molecular basis of different variants of steroid receptors as well as highly conserved non steroidal receptors was investigated. These nuclear receptors (NRs) are important key regulators of a wide variety of different physiological and pathophysiological challenges ranging from inflammation and stress to complex behaviour and disease. NRs control gene transcription in a ligand dependent manner and are embedded in the huge interaction network of the neuroendocrine and immune system. Two receptors, the glucocorticoid receptor (GR) and the chicken ovalbumin upstream promoter-transcription factorII (Coup-TFII), both expressed in the immune and nervous system, were investigated regarding possible splice variants and their implication in the control of gene transcription. Both NRs are known to interact and modulate each other- target gene regulation. This study could be shown that both NRs have different splice variants that are expressed in a tissue specific manner. The different 5-´alternative transcript variants of the human GR were in silico identified in other species and evidence for a highly conserved and tightly controlled function was provided. Investigations of the N-terminal transactivation domain of the GR showed a deletion suggesting an altered glucocorticoid-dependent transactivation profile. The newly identified alternative transcript variant of Coup-TFII leads to a DNA binding deficient Coup-TFII isoform that is highly expressed in the brain. This Coup-TFII isoform alters Coup-TFII target gene expression and is suggested to interact with GR via its ligand binding domain resulting in an impaired GR target gene regulation in the nervous system. In this thesis it was demonstrated that NR variants are important for the understanding of the enormous regulatory potential of this receptor family and have to be taken into account for the development of therapeutic strategies for complex diseases such as stress related and neurodegenerative disorders.
Die vorliegende Arbeit entstand im Rahmen des INTERREG III B-Projektes WaReLa (Water Retention by Landuse), das sich mit dem Rückhalt von Wasser in der Fläche als Beitrag zum vorbeugenden Hochwasserschutz beschäftigt. Im Vordergrund stehen dabei die so genannten dezentralen Rückhaltemaßnahmen als Alternative bzw. Ergänzung zum technischen Hochwasserschutz. Gegenstand dieser Arbeit ist die Frage nach der Effizienz von Retentionsmaßnahmen in urbanen Räumen und deren Beitrag zum Hochwasserschutz. Es handelt sich um ein relativ junges Forschungsthema, welches die Fachwelt bis heute kontrovers diskutiert. Wie bisherige Untersuchungen zeigen, sind allgemeine Aussagen über die Retentionswirkung nicht möglich, da das Potential der Regenwasserbewirtschaftung und deren Rückhaltewirkung von mehreren gebietsspezifischen Faktoren gesteuert werden. Untersuchungen an einem Retentionssystem im Neubaugebiet Trier-Petrisberg sollten weitere Erkenntnisse bringen. Hierzu wurde zum einen die hydraulische Belastung einzelner Retentionsanlagen untersucht und zum anderen wurden N A-Simulationen mit dem Programm erwin 4.0 durchgeführt. Laut N-A-Simulationen hält das Retentionssystem, welches für ein 100-jährliches Ereignis mit 56 mm Niederschlag und der Dauerstufe 3 Stunden konzipiert wurde, im Vergleich zur Entwässerung des Gebietes über ein Trennsystem zwischen 58 % und 68 % des Jahresniederschlags zurück. Ähnlich hohe Werte (60 80 %) nennen GÖBEL, STUBBE, WEINERT, ZIMMERMANN, FACH, DIERKES, KORIES, MESSER, MERTSCH, GEIGER & COLDEWEY (2004: 270f) und WEGNER (1992: 7f) für die von ihnen untersuchten Anlagen. Sehr hoch erscheint die Scheitel abmindernde Wirkung des Retentionssystems im Vergleich zu einer konventionellen Ableitung. Im Mittel beträgt diese 82 %, so dass der Scheitel der Einleitung in den Vorfluter Brettenbach im Vergleich zur Regenwasserableitung auf 1/5 reduziert wird. Aufschluss über die Scheitelabminderung im Vorfluter selbst kann nur eine Quantifizierung der einzelnen Abflusskomponenten geben. Das Retentionssystem arbeitet im Sommerhalbjahr effektiver als im Winterhalbjahr, da trockene Vorperioden, höhere Lufttemperaturen und die Vegetation im Sommer einen besseren Rückhalt konvektiver Niederschläge begünstigen. Korrespondierende Aussagen machen ASSMANN & KEMPF (2005), GANTNER (2003a) und NIEHOFF (2002). Beobachtungen und Simulationen zeigen, dass das Retentionssystem bisher effektiv arbeitet. Sämtliche Retentionsanlagen entleeren sich innerhalb von 48 Stunden. Die Arbeit wird ergänzt durch Handlungsempfehlungen zu Planung, Bau und Betrieb von Anlagen zur Regenwasserbewirtschaftung auf Privatgrundstücken. Sie sollen helfen, die Akzeptanz naturnaher Maßnahmen zur Bewirtschaftung von Regenwasser zu steigern, Fehler zu vermeiden und Projekte erfolgreich umzusetzen.
The glucocorticoid (GC) cortisol, main mediator of the hypothalamic-pituitary-adrenal axis, has many implications in metabolism, stress response and the immune system. GC function is mediated mainly via the glucocorticoid receptor (GR) which binds as a transcription factor to glucocorticoid response elements (GREs). GCs are strong immunosuppressants and used to treat inflammatory and autoimmune diseases. Long-term usage can lead to several irreversible side effects which make improved understanding indispensable and warrant the adaptation of current drugs. Several large scale gene expression studies have been performed to gain insight into GC signalling. Nevertheless, studies at the proteomic level have not yet been made. The effects of cortisol on monocytes and macrophages were studied in the THP-1 cell line using 2D fluorescence difference gel electrophoresis (2D DIGE) combined with MALDI-TOF mass spectrometry. More than 50 cortisol-modulated proteins were identified which belonged to five functional groups: cytoskeleton, chaperones, immune response, metabolism, and transcription/translation. Multiple GREs were found in the promoters of their corresponding genes (+10 kb/-0.2 kb promoter regions including all alternative promoters available within the Database for Transcription Start Sites (DBTSS)). High quality GREs were observed mainly in cortisol modulated genes, corroborating the proteomics results. Differential regulation of selected immune response related proteins were confirmed by qPCR and immuno-blotting. All immune response related proteins (MX1, IFIT3, SYWC, STAT3, PMSE2, PRS7) which were induced by LPS were suppressed by cortisol and belong mainly to classical interferon target genes. Mx1 has been selected for detailed expression analysis since new isoforms have been identified by proteomics. FKBP51, known to be induced by cortisol, was identified as the strongest differentially expressed protein and contained the highest number of strict GREs. Genomic analysis of five alternative FKBP5 promoter regions suggested GC inducibility of all transcripts. 2D DIGE combined with 2D immunoblotting revealed the existence of several previously unknown FKBP51 isoforms, possibly resulting from these transcripts. Additionally multiple post-translational modifications were found, which could lead to different subcellular localization in monocytes and macrophages as seen by confocal microscopy. Similar results were obtained for the different cellular subsets of human peripheral blood mononuclear cells (PBMCs). FKBP51 was found to be constitutively phosphorylated with up to 8 phosphosites in CD19+ B lymphocytes. Differential Co-immunoprecipitation for cytoplasm and nucleus allowed us to identify new potential interaction partners. Nuclear FKBP51 was found to interact with myosin 9, whereas cytosolic FKBP51 with TRIM21 (synonym: Ro52, Sjögren`s syndrome antigen). The GR has been found to interact with THOC4 and YB1, two proteins implicated in mRNA processing and transcriptional regulation. We also applied proteomics to study rapid non-genomic effects of acute stress in a rat model. The nuclear proteome of the thymus was investigated after 15 min restraint stress and compared to the non-stressed control. Most of the identified proteins were transcriptional regulators found to be enriched in the nucleus probably to assist gene expression in an appropriate manner. The proteomic approach allowed us to further understand the cortisol mediated response in monocytes/macrophages. We identified several new target proteins, but we also found new protein variants and post-translational modifications which need further investigation. Detailed study of FKBP51 and GR indicated a complex regulation network which opened a new field of research. We identified new variants of the anti-viral response protein MX1, displaying differential expression and phosphorylation in the cellular compartments. Further, proteomics allowed us to follow the very early effects of acute stress, which happen prior to gene expression. The nuclear thymocyte proteome of restraint stressed rats revealed an active preparation for subsequent gene expression. Proteomics was successfully applied to study differential protein expression, to identify new protein variants and phosphorylation events as well as to follow translocation. New aspects for future research in the field of cortisol-mediated immune modulation have been added.
During the last decade, anatomic and physiological neuroscience research has yielded extensive information on the physiological regulators of short-term satiety, visceral and interoceptive sensation. Distinct neural circuits regulate the elements of food ingestion physiologically. The general aim of the current studies is to elucidate the peripheral neural pathways to the brain in healthy subjects to establish the groundwork for the study of the pathophysiology of bulimia nervosa (BN). We aimed to define the central activation pattern during non-nutritive gastric distension in humans, and aimed to define the cognitive responses to this mechanical gastric distension. We estimated regional cerebral blood flow with 15O-water positron emission tomography during intragastric balloon inflation and deflation in 18 healthy young women of normal weight. The contrast between inflated minus deflated in the exploratory analysis revealed activation in more than 20 brain regions. The analysis confirmed several well known areas in the central nervous system that contribute to visceral processing: the inferior frontal cortex, representing a zone of convergence for food related stimuli; the insula and operculum referred to as "visceral cortex"; the anterior cingulate gyrus (and insula), processing affective information; and the brainstem, a site of vagal relay for visceral afferent stimuli. Brain activation in the left ventrolateral prefrontal cortex was reproducible. This area is well known for higher cognitive processing, especially reward-related stimuli. The ventrolateral prefrontal cortex with the insular regions may provide a link between the affective and rewarding components of eating and disordered eating as observed in BN and binge-eating obesity. Gastric distension caused a significant rapid, reversible, and reproducible increase in the feelings of fullness, sleepiness, and gastric discomfort as well as a significant rapid, reversible, and reproducible decrease in the feeling of hunger. We showed that mechanical activation of the neurocircuitry involved in meal termination led to the described phenomena. The current brain activation studies of non-painful, proximal gastric distension could provide groundwork in the field of abnormal eating behavior by suggesting a link between visceral sensation and abnormal eating patterns. A potential treatment for disordered eating and obesity could alter the conscious and unconscious perception and interoceptive awareness of gastric distension contributing to meal termination.
Wie gestaltete sich adlige Erziehung im Übergang vom Mittelalter zur Neuzeit, noch vor dem auch bildungsgeschichtlichen Wandel durch Reformation und Humanismus? Wie ist in diesen Zeiten ein junger Prinz für seine künftigen Aufgaben als Herrscher und Politiker vorbereitet worden? Gab es einen bestimmten Kanon von Fächern oder Lehrinhalten, deren Vermittlung durch Unterricht oder auch durch adlig-höfische Sozialisation eine spezifische, an seiner hohen Stellung und Verantwortung orientierte Bildung und Ausbildung eines Fürstensohns zum Ziel hatte? Diesen Fragen, welche die historische Forschung bisher weitgehend vernachlässigt hat, geht die Trierer Dissertation nach. Sie bietet damit die erste ausführliche und quellengestützte Darstellung der Kindheit und Jugend Karls V., die in den großen Biographien immer voreilig übergangen wird, wo meist ein bereits "fertiger" Kaiser in Erscheinung tritt. Ein Blick zurück auf die direkten Vorfahren - Kaiser Friedrich III., Kaiser Maximilian I. und Karls früh verstorbenen Vater, Philipp den Schönen - erkundet die Traditionen und Formen habsburgisch-burgundischer Fürstenerziehung, ihren Platz sowie ihre Organisation und personales Umfeld am Hofe. Der frühe Tod des Vaters und die psychische Labilität der Mutter bestimmten Karls Kindheit und Jugend. Anstelle der leiblichen Eltern waren es Großvater, Tante und Erzieher, die sich um ihn bemühten; daneben weitere Lehrer - darunter Adrian von Utrecht, der spätere Papst Hadrian VI., und Erasmus von Rotterdam, aber auch nicht wenige aus den spanischen Ländern -, Beichtväter und Edelknaben, die das soziale Umfeld der Erziehung komplettierten. Somit befand sich der Zögling inmitten verschiedener Interessengruppen, die in Konkurrenz untereinander sowie gemäß eigener Vorteile und Absichten agierten. Schon früh musste der junge Habsburger zu der Rolle finden, die nicht nur seine Familie, sondern auch die großen europäischen Dynastien von ihm erwarteten; denn es ging in erster Linie um Kontinuität und Berechenbarkeit, in der Familie wie in der Politik. Oft genug wurde der im höchsten Grade umsorgte wie überwachte, lange unselbständige Prinz zum Spielball der stark divergierenden Interessen seines Umfeldes, was sich auch an der Praxis der zahlreichen Heiratsoptionen zeigte, in die er ungefragt "eingepasst" wurde. Die Jugendjahre Karls V. spielten sich am Hof seiner Tante, Margarete von Österreich, ganz im burgundischen Milieu ab, das ihn kulturell und politisch prägte. Einen nachhaltigen Eindruck hinterließ hier die burgundische Rittertradition, aufs höchste symbolisiert im Orden vom Goldenen Vlies. Die Erziehung Karls, der in den ersten Jahren zusammen mit seinen Schwestern unterrichtet wurde, verlief im Prinzip zweigleisig. Neben einer fundamentalen religiösen Unterweisung durch Geistliche und Beichtväter konzentrierten sich seine Lehrer - Gelehrte wie Höflinge - einmal auf die Vermittlung eines angemessenen, gelehrten Bildungswissens und dann aber vor allem auf das praktische Handlungswissen, dabei insbesondere auf die adlige Sozialisation im Milieu des Hofes. Erziehung und Ausbildung blieben immer pragmatisch auf die späteren Aufgaben des Regierens, der Politik und der herrscherlichen Repräsentation ausgerichtet. Die Wirkung dieser Erziehung lässt sich exemplarisch fassen in Karls während der späteren Jahre konsequent verfolgten Familienpolitik, die von den Betroffenen allerdings nicht immer kritiklos akzeptiert wurde. Stationen seiner Persönlichkeitsentwicklung, die sich über viele Jahre, wenn nicht das ganze Leben, hinzog, werden vor diesem Hintergrund beleuchtet. Als die wohl prägendste Erfahrung auf dem schweren Weg vom früh verwaisten, schwächlichen und meist unsicher wirkenden Knaben zum selbständig agierenden Monarchen kann Karls erste Reise nach Spanien im Jahre 1517 gesehen werden. Hier stieß er erstmals auf offene Ablehnung und sah sich mit unerwarteten, bis dahin völlig fremden Problemen konfrontiert. Zugleich bedeutete sein Regierungsantritt als spanischer König für ihn persönlich eine entscheidende kulturelle Neuorientierung.
Verfuegen die USA ueber eine Sicherheitsstrategie fuer Suedostasien? Die grosse Mehrheit der Experten vertritt die Auffassung, dass sich die Politik Washingtons vor allem an tagespolitischen Erfordernissen orientiert. Entscheidungen werden demnach ad hoc gefaellt. Unklar ist dabei, von welchen Kriterien solche Bewertungen abhaengig gemacht werden: Was ist eine Strategie? An diesem Punkt setzt die vorliegende Abhandlung an und kommt zu dem Ergebnis, dass das Verhalten der USA in Suedostasien sicherheitsstrategischen Kriterien gerecht wird. Die Dissertation soll in drei Gebieten einen Beitrag zum Forschungsstand der politikwissenschaftlichen Teildisziplin der Internationalen Beziehungen leisten: Fuer den Begriff der Strategie werden, erstens, konkrete Messkriterien entwickelt. Innerhalb des realistischen Paradigmas wird, zweitens, der Forschungsstrang des funktionalen offensiven Realismus herausgearbeitet. Gezeigt wird, dass eine Akteursoeffnung auch unter systemischen Bedingungen moeglich ist, wozu methodisch die Instrumente der Impulsverarbeitung und Impulsumsetzung entwickelt werden. Der dabei entstandene idealtypische, theoretisch aufgeladene Strategiebegriff wird so formuliert, dass er fuer weitere Arbeiten, die sich mit staatlicher Sicherheitspolitik befassen, verwendbar ist. Empirisch traegt die Dissertation, drittens, zur Aufarbeitung des amerikanisch-chinesischen Wettbewerbs um Macht und Einfluss in Suedostasien bei. Dabei werden saemtliche bilateralen Beziehungen Chinas und der USA im ASEAN-Raum analysiert und aufeinander bezogen.
Seit den frühen siebziger Jahren ist im anglo-amerikanischen Raum eine große Anzahl an Romanen erschienen, die alle auf einer bzw. zwei eng verwandten schottischen Feenballaden ("Thomas the Rhymer" und "Tam Lin") basieren. Die vorliegende Arbeit untersucht eine Auswahl dieser Romane in vergleichender Perspektive. Der erste Teil beschäftigt sich mit Feenglauben und -literatur im Allgemeinen, während der zweite Teil der Analyse von zehn auf den Balladen basierenden Romanen gewidmet ist. Da im Ausgangsmaterial Elemente keltischen Volksglaubens eine zentrale Rolle spielen, untersucht das erste Kapitel die Grundlagen und möglichen Ursprünge des keltischen Feenglaubens. Um neben einer Einführung in die volkskundlichen Grundlagen auch eine Verankerung der Arbeit in aktuellen literaturwissenschaftlichen Theorien zu gewährleisten, gibt das zweite Kapitel einen Überblick über Theorien der phantastischen Literatur. Vorgestellt werden strukturalistische und funktionale Ansätze, die sich chronologisch von J.R.R. Tolkien (1948) über Tzvetan Todorov (1970) bis hin zu Farah Mendlesohn (2005) bewegen. Um die Bearbeitungen der frühmodernen Balladen literaturgeschichtlich einzuordnen, zeichnet das nächste Kapitel die Geschichte der literarischen Bearbeitungen des Elfenstoffes in der Literatur vom Mittelalter bis ins späte 20. Jahrhundert nach, mit Schwerpunkt auf englischsprachigen Werken. Von im Mittelalter noch stark vom Volksglauben beeinflussten, moralisch ambivalenten Figuren entwickeln sich die Elfen seit dem 16. Jahrhundert zu satirisierten, miniaturisierten und verniedlichten Gestalten; die Fantasyromane des späten 20. Jahrhunderts scheinen jedoch wieder zu stärker bedrohlichen Elfen zurück zu finden. Das nächste Kapitel widmet sich der Darstellung des Ausgangsmaterials, der zwei Balladen, die als Nr. 37 bzw. 39 in der Balladensammlung von Francis James Child zu finden sind. Erläutert werden die Entstehungsgeschichte der traditionellen Ballade (traditional ballad) im Allgemeinen und von Child Nr. 37 und 39 im Besonderen, sowie Varianten, Symbolik und Besonderheiten der zwei Balladen. Die anschließenden Analysekapitel beschäftigen sich jeweils schwerpunktmäßig mit einer Balladenadaption in Romanform: - Dahlov Ipcar: The Queen of Spells (1973) - Elizabeth Marie Pope: The Perilous Gard (1974) - Diana Wynne Jones: Fire and Hemlock (1984) - Ellen Kushner: Thomas the Rhymer (1990) - Pamela Dean: Tam Lin (1991) - Terry Pratchett: Lords and Ladies (1992) und The Wee Free Men (2003) - Patricia McKillip: Winter Rose (1996) Alle Analysekapitel sind ähnlich strukturiert: Nach kurzer Vorstellung des Autors folgt eine Zusammenfassung der Romanhandlung. Da alle Romane mehr oder weniger stark intertextuell sind, werden daraufhin Einflüsse und intertextuelle Anspielungen untersucht. Besonderes Augenmerk liegt dabei auf der Verarbeitung der zwei Child-Balladen. Da nahezu alle untersuchten Romane ähnliche Hauptcharaktere aufweisen (junges Mädchen, junger Mann, Elfenkönigin) untersuchen die Analysekapitel diese Figurenkonstellation sowie die hier verarbeiteten folkloristischen Einflüsse. Trotz der großen zeitlichen und geographischen Bandbreite der Schauplätze sind sich die Romane erstaunlich ähnlich, vor allem in der Darstellung ihrer Hauptfiguren. Die weibliche Heldin ist meist jung, eigenwillig und unterscheidet sich oft durch eine negative Charaktereigenschaft oder Umweltbedingung von ihren Altersgenossinnen. Nahezu alle Romane werden aus der Perspektive der weiblichen Hauptfigur erzählt. Dies führt dazu, dass die männliche Hauptfigur weniger zentral und oft durch eine gewisse Passivität gekennzeichnet ist. Infolgedessen ist die zweite aktive Figur der Konstellation ebenfalls eine Frau " die Elfenkönigin. Auch in ihrer Darstellung lassen sich in allen Romanen große Gemeinsamkeiten finden: Sie ist attraktiv und grausam, kühl und oft überheblich. Insgesamt werden die Elfen in den Romanen deutlich unsympathisch geschildert. Sie sind eine Spezies schöner, (fast) unsterblicher, oft übernatürlich intelligenter und mit magischen Fähigkeiten begabter Wesen, doch sind sie auch kalt, grausam und vollkommen fremdartig und unverständlich für die Menschen. Ein möglicher Grund für die negative Darstellung der Elfen scheint didaktischer Art zu sein, da die Botschaft aller Adaptionen an die Leser lauten könnte: "Akzeptiere deine Unvollkommenheit und lass dich nicht von vermeintlich überlegenen Gegnern einschüchtern " auch sie haben Schwächen". Auch in Richtung Gender-Diskurs scheinen viele der Autoren eine Aussage machen zu wollen. Sie zeichnen ihre Heldinnen als "starke Mädchen", die in einer Umkehrung des "damsel in distress"-Schemas einen Mann aus der Gefangenschaft der Elfen retten. Als feministisch kann man die Adaptionen jedoch nicht bezeichnen, da sie hierzu eher zu konservativ sind, was sich vor allem darin zeigt, dass die einzige Frau im Roman, die wirklich über Macht verfügt " nämlich die Elfenkönigin " am Ende die Verliererin ist.
Wenn eine stets von Null verschiedene Nullfolge h_n gegeben ist, dann existieren nach einem Satz von Marcinkiewicz stetige Funktionen f vom Intervall [0,1] in die reelle Achse, die in dem Sinne maximal nicht differenzierbar sind, dass zu jeder messbaren Funktion g ein Teilfolge n_k existiert, so dass (f(x+h_n_k)-f(x))/h_n_k fast sicher gegen g konvergiert. Im ersten Teil dieser Arbeit beweisen wir Erweiterungen dieses Satzes im Mehrdimensionalen und Analoga für Funktionen in der komplexen Ebene. Der zweite Teil dieser Arbeit befasst sich mit Operatoren die in enger Beziehung zum Satz von Korovkin über positive lineare Operatoren stehen. Wir zeigen, dass es Operatoren L_n gibt, die jeweils eine der Eigenschaften aus dem Satz von Korovkin nicht erfüllen und gleichzeitig eine residuale Menge von Funktionen f existiert, so dass L_nf nicht nur nicht gegen f konvergiert, sondern sogar dicht im Raum aller stetigen Funktionen des Intervalls [0,1] ist. Ähnliche Phänomene werden bei polynomieller Interpolation untersucht.
In der vorliegenden Arbeit geht es um die Frage nach der Rolle der Zeit im Werk Friedrich von Hardenbergs (Novalis, 1772-1801). Sowohl die Zeitstruktur in der Dichtung als auch das Zeitbewusstsein in der Transzendentalphilosophie bei Novalis wurden in der Forschung mehrfach thematisiert. Eberhard Haufe (1957) und Peter Küpper (1959) analysierten die Zeitstruktur im Heinrich von Ofterdingen eingehend und kamen zu dem Schluss, dass die Entwicklung des Romaninhalts dem Stil und der Symbolhaftigkeit der Sprache unterworfen werden und dass damit die Zeit aufgehoben wird. Manfred Frank (1972) analysierte das Zeitbewusstsein in den Fichte-Studien und legte dar, dass das Bewusstsein der Zeitlichkeit aus dem Gefühl eines unlösbaren "Mangels" an Sein entstehe und dass deshalb die Freiheit des Ich nicht durch Aufhebung der Zeit, sondern in einer Synthese von Zeit und Ewigkeit in der Zeit realisiert werden sollte. Während Frank den Ort der Dynamik des "Ordo inversus" zwischen Subjekt und Objekt in der Zeit bestimmte, entwickelte Richard Warren Hannah (1981) die These, dass die Synthese von Ich und Du, Zeit und Raum, Vergangenheit und Zukunft in der Gegenwart liege und dass das Bewusstsein der Gegenwart der Ausgangspunkt der Dichtung bei Novalis wurde. Durch die Arbeiten von John Neubauer (1978) und Gordon Birrell (1979) wurde die Aufhebung der Zeit im Ofterdingen zwar verleugnet und die Rolle der Zeit und der Gegenwart im Roman hervorgehoben, aber es fehlt in der Forschung m. E. noch ein roter Faden zwischen dem transzendentalphilosophischen Zeitbewusstsein und der Zeitstruktur in der Dichtung. In seiner ersten Fragmentsammlung Blüthenstaub (1798) schreibt Novalis: "Nichts ist poëtischer, als Erinnerung und Ahndung, oder Vorstellung der Zukunft. Die gewöhnliche Gegenwart verknüpft beyde durch Beschränkung " Es entsteht Contiguitaet, durch Erstarrung " Crystallisation. Es gibt aber eine geistige Gegenwart " die beyde durch Auflösung identificirt " und diese Mischung ist das Element, die Atmosphäre des Dichters. Nicht Geist ist Stoff." (II, 468, 123) In dieser Arbeit wird erläutert, dass die Idee der "geistigen Gegenwart" ein roter Faden ist, der Philosophie und Dichtung bei Novalis verbindet. Um zwischen Theorie und Dichtung eine Brücke zu schlagen, soll der Gedankengang von Novalis von den Fichte-Studien (1795/96) bis zum Heinrich von Ofterdingen (geschrieben um 1800) nachvollzogen werden. Die vorliegende Arbeit geht davon aus, dass das Bewusstsein der Gegenwart als einer Synthese nicht nur die philosophischen Studien, sondern auch die Poetik und die Dichtung von Novalis durchgängig prägt. Es soll erläutert werden, wie er den Begriff der "geistigen Gegenwart" begründete und wie er ihn auf seine Poetik und dichterische Praxis übertrug. Diese Arbeit stellt einen Versuch dar, den ganzen Gedankengang von Novalis als eine Suche nach Möglichkeiten einer sinnlichen Erfahrung der "geistigen Gegenwart" darzustellen.
The aim of the thesis was to investigate the role of the immune system in fibromyalgia (FM), as part of a dynamic co-regulation between different bodily systems. FM is a chronic musculoskeletal disorder characterized by widespread pain and specific tender points, combined with other symptoms including fatigue, sleep disturbances, morning stiffness and anxiety. The main goal of the work was to identify possible dysregulation of peripheral immune and endocrine parameters in patients with FM compared to matched healthy controls. Moreover, the possible relation between symptom complaints and the specific parameters measured was also evaluated. A first approach was to investigate possible differences between FM patients and controls in the expression of cytokines, as they have been implicated in the occurrence of several of the symptoms associated with FM. Furthermore, adhesion molecules which are involved in cell-to-cell communication and immune cell trafficking were also studied. The latter are known to be regulated by both cytokines and glucocorticoids (GCs) and their expression is often found altered in patients with immune dysregulation. It was expected that subjects with FM would have an increased production of proinflammatory cytokines and/or a reduced antiinflammatory cytokine production and that certain cytokines and/or adhesion molecules would be differently regulated by dexamethasone (DEX). Unstimulated blood was used in the analysis of adhesion molecule expression by flow cytometry while stimulated whole blood cell cultures were used in cytokine flow cytometry assays. Peripheral blood mononuclear cells (PBMCs) were also cultured and the supernatants collected to determine the concentration of cytokines by biochip protein array. In addition, serum samples were used in enzyme-linked immunosorbent assays (ELISA) for quantification of soluble adhesion molecules. L-selectin was found elevated on monocytes and neutrophils of FM patients. A bias toward lower IL-4 levels was observed in FM patients. Based on studies showing differences in glucocorticoid receptor (GR) affinity and disturbances associated with loss of hypothalamic-pituitary-adrenal (HPA) axis resiliency in FM, it was hypothesized whether FM would be associated with abnormalities in glucocorticoid sensitivity. Total plasma cortisol and salivary free cortisol were quantified by ELISA and time-resolved fluorescence immunoassay, respectively. GR sensitivity through DEX inhibition of IL-6, in stimulated whole blood, was evaluated after cytokine quantification by ELISA. The corticosteroid receptors, GR alpha and mineralocorticoid receptor (MR), as well as the glucocorticoid-induced leucine zipper (GILZ) and the FK506 binding protein 5 mRNA expression were assessed in PBMCs by real-time reverse transcription-polymerase chain reaction (RT-PCR). Furthermore, sequencing of RT-PCR products and/or genomic DNA was used for mutational analysis of the corticosteroid receptors. We observed lower basal plasma cortisol levels (borderline statistical significance) and a lower expression of corticosteroid receptors and GILZ in FM patients when compared to healthy controls. The minor allele of the MR single nucleotide polymorphism (SNP) rs5522 was found more often in FM patients than in controls. In addition, female carriers of this SNP seemed to have reduced salivary cortisol responses to a strong psychological stressor (Trier Social Stress Test) compared to non-carriers. FM patient carriers of an MR intronic SNP (rs17484245), before exon 3, were associated with significantly higher scores of depression symptoms compared to patient non-carriers. The thesis includes also a comprehensive analysis of the complexity of GR regulation and the role of alternative mRNA splicing. It focuses on the differential expression of the untranslated GR first exons, their high sequence homology among different species and how genetic determinants, without apparent relevance, may have implications in health and disease. In FM patients, GR exon 1-C expression was found lower and a significant difference was observed when comparing GR 1-C expression between antidepressant-free and patients who had taken antidepressants until two weeks before sample collection. In summary, the study shows a slight disturbance of some components of the innate immune system of FM patients and suggests an enhanced adhesion and possible recruitment of leukocytes to inflammatory sites. The reduced expression of corticosteroid receptors and possibly the reduced MR function may be associated with an impaired function of the HPA axis in these patients. A hyporesponsiveness of the HPA axis under stress or disturbances of the stress response could make these patients more vulnerable to cytokines and inflammation which, compounded by lower antiinflammatory mediators, may sustain some of the symptoms that contribute to the clinical picture of FM.
Die Dissertation behandelt die Sakralarchitektur Triers des 13. und 14. Jahrhunderts, die mit Ausnahme der Liebfrauenkirche in der bisherigen Forschung keine ausreichende Würdigung erfahren hat. In Trier werden drei Rezeptionsstränge gotischer Architektur ins Reich deutlich: Nach der anfäng-lichen Übernahme einzelner Neuerungen aus dem zisterziensischen Architekturkreis und der Aneignung einzelner Strukturen werden schließlich ganze Konzepte rezipiert. Das Zisterzienserkloster Himmerod kann entgegen der bisherigen Forschungsmeinung nicht als Auslöser des gotischen Baubooms in Trier gelten - keinerlei Quellen weisen darauf hin. Um 1221 beginnen die in Stadt gelangten Dominikaner und Franziskaner, später die Augustiner-Eremiten und Karmeliter mit dem Bau ihrer Kirchen, die neben der champagnesischen Baugruppe eine eigenständige Bautengruppe bilden. Bettelordenarchitektur verdeutlicht eine ordensinterne Repräsentationsstrategie, die sich in der Ablehnung des Hauptbaus der champagnesischen Baugruppe - der Liebfrauenkirche - zeigt und die auf der Wiedererkennung als Bettelordenkirche in einem Stadtgefüge basiert. So ist die Sakralarchitektur Triers das Ergebnis unterschiedlicher Repräsentationsbedürfnisse des Erzbischofs bzw. der Bettelorden. Trier muss aufgrund der enormen und frühen Bautätigkeit als frühgotisches Zentrum des Reiches gelten.
In der Arbeit wird untersucht, wie die EU mit Diversität umgeht, wie sich entsprechende Maßnahmen in der Personalpolitik der verschiedenen europäischen Behörden niederschlägt und welche Auswirkungen dies hat. Es wird herausgearbeitet, dass die EU als Institution einige Spezifika aufweist, die diese Frage beeinflussen und die bei einer Beurteilung Berücksichtigung finden müssen. So ist die EU verpflichtet, die Vielfalt der Mitgliedstaaten in den eigenen Institutionen abzubilden. Eine Besonderheit ist auch, dass die Effizienz der Organisation " und damit auch der mögliche Wert von Diversity Management (DiM) " mangels marktinduzierter Kriterien schwer zu bestimmen ist. Die Arbeit gliedert sich in vier Teile. Nach einer überblickartigen Einführung (Teil A) werden in Teil B der Anspruch von DiM und dessen Vor- und Nachteile dargestellt. Als Bezugspunkt für erfolgreiches DiM werden einige Beispiele aus deutschen Großunternehmen angeführt, wo DiM eine relativ bedeutende Rolle spielt. Die Einschätzung, was diese Erfahrungen für die EU bedeuten könnten, schließt den Teil B ab. Dabei werden die Besonderheiten einer Behörde, die durch starke rechtliche Regelungen gebunden ist und für die es kaum eindeutige Effizienzkriterien gibt, besonders hervorgehoben. Der Teil C enthält die empirischen Recherchen, die angestellt wurden. Dazu werden zunächst das Weißbuch des Kinnock Reports und das Statut für die Beamten der Europäischen Gemeinschaften von 2004 ausführlich dargestellt und anschließend gewürdigt. Es stellt sich heraus, dass bei einzelnen Personalmaßnahmen bereits weitgehende Öffnungen und Flexibilitäten vorgesehen sind, die sich unmittelbar zur Implementierung von DiM anbieten. Im Weiteren wurde ein leitender Mitarbeiter des Europäischen Parlaments zu dem Statut ausführlich interviewt. Die Ergebnisse verleihen den vorher geschilderten Regelungen des Statuts Farbe und vermitteln dem Außenstehenden ein lebendiges Bild vom Innenleben einer solchen Behörde. Die Einschätzung der neuen Regelungen durch den Interviewten ist zwar differenziert, aber insgesamt ergibt sich doch ein positives Bild der personalpolitischen Maßnahmen im Hinblick auf die mögliche Implementierung von DiM. Die zweite wesentliche empirische Quelle der Arbeit sind Publikationen der EU selbst zu Problemen der Diversität, Diskriminierung und verwandten Themen. Die dazu erschienenen Broschüren geben Auskunft darüber, welche Ansichten die Mitarbeiter zu Bestrebungen um Diversität und Chancengleichheit äußern, welche Aktionen die EU plant und welche Erfolge man sich erhofft. Die Prüfung dieser Unterlagen ergibt, dass in einer solchen Organisation die Integration von Minderheiten weit fortgeschritten ist und Vorurteile und offene Diskriminierungen weitgehend fehlen. Jedoch werden Umsetzungsprobleme der Maßnahmen zur Chancengleichheit der Geschlechter, zur work-life balance, zur Respektierung von Behinderungen oder sexuellen Orientierungen konstatiert. Um die geschilderten Maßnahmen zu beurteilen, werden sie mit entsprechenden Entwicklungen der im zweiten Teil der Arbeit beschriebenen privatwirtschaftlichen Organisationen, die als Vorreiter des DiM in Europa angesehen werden können, verglichen. In einem weiteren Schritt sollten die Einschätzung der Mitarbeiter zu Diversität und zu den vorher beschriebenen Maßnahmen ergründet werden. Die ins Auge gefasste repräsentative Befragung konnte trotz anfänglicher Ermutigung in einer Behörde der EU, dem Europäischen Parlament (EP), nicht durchgeführt werden, da die EU-Behörden eine offizielle Unterstützung der Untersuchung und damit den Zugang zu anderen Interviewpartnern nicht zustimmten. Daher beschränkte sich die Befragung auf Mitarbeiter, die sich nach Ansprache durch einige leitende Beamte zur Beantwortung gleichsam als Privatpersonen zur Ausfüllung des Fragebogens bereit erklärten. Die Befragung hat also keinerlei repräsentativen, sondern rein explorativen Charakter. Im Teil D der Arbeit wird eine Gesamtbewertung der Recherchen abgegeben. Es wird konstatiert, dass zwar eine Menge an Einzelinitiativen und -maßnahmen in den Behörden der EU zu finden ist, dass aber mit einem übergreifenden Konzept des DiM diese Aktionen koordiniert und in ihrem Nutzen verstärkt werden könnten.
In der vorliegenden Arbeit wurden die regulatorischen Regionen der Gene für den Kaliumchloridtransporter 3 (KCC3, SLC12A6) und den Glukokortikoidrezeptor (NR3C1) untersucht. Hierbei handelt es sich um Gene, die bereits mit psychiatrischen Erkrankungen assoziiert worden sind. Die Promotorregionen beider Gene wurden in Abhängigkeit von bereits in der Literatur beschriebenen DNA-Polymorphismen und unter besonderer Berücksichtigung epigenetischer DNA-Modifikationen mittels bisulfitspezifischer Sequenzierung und Luciferase-Assay funktionell charakterisiert. Es konnte gezeigt werden, dass DNA-Polymorphismen und epigenetische Veränderungen der Erbinformation - letztere können in Abhängigkeit unterschiedlicher Lebenserfahrungen entstehen - funktionelle Relevanz für die Promotoraktivität der untersuchten Gene haben. Strukturelle und modifikatorische DNA-Variationen sowie Gen-Umwelt Wechselwirkungen beeinflussen somit die Genregulation und können unter bestimmten Bedingungen krankheitsrelevant werden.
In this thesis, we investigate the quantization problem of Gaussian measures on Banach spaces by means of constructive methods. That is, for a random variable X and a natural number N, we are searching for those N elements in the underlying Banach space which give the best approximation to X in the average sense. We particularly focus on centered Gaussians on the space of continuous functions on [0,1] equipped with the supremum-norm, since in that case all known methods failed to achieve the optimal quantization rate for important Gauss-processes. In fact, by means of Spline-approximations and a scheme based on the Best-Approximations in the sense of the Kolmogorov n-width we were able to attain the optimal rate of convergence to zero for these quantization problems. Moreover, we established a new upper bound for the quantization error, which is based on a very simple criterion, the modulus of smoothness of the covariance function. Finally, we explicitly constructed those quantizers numerically.
Der Handlungsspielraum der deutschen Außen- und Sicherheitspolitik hat sich mit dem Wegfall der systemischen Zwänge des Kalten Krieges und der letzten formalen Souveränitätsbeschränkungen nach 1990 erhöht. Zugleich bewahrheitete sich die von einigen neorealistischen Beobachtern vertretene Befürchtung nicht, Deutschland könne nun seine Bindungen im Rahmen der euro-atlantischen Sicherheitsinstitutionen aufgeben und fortan einen unilateraleren sicherheitspolitischen Kurs einschlagen. Stattdessen unterstrichen alle Bundesregierungen die weiterhin zentrale Bedeutung der NATO für die deutsche Sicherheitspolitik. Auf der Grundlage dieser beiden Beobachtungen " dem erweiterten Handlungsspielraum und dem fortdauernden deutschen Bekenntnis zur NATO " kann die Erwartung formuliert werden, dass Deutschland den zu Beginn der 1990er Jahre neu einsetzenden Transformationsprozess der Allianz aktiv und mit eigenen Impulsen begleitet hat und entsprechende Initiativen unternahm. Ein erster Blick auf die sicherheitspolitische Praxis enttäuscht diese Erwartungen jedoch. Lediglich im Zusammenhang mit der ersten Osterweiterung wurde der deutschen Bundesregierung (und insbesondere dem früheren Verteidigungsminister Volker Rühe) eine gestaltende Funktion zuerkannt, während sie im Bereich des militärischen Krisenmanagements in der Regel als Bremser qualifiziert wurde. Auch im Zusammenhang mit der globaleren Ausrichtung der NATO nach dem 11. September 2001 scheint die Bundesrepublik Deutschland sich über weite Strecken eher den Vorgaben des amerikanischen Bündnispartners angepasst zu haben, als dass sie den Prozess aktiv mitgestaltete. Die vorliegende Arbeit untersucht vor diesem Hintergrund den Gestaltungswillen der deutschen NATO-Politik von 1991 bis 2005 in den zentralen Bereichen der NATO-Osterweiterungen, des militärischen Krisenmanagements und der Antiterrorpolitik nach dem 11. September 2001. Trifft das Urteil weitreichender deutscher Passivität zu oder lassen sich differenziertere Handlungsmuster identifizieren? Wie lassen sich diese Handlungsmuster erklären? Zur Bearbeitung der Fragestellung wird ein Analyserahmen entwickelt, dem das spezifische deutsche Funktionsverständnis gegenüber der NATO als Institution zugrunde liegt. Die institutionalistische Theorie in den Internationalen Beziehungen hat ein Spektrum allgemeiner und spezifischer Funktionen entwickelt, welche die europäischen Sicherheitsinstitutionen aus Sicht ihrer Mitgliedstaaten erfüllen sollen. An dem einen Ende dieses Spektrums steht die allgemeine und primär nach innen gerichtete Funktion. Sie zielt auf die kooperative Sicherheit im Sinne der gegenseitigen Beeinflussung und Einbindung der Mitgliedstaaten ab. Dagegen handelt es sich bei der militärischen Interventionsfähigkeit um eine in erster Linie nach außen gerichtete, die militärische Handlungsfähigkeit der NATO betreffende spezifische Funktion. Zwar umfasst dieses Spektrum nicht ausschließlich Entweder-Oder-Kategorien. Allerdings stehen allgemeine und spezifische Funktionen vor dem Hintergrund begrenzter finanzieller Ressourcen sowie unterschiedlicher Anforderungen an die NATO-Strukturen (beispielsweise im Sinne der Exklusivität vs. Inklusivität) in einem Spannungsverhältnis. Somit werden die Mitgliedstaaten der Allianz die verschiedenen Funktionen der NATO unterschiedlich gewichten. Auch der deutschen Politik liegt ein spezifisches Funktionsverständnis zugrunde, welches durch innenpolitische, z.T. kulturell und historisch geprägte, Faktoren bestimmt wird. Das Ziel der Arbeit ist es, den Gestaltungswillen der deutschen Politik im NATO-Transformationsprozess nach dem Ende des Kalten Krieges nachzuzeichnen und das dieser Politik zugrunde liegende Funktionsverständnis von institutioneller Kooperation zu analysieren. Dem erkennbaren Bestreben der Bundesregierungen auch nach 1990, die Institution NATO zu erhalten, zu stärken und schließlich auch um neue Mitglieder zu erweitern steht dabei eine zögerliche Haltung gegenüber dem militärischen Krisenmanagement und der Schaffung der militärischen Voraussetzungen zur Umsetzung der gemeinsamen Ziele gegenüber (Verteidigungshaushalt, Bundeswehrreform). Die Arbeit kommt zu dem Schluss, dass sich dieser scheinbare Widerspruch mit dem deutschen Funktionsverständnis erklären lässt, welches der kooperativen Sicherheit einen deutlich höheren Stellenwert einräumt als der militärischen Interventionsfähigkeit.
Vor dem Hintergrund mehrerer Jahrhunderthochwasser im letzten Jahrzehnt werden Aspekte des präventiven (dezentralen) Hochwasserschutzes diskutiert. Dabei wird die gegenwärtige Intensität der Landnutzung mit einem verringerten Retentionsvermögen der Landschaft in Verbindung gebracht; in Extensivierungsmaßnahmen wird ein entsprechendes Potenzial zur Vermeidung von Hochwasserrisiken gesehen. Dabei ist zu beachten, dass einerseits hydrologische Simulationsmodelle zur Bewertung möglicher Landnutzungsszenarien eingesetzt werden, andererseits aber auf wissenschaftlicher Seite Defizite beim grundlegenden Erkenntnisstand über die Abflussbildung zu konstatieren sind. Der Fokus der vorliegenden Arbeit lag auf der grundlegenden Prozessforschung zur Abflussbildung in der Mikroskale und griff methodisch die Forderung nach mehr Erkenntnissen aus Geländeuntersuchungen auf. Hierzu wurden Beregnungsversuche und bodenkundliche Untersuchungen in zwei unterschiedlichen Einzugsgebieten der Trier-Bitburger Mulde durchgeführt, wodurch die substratbedingten dominanten Abflussbildungsprozesse identifiziert werden konnten. Bei dem schluffig-sandigen Substrat war die hohe texturbedingte Grobporosität für die Tiefensickerung entscheidend. Für das lehmig-tonige Substrat hingegen waren laterale Fließprozesse entlang von Regenwurmröhren über dichten Unterböden charakteristisch. Die Landnutzung führte zur Modifikation des substratspezifischen Abflussprozesses, indem sie vor allem Einfluss auf die Infiltrationseigenschaften der Bodenoberfläche nahm. Die hohe Verschlämmungsneigung des schluffig-sandigen Substrates führte zu Oberflächenabfluss unter Ackernutzung. Auf extensiv genutzten Grünlandstandorten hatte ein dichtes Geflecht von Feinwurzeln, abgestorbener Blattbiomasse und Moosen eine deutliche Reduktion der Infiltration zur Folge, so dass Oberflächenabfluss als dominanter Prozess auftrat. Auch Wälder verfügen nicht unweigerlich über ein großes Retentionsvermögen, wenn sie auf Ungunststandorten verbreitet sind. Auf dem untersuchten lehmig-tonigen Substrat wiesen die flachgründigen Waldstandorte die höchsten Abflusskoeffizienten an Subsurface Flow auf. Um die Abflussprozesse eines Landschaftsausschnittes zu charakterisieren, wurden quantifizierbare Kriterien zur flächendistributiven Ausweisung dominanter Einflussfaktoren auf die Abflussprozessbildung in einem Entscheidungsbaum zusammengefasst. Hierdurch können räumlich homogene Einheiten von hydrologischen Prozessen oder Komponenten des Wasserhaushaltes ausgewiesen werden. Die Identifikation von Abflussprozessen am Ort ihrer Entstehung ermöglicht die Planung flächenbezogener Maßnahmen des dezentralen Hochwasserschutzes
Die Renaissance und die frühe Neuzeit sind entscheidende Phasen für die Entstehung der modernen Naturwissenschaften " und weisen gleichzeitig Merkmale auf, die zunächst ganz und gar nicht wissenschaftlich erscheinen. Dies gilt insbesondere für die Weltbilder, denen die Forscher dieser Zeit verhaftet waren und für die Methoden, mit denen sie zu wissenschaftlichen Erkenntnissen gelangten. Nachvollziehen lässt sich dieser Befund bei Paracelsus, Robert Boyle und Isaac Newton. Sie alle haben die Wissenschaft vorangetrieben und ihr zu neuen Einsichten verholfen. Ihre Vorgehensweise war dabei weder einheitlich noch im heutigen Sinne streng wissenschaftlich " es genügt zu sagen, dass alle drei sich ernsthaft mit der Alchemie beschäftigt haben. Der Alchemie liegt eine ganz andere Weltanschauung zugrunde als der sich entwickelnden modernen Naturwissenschaft: Magische Wechselwirkungen, Entsprechungen und Ähnlichkeiten sowie Kräfte wie Sympathien und Antipathien sind unumstrittene Grundelemente. Das Weltbild der modernen Naturwissenschaften wird dagegen zunehmend mechanisiert und quantifiziert " mit dem Ziel, alles auf rein mechanische Wechselwirkungen zwischen den atomaren Bausteinen der Materie zu reduzieren. Die naturwissenschaftlichen Erklärungen und Hypothesen, die innerhalb dieser beiden unterschiedlichen Weltbilder entstanden sind, waren demzufolge grundsätzlich voneinander verschieden. Gleiches gilt für die Methoden, die jeweils als adäquate Mittel des Erkenntniserwerbs akzeptiert wurden. Die Beurteilung von Forschern, die sich mit Alchemie beschäftigt haben, ist daher nicht immer einfach. Gerade das Verhältnis von alchemistischer und anerkannt wissenschaftlicher Forschung verlangt eine differenzierte Untersuchung. Wie kann man sowohl Newtons Interesse für Alchemie als auch seinen quantitativ-mathematischen Erkenntnissen Rechnung tragen und dennoch zu einem einheitlichen Bild kommen? Müssen beide Bereiche getrennt betrachtet werden " und damit eindeutig in "wissenschaftlich" und "unwissenschaftlich" geschieden werden " oder kann es sein, dass sich beides gegenseitig befruchtet hat? Die vorliegende Dissertation versucht zu zeigen, dass der eigentümliche weltanschauliche und methodologische Pluralismus der Renaissance und der frühen Neuzeit die Wissenschaft in vieler Hinsicht bereichert hat. So verschieden die zur Debatte stehenden Weltbilder waren, so reich war auch das Repertoire an unterschiedlichen Erfahrungstatsachen, Erklärungsmustern, theoretischen Begriffen und wissenschaftlichen Methoden, das sie zur Verfügung stellten. In diesem Sinne lässt sich feststellen, dass Paracelsus, Boyle und Newton nicht wissenschaftliche Erfolge erzielten, obwohl sie Alchemisten waren, sondern auch weil sie es waren.
The human brain is characterised by two apparently symmetrical cerebral hemispheres. However, the functions attributed to each half of the brain are very distinct with a relative specialisation of the left hemisphere for language processing. Most laterality research has been performed on a behavioural level, using techniques such as visual half-field presentation. The visual half-field technique involves the presentation of stimuli in the left or right visual field for a very short time (about 200 ms). During the presentation of lateralized stimuli, the gaze of the participants is fixated on a centrally presented fixation cross. This technique takes advantage of the anatomy of the visual pathway as the temporal hemiretinae project ipsilateral, while the nasal hemiretinae project contralateral. Thus, stimuli presented in the left or right visual field are initially processed in the contralateral hemisphere. Language organisation can also be directly investigated using functional magnetic resonance imaging (fMRI). Both behavioural and neuroimaging studies showed that about 95% of right-handed men have a left hemispheric specialisation for language. In contrast, data on language organisation in women are ambiguous. It is supposed that this ambivalent picture might be associated with changes in gonadal steroid levels in blood during the menstrual cycle. However, gonadal steroid effects are complex and their role in functional cerebral lateralization is still open to discussion. The aim of this PhD project was to investigate, using fMRI: (1) the processing of linguistic information initially received in the specialised, non-specialised or both hemispheres; (2) linking the associated brain activation pattern with progesterone levels during the menstrual cycle. Firstly, brain activation was measured in 16 right-handed, healthy males during processing of different components of language (orthography, phonology and semantics) after reception in the left, right or both hemispheres. Secondly, to investigate changes in language organisation during the menstrual cycle, we conducted an event-related fMRI study during semantic and phonological processing also using visual half-field and central presentation of linguistic stimuli. Our results revealed higher BOLD signal intensity change in the visual cortex contralateral to the visual field of stimulus presentation compared to the ipsilateral visual cortex reflecting the crossing of visual pathways. We also found support for the hypothesis that the superiority of word recognition in the left VWFA is the result of a reduced activity in the right VWFA under left hemispheric control. Further, linguistic information received in the subdominant RH, is interhemispheric transferred to the left hemisphere for phonological processing. Semantic processing in contrast occurs in the specialised and in the non-specialised hemisphere. For the group of women, data analysis revealed that during semantic processing, salivary progesterone levels correlated positively with brain activity of the left superior frontal gyrus, left middle and inferior occipital gyri and bilateral fusiform gyrus. In contrast, the brain activation pattern for phonological processing did not change significantly across the menstrual cycle. In conclusion, the effect of serum progesterone levels on brain activity is task and region specific.
In der vorliegenden Dissertation wurde Belohnungssensitivität mit Spielverhalten und elektrophysiologischen Korrelaten wie dem Ruhe-EEG und ereigniskorrelierten Potenzialen auf Feedback-Reize in Verbindung gebracht. Belohnungssensitivität ist nach der zugrundeliegenden Definition als Konstrukt mit mehreren Facetten zu verstehen, die eng mit Extraversion, positiver Affektivität, dem Behavioral Activation System, Novelty Seeking, Belohnungsabhängigkeit und Selbstwirksamkeit assoziiert sind. Bei der Untersuchung einer spezifischen Spielsituation, in der 48 gesunde Studentinnen durch eigene Entscheidungen Belohnungen erhalten konnten, zeigte sich, dass das Spielverhalten mit den während des Spiels erfassten ereigniskorrelierten Potentialen (hier: FRN (feedback related negativity)und P300) auf die Belohnungssignale in Form eines Feedbacks korreliert. Belohnungssensitive Personen zeigen tendenziell nach einem Gewinn-Feedback eine weniger negative FRN-Amplitude, die wiederum positiv mit der gewählten Einsatzhöhe assoziiert ist. Auch die Amplitude der P300 scheint mit dem Spielverhalten zusammenzuhängen. So zeigte sich ein positiver Zusammenhang zwischen typisch belohnungssensitivem Verhalten und der mittleren Amplitude der P300: Gewinne gehen mit einer größeren P300-Positivierung und schnelleren Entscheidungen im Spiel einher. Dagegen konnte weder das Spielverhalten noch die über diverse Fragebögen erfasste Ausprägung der Belohnungssensitivität in der kortikalen Grundaktivierung im Ruhezustand einer Person abgebildet werden. Die vorliegenden Ergebnisse deuten darauf hin, dass Belohnungssensitivität ein Persönlichkeitsmerkmal ist, das sich sowohl im Verhalten, als auch in der elektrokortikalen Aktivität in belohnungsrelevanten Situationen widerspiegelt.
Im 18. Jahrhundert manifestierte sich ein grundlegendes Kennzeichen moderner Kunst: ihr Öffentlichkeitsanspruch. Dessen diskursiven Verdichtungen konkretisierten sich in der zeitgenössischen Kunsttheorie und -literatur, in der Kunstkritik, in Beschreibungen und bildlichen Darstellungen, und ebenso in vielfachen impliziten Strategien zur Adressierung bildender Kunst. In der Entstehung der Kunstausstellung, der Kunstkritik, dem Wandel des Patronagesystems und den damit verbundenen Kommunikationsstrategien bildender KünstlerInnen wird nicht nur eine historisch reale Figur beschrieben, sondern zugleich ein imaginäres Konstrukt entworfen: das Kunstpublikum. Am Beispiel zweier bedeutender Kunstzentren des 18. Jahrhunderts, Paris und London, wird der Umgang mit dieser neuen Öffentlichkeit in der bildenden Kunst, Kunstliteratur und Ausstellungspraxis verfolgt. Tatsächlich ist die Anrede des "enlightened public" oder "public éclairé" allgegenwärtig, doch ist es oft schwierig, die Grenzen zwischen höflicher Leerformel, Euphemismus und Ironie richtig zu lesen. Das Sprechen über Öffentlichkeit ist nicht einfach eine Quelle für einen historisch-soziologischen Wandel, sondern stellt ein Symptom der zunehmenden Emphatisierung des Öffentlichkeitsbegriffs im Zuge der Aufklärung dar. Dabei ist das "Publikum" auch eine Konstruktion, die Leerstellen auffüllen muss, und der ihm zugewiesene Platz wechselt immer wieder. Die Formierung des Öffentlichkeitsbegriffs geschah nicht nur als Prozess der Öffnung, sondern auch der Abgrenzung. Ebenso bedeutend wie die positiven Formulierungen sind die negativen Zerrbilder des Publikums, die im 18. Jahrhunderts vielfach entwickelt werden. Am Beispiel zweier solcher Negativbilder, des "Connaisseurs" und der "multitude" werden die Verbindungen zur ästhetischen Theorie untersucht. Traditionelle Öffentlichkeitstheorien hinterlassen noch weit in das 18. Jahrhundert hinein ihre Spuren. Dies führt zu Begrifflichkeiten, die nicht emanzipatorisch oder demokratisch geprägt sind und zu einem Verständnis von Öffentlichkeit, das nicht nur prinzipiell kritisch oder widerständig, subversiv oder oppositionell gedacht werden kann, sondern mit jeder Öffnung auch eine Schließung unternimmt. Das "Kunstpublikum" entwickelt sich in einem konfliktreichen Prozess, in dem sich die Zugangsberechtigungen zur Institution Kunst immer wieder verändern und neu ausdifferenzieren.
As a target for condemnation, the thematic prevalence of racism in African American novels of satire is not surprising. In order to confront this vice in its shifting manifestations, however, the African American satirist has to employ special techniques. This thesis examines some of these devices as they occur in George Schuyler- Black No More, Charles Wright- The Wig, and Percival Everett- Erasure. Given the reciprocity of target and technique in the satiric context, close attention is paid to how the authors under study locate and interrogate racism in their narratives. In this respect, the significance of anti-essentialist Marxist criticism in Schuyler- Black No More and the author- portrayal of the society of his time as capitalist machinery is examined. While Schuyler is concerned with exposing the general socioeconomic workings of the 1920s from a Marxist perspective, Wright offers the reader perspective into how this oppressive machinery psychologically manipulates and corrupts the individual in the historic context of Lyndon B. Johnson- political vision of the Great Society. Everett then elaborates on the epistemological concern which is traceable in Wright- work and addresses the role media representation plays in manufacturing images and rigid categories that shape systematic racism. As such, the present study not only highlights the versatility of satire as a rhetorical secret weapon and thus ventures toward the idiosyncrasies of the African American novel of satire, it also makes an effort to trace the ever-changing face of racial discrimination.
Im Rahmen der Vertrauensforschung ermöglicht das handlungstheoretische Partialmodell der Persönlichkeit von Krampen (1997) eine differenzierte Betrachtung der drei Vertrauenskonstituenten, interpersonales Vertrauen, Selbstvertrauen und Zukunftsvertrauen, welche auch als Vertrauens-Trias bezeichnet werden. Diese Vertrauenskonstrukte wurden in der vorliegenden Arbeit mit der klinischen Bindungsforschung und der differenziellen Allianzforschung in Zusammenhang gebracht. Vor diesem theoretischen Hintergrund wurde in der vorliegenden klinischen Studie die prognostische Bedeutung der Vertrauenskonstituenten für den Therapieerfolg an einer diagnostisch heterogenen Stichprobe von 280 Patientinnen und Patienten im Rahmen der Routineversorgung untersucht. Dabei wurden die Vertrauenskonstituenten sowohl auf generalisierter Ebene operationalisiert als auch auf bereichsspezifischer Ebene im Rahmen der therapeutischen Beziehung. Durch Item- und Skalenanalysen konnten die Eindimensionalität, Konstruktvalidität und Änderungssensitivität der in dieser Studie realisierten generalisierten und bereichsspezifischen Facetten von Vertrauen bestätigt werden. Die Analysen zur prognostischen Bedeutung der Vertrauens-Trias für den Therapieerfolg zeigten eine bedeutsame Varianzaufklärung durch die bereichsspezifischen Vertrauensskalen. Das bereichsspezifische Zukunftsvertrauen stellte dabei den varianzstärksten Prädiktor für den Therapieerfolg dar. Darüber hinaus wurde dieser Zusammenhang von der Art des Störungsbildes moderiert und lieferte damit einen wichtigen Hinweis auf die differenzielle Indikationsstellung für die psychotherapeutische Behandlung von Patientinnen und Patienten mit psychischen Störungen.
The skin is continuously challenged by environmental antigens that may penetrate and elicit a skin sensitization, which can develop into allergic contact dermatitis. Medical treatment for allergic contact dermatitis is limited - in fact only acute symptoms can be cured and for secondary prevention of the disease a lifelong avoidance of the allergen(s) is necessary. Therefore, the screening of the sensitization potential of substance used in commercially available products is indispensable to prevent such diseases. Hence, risk assessment is deduced from data obtained by murine local lymph node assay predominantly, but there exists a need to develop methods capable of providing the same information that do not require the use of animals in view of legislative initiatives such as REACH (registration, evaluation, authorization of chemicals) as well as the 7th Amendment to the Cosmetics Directive (2003/15/EC). Therefore, a number of promising in silico and in vitro approaches are being developed to address this need. In vitro test systems using the response of dendritic cells, which are the key player in the elicitation process of contact dermatitis, are established, but, although these novel methods for hazard identification might find application in the context of screening, it is not clear whether these approaches are useful for the purposes of risk assessment and risk management to predict allergic potency. Therefore, it was investigated whether on the one hand in vitro generated dendritic cells from primary blood monocytes (MoDC) and on the other hand a continuous monocytic cell line, the THP-1 cells, suggested as dendritic cell surrogate, react to a presumably weak allergen. Ascaridol, predicted as one of the possible causes for tea tree oil contact dermatitis, was studied and its effects in these two in vitro skin sensitization models were explored. Thus, the surface expression of CD86, HLADR, CD54, and CD40, which are known as activation markers in both in vitro models, were measured via flow cytometry. For MoDC, an augmented CD86 and HLADR surface expression in comparison to untreated cells were determined after 24 h exposure with ascaridol. An increased CD54 and CD40 surface expression were found only in some donors. After long term incubation of 96 h, ascaridol-treated MoDC still up-regulated CD86 and additionally an augmented CD40 expression was measured in all studied donors. An enhanced CD54 expression was determined for 50 percentage of all investigated donors. Furthermore, CD80, CD83 and CD209 protein expression were up-regulated in MoDC after 96 h of ascaridol incubation. In addition, it was determined that after 24 h ascaridol-treated MoDC showed an increased capacity to uptake antigens, whereas after 96 h this capacity got lost and antigen-capturing devices were reduced in comparison to non-treated MoDC. Moreover, the cytokine release of ascaridol-treated MoDC were measured after 24 h. Tumor necrosis factor (TNF)alpha, interleukin (IL)-1beta and IL 6 secretion were determined in some donors. Furthermore, IL-8 release was clearly increased after 24 h ascaridol treatment. By the same token, THP-1 cells were analyzed after ascaridol treatment for several activation markers. We found a similar response pattern as measured in MoDC. Ascaridol induced CD86 expression as well as CD54 after 24 h incubation. Additionally, the impact of ascaridol on phosphorylation of p38 mitogen-activated protein kinase, which had been shown to be involved in increased expression of activation markers like CD86 by others, were studied via Western blot analysis. A phosphorylation of p38 was determined after 15 min of ascaridol stimulation. Moreover, an augmented CD40 and HLADR surface expression were measured in a dose-response manner after 24 h ascaridol treatment. Also similar to MoDC an enhanced IL-8 secretion after ascaridol stimulation was observed in THP-1 cells. Hence, for the first time it was shown that ascaridol has immuno-modulating effects. The obtained data from both in vitro systems, MoDC and THP-1 cells, identified ascaridol as a sensitizer. Although for both systems there remain significant challenges to overcome for potency assessment, ascaridol is presumed to be a weak sensitizer probably. Interestingly, ascaridol treatment of THP-1 cells resulted also in an increased augmentation of CD184 and CCR2, two chemokine receptors expressed on monocyte. Therefore, these data encouraged the exploration of chemokine receptors as tools in skin sensitization prediction. Consequently, the combination of chemical assays with in vitro techniques may provide a useful surrogate to animal testing for skin sensitization. Due to the continuously changing environmental conditions, it is necessary to regularly monitor and update the spectrum of sensitizers that elicit contact dermatitis. Therefore, both debated in vitro test systems will become indispensable tools.
As an interface between an individual and its environment, the skin is a major site of direct exposure to exogenous substances. Once absorbed, these substances may interact with different biomolecules within the skin. The aryl hydrocarbon receptor (AhR) signaling pathway is one mechanism whereby the skin responds to exposures, predominantly through the induction or upregulation of metabolizing enzymes. One known physiological role of the AhR in many tissues is its involvement in the control of cell cycle progression. In skin, almost nothing is known about this physiological function. Moreover, the question whether frequently used naturally occurring phenolic derivatives like eugenol and isoeugenol impact on the AhR within the skin has rarely been studied so far. Eugenol and isoeugenol are due to their odour referred to as fragrances. The ubiquitous distribution of eugenol and isoeugenol results in an almost unavoidable contact with these substances in our daily lives. Despite this fact, their molecular mechanisms of action in skin are poorly understood. There is evidence supporting the hypothesis that these substances may impact on the AhR. On the one hand, eugenol is shown to induce cytochrome P450 1A1 (CYP1A1), a well-known target gene of the AhR. On the other hand, their known anti-proliferative properties might also be mediated by the AhR, based on its physiological function. In order to proof this hypothesis, it was investigated whether eugenol and isoeugenol impact on the AhR signaling pathway in skin cells. Results revealed that eugenol as well as isoeugenol impact on the AhR signaling pathway in skin cells. Both substances caused the translocation of the AhR into the nucleus, induced the expression of the well-known AhR target genes CYP1A1 and AhR repressor (AhRR) and exhibited impact on cell cycle progression. Both substances caused an AhR-dependent cell cycle arrest in skin cells, modulated protein levels of several cell cycle regulatory proteins, inhibited DNA synthesis and thereby reduced cell numbers. The comparison of wildtype cells to AhR knockdown cells revealed an influence of the AhR on cell cycle progression in skin cells in the absence of exogenous ligands. AhR knockdown cells exhibited a slower progression through the cell cycle caused by an accumulation of cells in the G0/G1 phase of the cell cycle and a decreased DNA synthesis rate. Modulation of cell cycle regulatory proteins involved in the transition from the G0/G1 to the S phase of the cell cycle was altered in AhR knockdown cells as well. To conclude, eugenol as well as isoeugenol were able to impact on the AhR signaling pathway in skin cells. Their molecular mechanisms of action are similar to those of classical AhR ligands, although their structural characteristics strongly differ from that of these ligands. In the absence of exogenous ligands the AhR promotes cell cycle progression in many tissues and this knowledge could be expanded on skin-derived cells within the scope of this thesis.
Im Lebensrückblick wird bedeutsamen Ereignissen lebensgeschichtliche Bedeutung zugeschrieben; diese werden sodann als zugehörig zur eigenen Person und Lebensgeschichte wahrgenommen. Dieser Vorgang wurde als "Stiftung von Kohärenz" bezeichnet und für ein zurückliegendes belastendes Ereignis explorativ untersucht. In einer Fragebogenerhebung mit Daten von insgesamt N = 260 Probanden im Alter zwischen 41 und 86 Jahren wurde die Stiftung von Kohärenz für ein belastendes Ereignis daraufhin untersucht, inwieweit diese mit verschiedenen Formen der gedanklichen Auseinandersetzung mit dem Ereignis zusammenhängt. Weiterhin wurden die Zusammenhänge der Kohärenzstiftung mit ereignisbedingten Veränderungen des Selbstbildes und bestimmter Lebensumstände sowie mit Merkmalen des Ereignisses und der Person exploriert.
Schlaf fördert die Gedächtnisbildung. Nach einem anerkannten Modell beruht der förderliche Effekt des Schlafs auf einer verdeckten Reaktivierung der initial im Hippokampus gespeicherten Gedächtnisspuren während des Tiefschlafs, die durch ihre Reaktivierung in neokortikale Hirnareale zur langfristigen Speicherung transferiert werden. Obwohl die Existenz von Gedächtnisreaktivierungen im Schlaf gut belegt ist, ist bislang ungeklärt, ob diese Reaktivierungen tatsächlich in einem kausalen Zusammenhang zu den Prozessen der Gedächtnisbildung im Schlaf stehen. Zur Klärung dieser Frage habe ich in der vorliegenden Arbeit den Effekt von experimentell induzierten Gedächtnisreaktivierungen im Schlaf auf die Gedächtnisbildung untersucht. Zur Reaktivierung von Gedächtnisinhalten im Schlaf wurde ein während der Lernphase mit den Lerninhalten assoziierter Geruch verwendet. Achtzehn gesunde Probanden lernten sowohl einen deklarativen, den Hippokampus involvierenden als auch einen prozeduralen, weniger hippokampalen Gedächtnistest am Abend unter der Präsenz einen Geruchs, der sich als Kontextstimulus mit den Lerninhalten verbinden sollte. In der darauf folgenden Nacht wurde ihnen während des Tiefschlafs entweder erneut der Geruch oder eine geruchslose Substanz präsentiert. Die Abfrage am nächsten Morgen erfolgte ohne Duftdarbietung. Nach der Nacht mit Duft war die Erinnerungsleistung in dem deklarativen Gedächtnistest signifikant erhöht, im Vergleich zu der Nacht ohne Duft. Der positive Effekt des Geruchs auf die Gedächtnisbildung trat nicht auf, wenn der Geruch während der Lernphase nicht dargeboten wurde, und zeigte sich ausschließlich im Tiefschlaf, nicht dagegen nach einer erneuten Darbietung des Dufts im rapid-eye movement (REM)-Schlaf oder Wachzustand. Die prozedurale Gedächtnisbildung im Schlaf wurde in keinem der Experimente von einer Geruchsdarbietung nach dem Lernen beeinflusst. Die geruchsinduzierten Gedächtnisreaktivierungen im Tiefschlaf hatten keine Effekte auf die mittels der Elektroenzephalographie (EEG) gemessenen Hirnaktivität im Schlaf. Dagegen konnten zusätzliche Experimente unter Verwendung der funktionellen Kernspintomographie (fMRT) zeigen, dass eine erneute Geruchsdarbietung im Tiefschlaf den linken Hippokampus aktiviert, vorausgesetzt der Duft war bereits während der Lernphase präsent. Die Befunde der verbesserten Erinnerungsleistung nach einer experimentell induzierten Reaktivierung der neu enkodierten, hippokampalen Gedächtnisinhalte liefern einen eindeutigen Beleg für den kausalen Zusammenhang zwischen hippokampalen Gedächtnisreaktivierungen im Tiefschlaf und den Prozessen der deklarativen Gedächtnisbildung. Damit bestätigen sie die Kernannahme des Modells der schlaf-abhängigen Gedächtnisbildung durch Reaktivierungen im Tiefschlaf. Zusätzlich liefern die Experimente einen neuen Ansatz zur Untersuchung und Manipulierbarkeit von Gedächtnisreaktivierungen im Schlaf, durch den möglicherweise auch im klinischen oder alltäglichen Kontext positive Ergebnisse auf die Gedächtnisbildung im Schlaf zu erzielen sind.
Die vorliegende Arbeit untersucht Effekte des Alters auf die Rezeption schmerzvoller Selbstenthüllungen in dialogischen Situationen. Schmerzvolle Selbstenthüllungen werden als verbales Kommunikationsverhalten verstanden, bei dem eine Person selbstbezogene, schmerz- oder leidvolle Erfahrungen preisgibt, beispielsweise gesundheitliche oder finanzielle Probleme. In der überschaubaren Anzahl von Studien zu dieser Thematik wurde ausschließlich die Rezeption schmerzvoller Selbstenthüllungen älterer Personen untersucht. Im Zentrum der vorliegenden Arbeit steht die Frage, ob sich die Befunde dieser Studien auf alle Konstellationen des inter- und intragenerationellen Dialogs übertragen lassen. Über die Untersuchung altersdifferentieller Effekte hinaus wird angestrebt, einige vermittelnde Prozesse zu erhellen, die der Beurteilung schmerzvoller Selbstenthüllungen zugrunde liegen. Es wird eine empirische Studie beschrieben, an der ältere Probandinnen (M = 73.54 Jahre; n = 100) und jüngere Probandinnen (M = 34.24 Jahre; n = 101) teilnahmen. Diese bearbeiteten ein Fragebogeninventar mit Untersuchungsvignetten, in denen schmerzvolle Selbstenthüllungen einer älteren (ca. 75- bis 80jährigen) oder jüngeren (35- bis 40jährigen) Protagonistin beschrieben wurden. Inhaltlich wurden die schmerzvollen Selbstenthüllungen dahingehend variiert, dass sie von einer nonnormativen vs. normativen belastenden Lebenslage handelten. Nach jeder Vignette schrieben a) die Probandin-nen der Protagonistin Eigenschaften zu, sie schätzten b) die Angemessenheit der Selbst-enthüllung ein sowie c) die vermutlichen Motive und Ursachen für die Selbstenthüllung. Als Personmerkmal wurde die Ausprägung der dispositionellen Empathie erfasst und mit Eigenschaftszuschreibungen an die Protagonistin in der Vignette in Beziehung gesetzt. Die Ergebnisse zeigen, dass die Rezeption schmerzvoller Selbstenthüllungen in erster Linie mit dem Alter der urteilenden Probandin variierte und weniger in Abhängigkeit vom Alter der Protagonistin in der Vignette oder von der dyadischen Alterskomposition von Probandin und Protagonistin. Darüber hinaus war die Preisgabe einer nonnormativen verglichen mit einer normativen belastenden Lebenslage insgesamt mit einer positiveren Beurteilung der Protagonistin und ihrer Äußerungen assoziiert. Eine hohe Ausprägung der dispositionellen Empathie war mit positiveren Eigenschaftszuschreibungen an die Protagonistin in der Vignette assoziiert. Dieser Zusammenhang erwies sich zum einen in der Teilstichprobe der älteren Probandinnen als bedeutsam, zum anderen dann, wenn die Protagonistin in der Vignette eine ältere Person war.
Das Motiv "Wasser" in der Kunst " unter Berücksichtigung der Werke Bill Violas und Fabrizio Plessis
(2008)
Wasser ist ein beliebtes Motiv in allen Kunstepochen. Der Grund für die Beliebtheit des Wassers als Sujet bei Künstlerinnen und Künstlern liegt einerseits an seiner existenziellen und kulturellen Bedeutung für das menschliche Leben und andererseits an seinen physikalischen Eigenschaften mit den daraus resultierenden vielfältigen gestalterischen Möglichkeiten. Auch in der Videokunst wird es häufig als Gegenstand aufgegriffen. Insbesondere Bill Viola (1952, USA), der tief von der östlichen Philosophie beeinflusst ist, und Fabrizio Plessi (1940, Italien) stellen in ihren Werken ein je besonderes Verhältnis zwischen Video und Wasser dar. Die vorliegende Arbeit befasst sich zunächst mit einer vergleichenden Be-trachtung der Bedeutung des Wassers in der westlichen und östlichen Kultur und einem Überblick über das Motiv in der Kunst vom Mittelalter bis zum 20. Jahrhundert. Im Mittelpunkt dieser Arbeit steht die Untersuchung der Videoskulpturen, Videoinstallationen und Videobänder Bill Violas und Fabrizio Plessis. Erörtert werden folgende Fragen: In welcher Weise hat das Wasser ästhetische, formale, inhaltliche oder symbolische sowie persönliche Bedeutung für die einzelnen Künstler? Auf welche Art haben sie ihre Vorstellungen in die Arbeiten umgesetzt? Wie weit wird dieses tradierte Thema und in welcher Form wird das natürliche Element in der Videokunst durch das moderne, technische Medium wieder aufgegriffen, weiter entwickelt oder modifiziert? Aus diesen Beobachtungen heraus zeigt die Autorin die Charakteristika der mit technischen Medien produzierten Kunstwerke der besprochenen Künstler bei der Verwendung des Motivs Wasser auf.
In diesem Band sind einige der Beiträge zusammengefasst, die im Rahmen und in der Folge der chinesisch-deutschen Fachkonferenz zu Aspekten der Studienvorbereitung und Studienbegleitung entstanden sind, die vom 21. bis 22. Mai 2007 mit Unterstützung des Deutschen Akademischen Austauschdienstes (DAAD) am Deutschkolleg - Zentrum zur Studienvorbereitung der Tongji-Universität in Shanghai veranstaltet wurde. Schwerpunkte bilden die Bereiche: Wissenschaftskommunikation, Interkulturelle Kommunikation / Landeskundekonzepte und " als Ausblick " Fachsprache. Der Band enthält Beiträge von: Gutjahr, Jacqueline / Yu, Xuemei (S. 1-4 = Dokument 1); Gutjahr, Jacqueline / Porsche, Sabine / Yu, Xuemei (S. 5-22 = Dokument 2); Bärenfänger, Olaf (S. 23-43 = Dokument 3); Li, Yuan (S. 44-56 = Dokument 4); Yu, Xuemei (S. 57-67 = Dokument 5); Burkhardt, Armin (S. 68-87 = Dokument 6); Dahlhaus, Barbara (S. 88-106 = Dokument 7); Freudenberg-Findeisen, Renate / Schröder, Jörg (S. 107-134 = Dokument 8); Dege, Christopher P. / Timmermann, Waltraud (S. 135-151 = Dokument 9); Brandl, Heike (S. 152-167 = Dokument 10) und Liu, Fang (S. 168-178 = Dokument 11).
Nach getroffenen Entscheidungen werden gewählte Alternativen typischerweise aufgewertet, abgewählte Alternativen werden abgewertet (spreading apart of alternatives). Die vorliegende Arbeit ordnet solche tendenziösen Umwertungen in einen handlungstheoretischen Zusammenhang ein und untersucht vor diesem Hintergrund mögliche Bedingungen solcher Umwertungen. Ausgangspunkt der Überlegungen ist das Assimilations-Akkommodations-Modell von Brandtstädter. Demnach sind die beschriebenen Umwertungen Ausdruck eines akkommodativen Modus der Zielablösung und sollten zum einen von der Irreversibilität der Entscheidung abhängen, zum anderen von zwei dispositionellen Faktoren, die die Stärke akkommodativer Prozesse bestimmen (Flexibilität der Zielanpassung, Hartnäckigkeit der Zielverfolgung). Drei Studien bestätigen die Vorhersagen des Assimilations-Akkommodations-Modells und geben zudem Hinweise auf vermittelnde Prozesse der Umwertung von Alternativen. So scheinen insbesondere solche Attribute aufgewertet zu werden, deren Zutreffen bei der betreffenden Alternative subjektiv nicht abzuleugnen ist. Die individuelle Ausprägung solcher selektiven Umwertungen wird in einem Anpassungsindex (AI) abgebildet. Abschließend wird der empirische Befund diskutiert und auf die Frage der Rationalität der gefundenen Umwertungen eingegangen.
Ziel der vorliegenden Dissertation war es, in einem gesamtspektralen Porträt als Momentaufnahme darzustellen, welche Themen in den japanischen allgemeinen Tageszeitungen wie strukturiert dargestellt werden und in welcher gestalterischen Form dies geschieht. Anhand einer umfassenden Stichtagssammlung galt es dabei vornehmlich, Antworten auf die Fragen zu finden, ob Unterschiede in der Themenwahl und deren gestalterischer Darstellung auszumachen sind, und welche Grundmuster vorherrschen. Vor allem bezüglich der formalen Gestaltung musste einer Diskussion der bislang nur unzureichend erarbeiteten Grundlagen der japanischen Layout-Theorie gebührender Platz eingeräumt werden. Am Soll-Zustand des Mediums wurde dann im Zuge der genannten Fragestellung mittels einer Kombination von Formstruktur- und Themen- bzw. Themensenquenzanalyse der Stichtagssammlung der Ist-Zustand gemessen. Die Autopsie des Samples ergab große Übereinstimmungen bei der Seitengestaltung. Bezüglich der Themenselektion konnte zudem eine hohe Konveregenz konstatiert werden. Hier kristallisierten sich im Laufe der Betrachtung hauptsächlich zwei Zeitungstypen heraus: als dominierender Typ Erst- bzw. Hauptzeitungen, auflagenstarke nationale und regionale Set- wie Morgenzeitungen, die eine weite Bandbreite von Themen in überwiegend übereinstimmender Sequenz präsentieren, sowie Zweit- bzw. Nebenzeitungen, die nur Teile des Themenspektrums in unterschiedlicher Sequenz vorweisen. Die Analyseergebnisse führen zu dem Schluss, dass im japanischen Zeitungswesen auf breiter Basis ein bisher erfolgreiches Businessmodell kopiert wird und auch im allgegenwärtigen Wettbewerb der regionalen Zeitungen mit den nationalen Blättern nur ansatzweise Abwechslung zu erkennen ist. Die Fortsetzung der traditionellen gestalterischen Form, wie auch die Beibehaltung althergebrachter inhaltlicher Strukturen und thematischer Tendenzen beweisen, dass sich die allgemeinen japanischen Tageszeitungen eindeutig auf die älteren Leser als Zielgruppe konzentrieren und sich so zu einem Seniorenmedium wandeln.
Der erste Band der im Auftrag des Historisch-Kulturwissenschaftlichen Forschungszentrums (HKFZ) Mainz-Trier herausgegebenen Reihe "e-Beiträge zu den Historischen Kulturwissenschaften" präsentiert die Ergebnisse der Mainzer Tagung "Wissen und Raumgenese". Die Beiträge behandeln den zentralen Forschungsgegenstand "Räume des Wissens" mit unterschiedlicher Schwerpunktsetzung und gewähren Einblicke in die interdisziplinäre Projektarbeit des Forschungszentrums. Inhaltsverzeichnis EMBACH, Michael / RAPP, Andrea: Neue Tendenzen der Handschriften- und Bibliotheksforschung " Ergebnisse des Trierer Workshops ... Seite 4 SCHMID, Wolfgang: Mittelalterliche Kathedralen als Kommunikations- und Wissensräume ... Seite 10 DREYER, Mechthild: Räume des Wissens " integriert oder ausgegrenzt? ... Seite 16 TODT, Klaus-Peter: Venedig und Kreta als Räume des Wissens über Byzanz und die orthodoxe Christenheit im 14. und 15. Jahrhundert ... Seite 24 VOLLET, Matthias / ALTHOFF, Jochen: Räume des Wissbaren in der Philosophie der Antike. Räume des Wissens und des Wissbaren bei Platon und Aristoteles ... Seite 34
Considering the numerical simulation of mathematical models it is necessary to have efficient methods for computing special functions. We will focus our considerations in particular on the classes of Mittag-Leffler and confluent hypergeometric functions. The PhD Thesis can be structured in three parts. In the first part, entire functions are considered. If we look at the partial sums of the Taylor series with respect to the origin we find that they typically only provide a reasonable approximation of the function in a small neighborhood of the origin. The main disadvantages of these partial sums are the cancellation errors which occur when computing in fixed precision arithmetic outside this neighborhood. Therefore, our aim is to quantify and then to reduce this cancellation effect. In the next part we consider the Mittag-Leffler and the confluent hypergeometric functions in detail. Using the method we developed in the first part, we can reduce the cancellation problems by "modifying" the functions for several parts of the complex plane. Finally, in in the last part two other approaches to compute Mittag-Leffler type and confluent hypergeometric functions are discussed. If we want to evaluate such functions on unbounded intervals or sectors in the complex plane, we have to consider methods like asymptotic expansions or continued fractions for large arguments z in modulus.
Es wurden Staubmessungen in der Luft eines Putenmaststalls mit dem Ziel der Charakterisierung der Höhe und des Verlaufs besonders der Feinstaubfraktion PM 10 (Particulate Matter 10, Partikel, deren aerodynamischer Durchmesser kleiner als 10 -µm ist) und der einatembaren Staubfraktion (ID bzw. PM 100) im Laufe eines Mastdurchganges durchgeführt. Zur Erfassung von PM 10 wurde das für Emissionsmessungen bereits etablierte Messsystem DIGITEL HVS DHA-80 eingesetzt, um es auf Eignung unter Stallbedingungen zu testen. Die Ansaughöhe zur Probenahme betrug 2 m über Grund. Parallel dazu wurde die einatembare Staubfraktion mit einem in der Arbeitsmedizin gebräuchlichen, stationär positionierten Personal Sampler (IOM-SKC-Messsystem) erfasst. Anlass der Erfassung der Staubkonzentrationen war der unbefriedigende Kenntnisstand bezüglich der Zuordnung der Emissionen zur Quelle "Tierstall" und bezüglich der Quantitäten der Staubfrachten. Ein wesentlicher Grund für die bislang geringe Anzahl von Feinstaubmessungen in Tierhaltungen liegt in dem Fehlen standardisierter Messverfahren für diese Komponente, was zudem den Vergleich der bisherigen Messergebnisse erschwert. Der Wert der genauen Kenntnis der Konzentrationen der partikelförmigen Emissionen besonders Feinstaub (PM 10) in und aus landwirtschaftlicher Nutztierhaltung liegt in der Einschätzung des Gefährdungspotentials für den Menschen unter Berücksichtigung umwelthygienischer und umweltrechtlicher Aspekte. Letztere werden unter anderem durch das Vorsorgeprinzip im Bundes-Immissionsschutzgesetz dargestellt, wobei die Minderung der von Tierhaltungen ausgehenden Emissionen bereits wichtiger Bestandteil nationaler und europäischer Luftreinhaltepolitik ist. So beschäftigen sich Umwelt- und Arbeitsmediziner aufgrund des Verdachts erhöhter Prävalenz umweltbezogener Beschwerdebilder wie Störungen im Bereich der Atemwege in Regionen mit spezialisierter Tierhaltung und bezüglich des Auftretens als arbeitsschutzrelevanter Arbeitsstoff verstärkt mit diesem Feinstaub. Darüber hinaus werden die Daten von den Behörden als Entscheidungshilfe für die Bewilligung neuer Stallbauten benötigt, um Anwohner vor möglichen negativen Einflüssen zu bewahren. Derzeit wird davon ausgegangen, dass PM 10 aus Nutztierhaltungen, aufgrund der durch die Abstandsregelung der TA Luft (2002) greifenden Verdünnungseffekte keine negativen Auswirkungen auf die Gesundheit von Anwohnern hat. Diese Annahme ist allerdings bisher nicht durch ausreichende Messungen abgesichert. Die im Rahmen der Arbeit durchgeführten Messkampagnen haben zusammen mit der Literaturrecherche ergeben, dass das Messsystem DIGITEL HVS DAH-80 zur Erfassung von PM 10-Konzentrationen in Geflügelstallungen als geeignet bewertet werden kann. Die über 24 Stunden maximal erfasste mittlere PM 10-Konzentration beträgt 2,44 mg•m-3, der Durchschnitt liegt bei 1,27 mg•m-3, wobei die PM 10-Konzentrationen im Tagesverlauf tagesrhythmische Ereignisse widerspiegeln. Die ebenso über 24 Stunden erfassten ID-Konzentrationen liegen in Bereichen von 0,83 mg•m-3 bis 4,34 mg•m-3. Beide Staubfraktionen wurden im Hinblick auf bekannte Arbeitsplatz-Grenzwerte (AGW) sowie in Bezug auf umweltrechtliche Aspekte bewertet. Da bisher keine berufsbezogenen Grenzwerte existieren, wurden die beiden Staubkonzentrationen als arbeitsschutzrelevante Arbeitsstoffe mit den allgemein gültigen Grenzwerten der GefStoffV von E-Staub (einatembarer Staub) und A-Staub (Alveolengängiger Staub) mit einem AGW von 10 mg•m-3 bzw. 3 mg•m-3 verglichen. Selbst die bestimmten maximalen Tages-Konzentrationen liegen unterhalb dieser AGWs. Von ausgewählten Staubproben beider Fraktionen wurden die Aktivitäten der ebenso zu den umwelthygienisch bedeutenden Luftinhaltsstoffen zählenden Endotoxine ermittelt und mit bekannten Werten aus der Literatur verglichen. Für diese biologische Komponente besteht derzeit kein Grenzwert, sondern nur Orientierungswerte, die von 50 EU•m-3 bis 1.000 EU•m-3 reichen. Mehr als die Hälfte der ermittelten Endotoxinaktivitäten im E-Staub lagen unterhalb von 1.000 EU•m-3, die der analysierten PM 10-Teilfilter lagen im Bereich von 150 EU•m-3 bis 3.500 EU•m-3. Bei umwelthygienischen oder arbeitsmedizinischen Fragestellungen sollte die Qualität der Staubfraktionen zunehmend im Fokus der Messungen stehen, da diese aufgrund zahlreicher Einflussfaktoren eine erhebliche Variabilität aufweisen kann. Die weitere Bearbeitung des relativ neuen Arbeitsgebietes PM 10 im Bereich der landwirtschaftlichen Nutztierhaltung erfordert zudem eine verstärkte interdisziplinäre Zusammenarbeit und den Austausch von Erkenntnissen und Erfahrungen zwischen den beteiligten Disziplinen der Wissenschaft und Forschung aber auch mit Gesetzgebern und Genehmigungsbehörden.
Fray Cesáreo de Armellada OFM Cap. und die Pemón-Sprache. Ein Beitrag zur Missionarslinguistik in Venezuela Die in spanischer Sprache abgefasste Dissertation befasst sich mit den, in der 2. Hälfte des 20. Jahrhunderts entstandenen, linguistischen Forschungen und Veröffentlichungen von Fray Cesáreo de Armelladas, einem Missionar des Kapuzinerordens, der sich intensiv mit Struktur und Gebrauch der Pemón"Sprache beschäftigte. Die Pemón sind ein indigenes Volk, das überwiegend in den Regenwäldern Venezuelas, Brasiliens und Guayanas lebt. Die Pemón-Sprache wird der Sprachfamilie der Caribe zugeordnet. Durch den zunehmenden Kontakt des indigenen Volkes mit Sprechern, u. a. des Spanischen, Portugiesischen und Englischen, besteht jedoch die Gefahr, dass diese Minderheitssprache (19.129 Sprecher laut Bevölkerungsstatistik 2003) und damit verbundene, kulturelle Grundlagen der Pemón verloren gehen. Der Missionar Fray Cesáreo de Armellada lebte von den 30-ern bis in die 50-er Jahre des vergangenen Jahrhunderts mit dem Pemónvolk zusammen, beobachtete und kodifizierte mithilfe damaliger linguistischer Methoden dessen Sprache, sammelte, verschriftlichte und übersetzte zahlreiche Erzählungen der Pemón und veröffentlichte die Ergebnisse seiner Forschungen (meist unter verschiedenen Pseudonymen) in mehreren Büchern und als wissenschaftliche Artikel in verschiedenen Periodika. Die linguistischen, kulturhistorischen und ethnologischen Forschungen de Armelladas sind für jede wissenschaftlich fundierte Beschäftigung mit der Pemón-Sprache eine unverzichtbare Grundlage. Erst seine Beobachtungen und Ergebnisse ermöglichten eine systematische Kodifizierung des, bis dahin nur als von Generation zu Generation mündlich überlieferten, Idioms. Grammatische und soziolinguistische Studien, die für den Erhalt und die Pflege, aber zum Teil auch für die Rekonstruktion bereits untergegangener sprachlicher Strukturen nötig sind, konnten und können auf dieser Basis aufbauen. Insbesondere auch die Missionarslinguistik verdankt der wissenschaftlichen Arbeit und den zahlreichen und diversen Veröffentlichungen von Fray Cesáreo de Armellada wichtige Anregungen und Erkenntnisse. Seine auf allen relevanten Ebenen erfolgte grammatische Beschreibung der Pemón-Sprache ist die Basis für die aktuellen Bemühungen von engagierten Sprachwissenschaftlern und Repräsentanten des venezolanischen Staates, diese indigene, vom Untergang bedrohte Sprache zu erhalten. Gerade in jüngster Zeit ist man bemüht, kommende Generationen des Pemónvolkes bilingual zu unterrichten und ihnen somit die Chance zu geben, ihre eigene kulturelle Identität und Tradition zu verstehen, bewahren und zu pflegen. Zudem werden aktuell, von de Amellada übertragene und verschriftliche, traditionelle Erzählungen der Pemón in Venezuela in Buchform, teilweise in spanischer Sprache aber auch bilingual, herausgegeben. Diese Dissertation versucht in sieben Kapiteln die sprachwissenschaftlichen Forschungen de Armelladas und seine systematische Erfassung der Pemón-Sprache in einem umfassenden Zusammenhang, unter historischen, kulturellen, gesellschaftlichen, sprachwissenschaftlichen und, insbesondere für die Missionarslinguistik wissenschaftshistorischen Aspekten, darzustellen.
In dieser Arbeit wird zuerst dargestellt, was der allgemeinen Meinung nach als Fehlverhalten in der wissenschaftlichen Forschung definiert wird. Ferner wird gefragt, wie man solche Definitionen rechtfertigen kann. Um das Fehlverhalten zu erkennen, muss man zuerst die richtige Forschungsmethode und Forschungsethik genau wissen. Durch die philosophische Metaanalyse wird aber klar, dass es sehr schwer ist, eine allgemein gültige Definition für die richtige Forschungsmethode festzustellen. Dann kommt der methodologische Pluralismus ans Licht. Außerdem sind die heutige Wissenschaft und die von ihr benutzten Forschungsmethoden nach der Analyse der Wissenschaftssoziologie sogar die kulturellen Ergebnisse unserer Zeit. Dabei wird die Objektivität der Wissenschaft infrage gestellt und ohne den Glaube an der Objektivität der Wissenschaft können die ganze wissenschaftliche Forschung ihr Forschungsziel (Suche nach der Objektivität) verändern. Die Grenze zwischen richtiger und schlechter Forschungspraxis wird dann verschwommen.
There is ample evidence that the personality trait of extraversion is associated with frequent experiences of positive affect whereas introversion is associated with less frequent experiences of positive affect. According to a theory of Watson et al. (1997), these findings demonstrate that positive affect forms the conceptual core of extraversion. In contrast, several other researchers consider sociability - and not positive affect - as the core of extraversion. The aim of the present work is to examine the relation between extraversion and dispositional positive affect on the neurobiological level. In 38 participants resting cerebral blood flow was measured with continuous arterial spin labeling (CASL). Each participant was scanned on two measurement occasions separated by seven weeks. In addition, questionnaire measures of extraversion and dispositional positive affect were collected. To employ CASL for investigating the biological basis of personality traits, the psychometric properties of CASL blood flow measurements were examined in two studies. The first study was conducted to validate the CASL technique. Using a visual stimulation paradigm, the expected pattern of activity was found, i.e. there were specific differences in blood flow in the primary and secondary visual areas. Moreover, the results in the first measurement occasion could be reproduced in the second. Thus, these results suggest that CASL blood flow measurements have a high degree of validity. The aim of the second psychometric study was to examine whether resting blood flow measurements are characterized by a sufficient trait stability to be used as a marker for personality traits. Employing the latent state-trait theory developed by Steyer and colleagues, it was shown that about 70 % of the variance of regional blood flow could be explained by individual differences in a latent trait. This suggests that blood flow measurements have sufficient trait stability for investigating the biological basis of personality traits. In the third study, the relation between extraversion and dispositional positive affect was investigated on the neurobiological level. Voxel-based analyses showed that dispositional positive affect was correlated with resting blood flow in the ventral striatum, i.e. a brain structure that is associated with approach behavior and reward processing. This biological basis was also found for extraversion. In addition, when extraversion was statistically controlled, the association between dispositional positive affect and blood flow in the ventral striatum was still present. However, when dispositional positive affect was statistically controlled, the relation between extraversion and the ventral striatum disappeared. Taken together, these results suggest that positive affect forms a core of extraversion on the neurobiological level. The present findings thus add psychophysiological evidence to the theory of Watson et al. (1997), which suggests that positive affect forms the conceptual core of extraversion.
Falsche Erinnerungen sind eine Gedächtnisillusion und dadurch gekennzeichnet, dass Ereignisse oder Informationen erinnert werden, die gar nicht stattgefunden haben bzw. präsentiert wurden. In der vorliegenden Arbeit wurde in insgesamt fünf Experimenten anhand des Deese/Roediger-McDermott- (DRM) Paradigmas untersucht, ob Vorschulkinder empfänglicher für falsche Erinnerungen sind als ältere Grundschulkinder und junge Erwachsene. Ausgehend von dem Aktivierungs-Monitoring Ansatz wurde darüber hinaus geprüft, inwieweit etwaige alterskorrelierte Veränderungen in falschen Erinnerungen auf Unterschiede in den Fähigkeiten zur Quellenkontrolle und/oder auf Unterschiede in der Wahrscheinlichkeit der Aktivierung der kritischen Wörter zurückgehen. Im ersten Experiment wurden neben einem abschließenden Wiedererkennenstest zwei verschiedene implizite Testverfahren eingesetzt, die nur Aktivierung ohne Quellenkontrolle erfassen. Da sich aus den Ergebnissen von Experiment 1 keine eindeutigen Schlüsse über alterskorrelierte Veränderungen der Aktivierungsstärke ziehen ließen und ein Indikator für die Quellenkontrolle eingesetzt werden sollte, wurden in den folgenden drei Experimenten explizite Testverfahren verwendet (Experiment 2: Freie Reproduktion, Experiment 3A und Experiment 3B: Wiedererkennenstest). Um die Aktivierung der kritischen Items ohne entgegenwirkende Quellenkontrolle zu prüfen, wurden Inklusionsinstruktionen erteilt. Die Quellenkontrolle wurde separat durch Nachbefragungen erfasst. Zur Förderung der Aktivierung bei Kindern, wurden in Experiment 3B und 4 spezielle Lerninstruktionen erteilt, die eine semantisch-relationale (3B) bzw. eine itemspezifische und semantisch-relationale Verarbeitung der Wortlisten verlangten (4). Im letzten Experiment (4) sollte die Quellenkontrolle differenzierter untersucht werden, in dem ein Quellentest eingesetzt wurde, der nach beiden möglichen Quellen fragte. In allen Experimenten zeigte sich eine geringe alterskorrelierte Zunahme der Aktivierung kritischer Items, aber deutliche alterskorrelierte Verbesserungen der Quellenkontrolle. Die Befunde zu falschen Erinnerungen in den verschiedenen Experimenten waren je nach Lern- und Testbedingung unterschiedlich: Die Ergebnisse deuteten sowohl auf eine alterskorrelierte Zunahme als auch auf eine alterskorrelierte Abnahme hin.
Die Arbeit untersucht die kulturübergreifende Einsetzbarkeit von internetbasierten Testverfahren in der berufsbezogenen, psychologischen Eignungsdiagnostik. Durch die verstärkt internationale Ausrichtung von Unternehmen und ihrer Personalstrategie gewinnt Eignungsdiagnostik als Bestandteil einer internationalen Personalauswahl immer mehr an Bedeutung. Damit steigt der Bedarf nach angemessenen Methoden, um diesen Anforderungen gerecht zu werden. Der Forschungsgegenstand der vorliegenden Arbeit widmet sich dieser Problematik und verbindet interkulturelles Testen mit internetvermitteltem Testen im Anwendungsfall der berufsbezogenen Eignungsdiagnostik. Es wird ein Vorgehen dargestellt, das auf mehreren Ebenen die Äquivalenz von Originalskala und Übersetzung der in einem Auswahlverfahren eingesetzten Tests in unterschiedlichen Kulturen prüft. Dabei werden insbesondere die Quellen von Verzerrung auf Ebene der verwendeten Items, der psychologischen Konstrukte und der verwendeten Methode untersucht. Aufgrund dieser Erkenntnisse werden in einem weiteren Schritt Mittelwertsunterschiede betrachtet und inhaltliche Schlüsse aufgrund erzielter Testwerte von Individuen gezogen. Dazu werden vier Stichproben, zwei aus Deutschland, eine aus Nordamerika und eine aus Singapur (N=649) untersucht, die die Testverfahren in deutscher beziehungsweise englischer Sprache bearbeitet haben. Um die Äquivalenz der eingesetzten Skalen in den unterschiedlichen Sprachen und Stichproben nachzuweisen, werden die Faktorstrukturen der Skalen verglichen, sowie in Multigruppenvergleichen die Übereinstimmung der Varianz- und Kovarianzstrukturen untersucht. Es werden Vorgehensweisen für den Umgang mit den Testwerten bei der Personalauswahl vorgeschlagen und ein Handlungsleitfaden für die Äquivalenzprüfung beim Einsatz kulturübergreifender Testskalen entwickelt. Der Ausblick zeigt weitere wichtige Forschungsfelder für die internetbasierte, kulturübergreifende Eignungsdiagnostik auf und weist auf offenen Fragen hin.
"Tempelsklaverei" in Kleinasien: Ein Beitrag zum Tempeldienst in hellenistischer und römischer Zeit
(2007)
Der Begriff "Tempelsklaverei" bezeichnet in der Forschung eine rechtliche und ökonomische Abhängigkeit von Menschen, die einer Gottheit geweiht waren, und in einem Heiligtum arbeiten mußten. Die "Tempelsklaverei" gilt als typisch kleinasiatische Erscheinung mit einer orientalischen Tradition. Bezeugt ist sie in vorwiegend epigraphischen und wenigen literarischen Quellen seit der Mitte des 4. Jhs. v.Chr. bis in das 3. Jh. n.Chr. Eine Besonderheit dieser "Tempelsklaverei" ist, daß nicht nur Sklaven, sondern auch persönlich freie Menschen in sozialer, rechtlicher oder ökonomischer Abhängigkeit von einem Heiligtum standen. Welche Aufgaben im Heiligtum den sog. Tempelsklaven anvertraut wurden und worin ihre rechtliche und ökonomische Abhängigkeit im einzelnen bestand, ist Thema dieser Arbeit. Unter dem Begriff "Tempelsklaven" werden in der Forschung folgende griechische Begriffe subsumiert: hieródoulos und hierós (und feminine Formen), sómata hierá und paídes hieroí. Diese Begriffe werden anhand zahlreicher Texte mit Übersetzungen vorgestellt und ausgewertet (Kapitel 2). Sie werden in Kleinasien nicht als Synonyme verwendet; einige bezeichnen darüber hinaus nicht nur Menschen im Tempeldienst, sondern definieren andere religiöse Bindungen, die keinem Dienst in einem Heiligtum entsprechen. Auf der Basis der bislang besprochenen Quellen sowie weiterer epigraphischer und literarischer Quellen werden die Wege in den Tempeldienst untersucht. In Frage kommen vor allem Weihung, Kindesaussetzung und das Tempelasyl (Kapitel 3). Um die rechtlichen und ökonomischen Aspekte des Tempeldienstes schärfer zu fassen, werden diese mit den wesentlichen Elementen der antiken Sklaverei sowie von kollektiven Abhängigkeitsformen persönlich freier Menschen verglichen (Kapitel 4) . Zur Sprache kommt auch die sakrale Prostitution (Tempelprostitution), die mit den "Tempelsklaven" häufig in Verbindung gebracht wird. In der Zusammenfassung werden die wesentlichen Ergebnisse zusammengefaßt und knapp diskutiert, warum in der älteren Forschung ein nicht zutreffendes homogenes Bild einer kleinasiatischen bzw. orientalischen "Tempelsklaverei" gezeichnet wurde (Kapitel 5). Ergebnis der Arbeit: "Die" Tempelsklaverei als eine besondere rechtliche Form von Abhängigkeit oder Unfreiheit gibt es im hellenistischen und römischen Kleinasien nicht. Nachweisbar sind unterschiedliche Formen der rechtlichen, sozialen und wirtschaftlichen Bindung an eine Gottheit und ihr Heiligtum. Diese beruhen in weiten Bereichen auf bekannte Rechtsformen der griechisch-römischen Antike: Sklaverei und kollektive Abhängigkeit ländlicher Gemeinden. Im hier bearbeiteten Zeitraum sind die orientalischen Traditionen weitaus weniger nachweisbar als bislang vermutet wurde.
Die Untersuchung zeichnet die Geschichte des frühen Kinos in der lothringischen Kleinstadt St. Avold bis zum Ausbruch des Ersten Weltkrieges nach und arbeitet wesentliche Charakteristika des lokalen Kinogewerbes in diesem Zeitraum heraus; sie stützt sich dabei vor allem auf die Bestände der zeitgenössischen deutschsprachigen Lokalzeitungen in den Archives municipales de Saint-Avold. Für St. Avold lassen sich vom ersten Nachweis eines Wanderkinematographen im Jahr 1901 bis 1914 drei Phasen der Kinogeschichte unterscheiden, die getrennt betrachtet werden: die Phase der Wanderkinematographie bis 1908, eine Übergangsphase vom Wanderkino zum ortsfesten Kino, in der zumindest zeitweilig eine kontinuierliche Kinoversorgung gewährleistet war, sowie die Phase des ortsfesten Kinos ab Dezember 1910. Besonderes Augenmerk gilt den Wanderkinematographen, die bis in die Zeit des ortsfesten Kinos die Stadt bereisten " der letzte Besuch eines Wanderkinos ist für das Jahr 1911 belegt. Ausgehend von einem Überblick über Akteure und Unternehmen werden Eintrittspreise und Besucherstruktur, Aufführungssituation und Programm, mögliche Konkurrenzsituationen, Werbestrategien der Kinematographenbetreiber und die öffentliche Wahrnehmung des Kinos in St. Avold betrachtet; dabei finden auch Filmvorführungen des Flottenvereins und anderer Institutionen und Vereinigungen Berücksichtigung. Was die Untersuchung der Kinematographenprogramme betrifft, so kann im Rahmen der Arbeit " nicht zuletzt aufgrund der Quellenlage " keine vollständige Programmstrukturanalyse vorgenommen werden. Stattdessen wird exemplarisch versucht, anhand jeweils eines vollständig überlieferten Programms aus der Übergangsphase und der Zeit des ortsfesten Kinos Tendenzen der Programmierung aufzuzeigen. Die Studie zeigt, dass die Entwicklung der Kinolandschaft in der Kleinstadt St. Avold im Vergleich zu größeren Städten verzögert ablief. Für die Zeit vor der Eröffnung des Eden-Theater-Kinematographen ist darüber hinaus festzustellen, dass Saalspieler häufiger belegt sind als Jahrmarktkinematographen. Ein Grund dafür war neben der größeren Flexibilität der Saalspieler bei der Wahl des Veranstaltungstermins möglicherweise auch das Transportproblem vom Bahnhof in die Stadt, das in erster Linie die Jahrmarktkinematographen mit ihren mobilen Kinobauten betraf. Die Befunde für St. Avold deuten darauf hin, dass in diesem Kontext aber auch die Größe der ambulanten Kinematographen eine Rolle gespielt hat. Im Gegensatz zur Wanderkinophase bis einschließlich 1908, in der gelegentlich noch große zeitliche Abstände zwischen den einzelnen kinematographischen Vorführungen lagen, ist die Übergangsphase 1909 bis 1910 dadurch gekennzeichnet, dass die Vorstellungen örtlicher Veranstalter teilweise kontinuierlich über mehrere Wochen stattfanden. Zwar war das Angebot kinematographischer Vorführungen und damit der Wettbewerb in diesem Zeitraum am größten, dennoch überschnitten sich die Aufenthalte der Kinematographen auch in dieser Phase nicht. Auch der Übergang vom Kurzfilm- zum Mischprogramm mit Lang- und Kurzfilmen erfolgte in St. Avold verspätet. Im Kontext des Programms der Übergangsphase und des ortsfesten Kinos muss auch die Bedeutung von Lokalfilmen hervorgehoben werden. Zwar ist keine der vier bis Kriegsbeginn nachgewiesenen Aufnahmen aus St. Avold erhalten, entsprechende Angaben in Anzeigen und Zeitungsberichten zeigen aber, dass mit Kirchausgängen und Kaiserparaden auch in der lothringischen Provinz die für diese Lokalbilder typischen Sujets aufgenommen wurden. Besondere Bedeutung kam den Aufnahmen offensichtlich bei der Differenzierung des Kinoprogramms im Wettbewerb der Kinematographenunternehmer zu: Die Quellen deuten darauf hin, dass die Anziehungskraft dieser Bilder über den städtischen Bereich hinaus wirkte.
The midcingulate cortex has become the focus of scientific interest as it has been associated with a wide range of attentional phenomena. This survey found evidence indicating the relevance of gender and handedness for measures of regional cortical morphology. Although gender was associated with structural variations concerning the neuroanatomy of the midcingulum bundle as well, handedness did not emerge in the analyses of white matter characteristics as significant factor. Hemispheric differences were found at the level of both gray and white matter. Turning to the functional implications of neuroanatomical variations and comparing subjects with a pronounced and a low degree of midcingulate folding, which indicates differential expansions of cytoarchitectural areas, behavioral and electrophysiological differences in the processing of interference became evident. A high degree of leftward midcingulate fissurization was associated with better behavioral performance, presumably caused by a more effective conflict-monitoring system triggering fast and automatic attentional filtering mechanisms. Subjects exhibiting a lower degree of midcingulate fissurization rather seem to rely on more effortful control processes. These results carry implications not only concerning neuronal representations of individual differences in attentional processes, but might also be of relevance for the refinement of models for mental disorders.
Memory consists of multiple anatomically and functionally distinct systems. Animal studies suggest that stress modulates multiple memory systems in a manner that favors nucleus caudatus-based stimulus-response learning at the expense of hippocampus-based spatial learning. The present work aimed (i) to translate these findings to humans, (ii) to determine the involvement of the stress hormone cortisol in this effect, and (iii) to assess whether the use of stimulus-response and spatial strategies is a long lasting person characteristic. To address these issues we developed a new paradigm that differentiates the use of spatial and stimulus-response learning in humans. Our findings indicate that (i) psychosocial stress (Trier Social Stress Test) modulates the use of spatial and stimulus-response learning in humans, (ii) cortisol plays a key role in this modulatory effect of stress, and (iii) the use of spatial and stimulus-response learning is affected by situational rather than long lasting person factors.
Diese Arbeit hat das Ziel, die Kategorie "Frau", ihre Situation und ihre Konstitution sowohl auf symbolischer als auch soziostruktureller Ebene innerhalb der mexikanischen Kultur und Gesellschaft zu ergründen. Die Konstruktion von Weiblichkeit in Mexiko erfolgt entlang der bedeutungsstiftenden Strukturen einer Vielzahl von Kulturen (zumindest: die "indigen/traditionelle", die hispanisch-europäische und die mestizisch/mexikanische), gesellschaftlicher und politischer Institutionen (wie das staatliche Entwicklungsprojekt, Bildungsinitiativen, Kirchen und Religion) und weiterer, diffuser Einflüsse (etwa die Massenmedien in ihren populären Formen). Gerade deshalb gewinnt die Weiblichkeit der mexikanischen Mestizinnen eine besondere Qualität, die eine Möglichkeit bieten kann, nicht nur eine "fremde" Kultur, sondern auch die eigene Wahrnehmung zu analysieren.