Refine
Year of publication
- 2011 (49) (remove)
Document Type
- Doctoral Thesis (40)
- Book (4)
- Article (1)
- Bachelor Thesis (1)
- Conference Proceedings (1)
- Master's Thesis (1)
- Other (1)
Language
- German (24)
- English (24)
- Multiple languages (1)
Keywords
- Hydrocortison (4)
- Stress (4)
- Neuroendokrines System (3)
- Analysis (2)
- Deutschland (2)
- Germany (2)
- Hotelgewerbe (2)
- Identität (2)
- Leistungslohn (2)
- behavioral genetics (2)
Institute
- Psychologie (16)
- Raum- und Umweltwissenschaften (8)
- Rechtswissenschaft (5)
- Mathematik (4)
- Wirtschaftswissenschaften (4)
- Informatik (3)
- Anglistik (1)
- Archäologie (1)
- Germanistik (1)
- Geschichte, mittlere und neuere (1)
Die folgende Arbeit thematisiert die Konzeptualisierung des psychischen Phänomens der Internalisierten Homonegativität (IH; Shidlo, 1994). Dieses bezeichnet die Verinnerlichung negativer Einstellungen und Verhaltensweisen gegenüber Homosexualität seitens einer gleichgeschlechtlich orientierten Person, wobei die Konstrukte von Heteronormativität und Homonegativität als Grundlage der Introjektion anzusehen sind. Bereits bestehende, in Art und Anzahl ihrer Dimensionen divergierende Begriffsbestimmungen werden zu einer neuen Arbeitsdefinition integriert. In diesem Sinne wird das Konstrukt der IH durch die Faktoren Internalisierter Homonegativität und Internalisierter Homopositivität mit je einer selbstbezogenen und globalen Subkomponente definiert. Ihre Antezedenzien und Konsequenzen, im Sinne psychischen Leidens oder stressbezogenen Selbstwachstums werden unter Einbezug ihrer Korrelate im Rahmen des Minoritätenstress-Modells (Meyer, 1995) reflektiert. Auch werden bereits existierende explizite und implizite diagnostische Messinstrumente zur Erfassung von IH bezüglich ihrer psychometrischen Qualität analysiert sowie konzeptuelle Ideen eines solchen für den deutschsprachigen Raum aufgezeigt.
Der Aufsatz umreißt die Konkurrenz auf kulturpolitischem Gebiet zwischen den beiden deutschen Staaten. Im Zentrum steht das neu erfundene Genre des Indianerfilms, das sich aus DDR-Sicht deutlich von den populären Karl-May-Filmen des Westens absetzen wollte. Leider mußte aus Kostengründen weitgehend auf Abbildungen verzichtet werden.
1.The Discursive Construction of Black Masculinity: Intersections of Race, Gender, and Sexuality
1.1.The Plight of Black Men: A History of Lynchings and Castrations
1.2.The Discursive Construction of the Black Man as Otherrn
1.3.Black Corporeality and the Scopic Regime of Racism
2. Ralph Ellison's 'Invisible man'
2.1.Invisible Black Men: Between Emasculation and Hypermasculinityrn
2.2.Transcending Invisibility
Die vorliegende Arbeit untersucht das Bild der "Kernfamilie", das hier definitorisch wie folgt umrissen wurde: Auf einem geschlossenen Bildträger müssen beide Elternteile mit mindestens einem Nachkommen dargestellt sein, in einem reduzierten, nicht-narrativen Kontext. Als Hypothese wurde als Bezeichnung für dieses Bild der Begriff des "dynastischen Familienbildes" gewählt. Der Schwerpunkt lag auf kleinformatigen, nicht-sepulkralen Denkmälern, da gerade bei Grabdenkmälern sowohl regionale Traditionen sowie eine völlig andere Bedeutungsebene zu untersuchen wären. Die Untersuchung der römischen Familie und ihre Beurteilung in literarischen, epigraphischen, juristischen, numismatischen und archäologischen Quellen von der Republik bis in die Spätantike hat ergeben, dass sich einige Entwicklungslinien vom weit gefassten Familienverband der gens hin zur Kernfamilie" fassen lassen. Anders als in der Sepulkralkunst, wo eine ununterbrochene Tradition der Bilder der 'Kernfamilie' von den spätrepublikanischen Freigelassenenreliefs bis zu den Grabmedaillons vor allem in Dakien und Pannonien bis ins 4. Jahrhundert n. Chr. hinein besteht, setzt in der Kleinkunst eine dichte Überlieferung für diese Bilder erst in severischer Zeit ein. Seit dem 3. Jahrhundert wurden nun aber neben den Goldgläsern vor allem Gemmen, Ringe und Kameen mit Bildern der "Kernfamilie" geschaffen. In der Kleinkunst sind Aussagen zur Identifizierung der meist nicht benannten Familien schwierig; trotzdem ist es in den meisten Fällen möglich, die Personen in den Verwandtschaftsverhältnissen zueinander sicher zu bestimmen. Die Bilder folgen klaren Regeln, die in vier Deutungsebenen herausgestellt wurden: Das Deutungsmuster des "formalisierten Familienbildes" verweist auf die Regelhaftigkeit der Bildtypen. Die Anordnung der Personen erfolgte nicht willkürlich, jedem wird der ihm gebührende Platz zugewiesen. Damit ist das Bild auf den ersten Blick erfassbar. Nutzbar gemacht hat man sich bei der Schaffung dieser Bilder bereits bestehende Bildtypen; sie zeigten nämlich Ehepaare, Väter mit Nachkommen, Mütter mit Nachkommen oder nur die Kinder. Die Kleinkunst und die Münzen zeigen die Personen sowohl en face als auch im Profil. Allen gemeinsam ist jedoch die Tatsache, dass die Personen weder mit dem Betrachter, noch untereinander Blickkontakt aufnehmen wollen. Es geht also nicht um die Darstellung einer liebevollen Familie, die sich dem Betrachter präsentieren will und die in irgend einer Form interagiert. Das Bild ist stark repräsentativ und nicht-narrativ; es sollen Werte und Tugenden dargestellt werden. Daher kann von einem "hieratischen Familienbild" gesprochen werden. Der "hierarchische" Charakter zeigt sich, wenn die Rangfolge innerhalb der Familie gezeigt werden sollte. Hierzu dienten nicht nur die Position im Bild, die Anordnung im Verhältnis zu den anderen Familienmitgliedern, sondern auch Tracht und Insignien. Insgesamt kulminieren die Deutungsansätze im "programmatischen Familienbild". Das Bild der "Kernfamilie" ist trotz der sehr reduzierten Form in der Lage, eine Vielzahl an Werten und allgemeingültigen Tugenden zu verdeutlichen; Concordia, aeternitas, fecunditas und pietas sind nur die wichtigsten. Der bedeutsamste hinter den Bildern stehende Gedanke ist der der "Dynastie". Diese Absicht bzw. diese Hoffnung auf Fortdauer der Familie konnte durch das Bild der "Kernfamilie" einfach und wirkungsvoll transportiert werden. Aus diesem Grunde kann von einem "dynastischen Familienbild" gesprochen werden. Es wurde die Hypothese aufgestellt, dass die Bilder der "Kernfamilie" nicht nur als Bilder realer Familien zu deuten sind, sondern auch topischen Charakter haben konnten. Es wird häufig nur ein Familienmitglied benannt, andere Personen werden unter Begriffen wie "cum parentibus" subsummiert. In diesen Fällen ist eine Entscheidung, ob die konkrete Familie gezeigt wird oder ob nur der Wert der Familie allgemein angezeigt werden soll, quasi unmöglich. Nur selten zeigen die dargestellten Personen wirklich individuelle Züge. Es handelt sich dabei aber wohl eher nicht um Porträts, sondern vielmehr um Bilder der "Rolle", welche die jeweilige Person in der Familie inne hatte. Es war also wichtiger, die Eltern von den Kindern unterscheiden zu können, als exakte Gesichtszüge wiederzugeben. Daher scheint es mir legitim zu sein, von einem "Kernfamilientopos" zu sprechen, der aber sehr wohl auch eine reale Familie zeigen kann. Zusammenfassend bleibt festzuhalten, dass es zwar keinen Begriff für die "Kernfamilie" gab, dass man aber nach Auswertung aller Quellen und des "Kernfamilientopos" davon ausgehen kann, dass diese Familieneinheit nicht nur die Lebenswirklichkeit der meisten Menschen darstellte, sondern auch als Symbol für eine ganze Anzahl von Kerntugenden dienen konnte, die für den Fortbestand der Dynastie, nicht nur im kaiserlichen, sondern auch im privaten Bereich, sowie für die Stabilität des Reiches von elementarer Bedeutung waren.
Die Dissertation ist der Kuünstlerpersönlichkeit und dem Werk des Kubaners Wifredo Lam gewidmet. Lam wurde 1902 auf Kuba als Sohn eines Chinesen und einer Kubanerin geboren und starb 1982 in Paris. Die vielen unterschiedlichen Lebensstationen des Künstlers bezeugen seine Mobilität und Reiselust, zeichnen aber auch gleichzeitig die historischen Turbulenzen und Umbrüche des 20. Jahrhunderts nach. Lam gilt heute als einer der Hauptvertreter der lateinamerikanischen Kunst des 20. Jahrhunderts und als Künstlerikone Kubas. Zu Lams Freunden und Bekannten gehörten unter anderem Pablo Picasso, André Breton, Michel Leiris, Pierre Mabille, Alejo Carpentier, Lydia Cabrera, Aimé Césaire, Benjamin Perét und Asger Jorn. Sein Werk ist durch den Kubismus und den Surrealismus beeinflusst. Auch interessierte er sich für die lokalen Gegebenheiten, Kulturen und Traditionen seiner jeweiligen Aufenthaltsorte. Er setzte sich unter anderem mit der Rezeption des "Primitiven" der europäischen Avantgarde vor dem Zweiten Weltkrieg, wie auch - zurück in der Heimat Kuba - mit der afrokubanischen Mischreligion Santeria auseinander und fühlte sich politisch wie intellektuell mit der karibischen Négritude verbunden. Diese und andere Eindrücke und Einflüsse hinterließen Spuren in Lams Werk, die er in eine Formensprache umsetzte, die seinem Œuvre einen unverwechselbaren Ausdruck verleiht. Dem poliperspektivistischen und semantisch mehrfach aufgeladenen Werk jedoch stehen eine erstaunlich einseitige und nicht selten stereotype internationale Repräsentation und Rezeption gegenüber. Die Dissertation jedoch stellt eine andere, eine neue Positionierung des Künstlers und seines Werkes vor, die ohne primitivistische Zuschreibungen und biografische Bezeugungen auskommt. Dies gelingt zum einen durch die Auseinandersetzung mit den Rezeptions- und Repräsentationsmechanismen, die den Künstlermythos Lam ausgebildet haben. Daran schließt sich eine detaillierte Analyse repräsentativ ausgewählter Einzelbildbeispiele an. Aber auch die Auseinandersetzung mit dem Gesamtwerk des Künstlers ist relevant. Denn es zeigt sich, dass die über Jahrzehnte hin praktizierte Wiederholung von Bildformeln und die Homogenität in der Darstellungsweise Teil des künstlerischen Programms von Wifredo Lam sind. Diese stilistische Formalität wurde von den Kritikern des Lamschen Werkes bisher nicht beachtet. Auf der Basis dieser neu erarbeiteten Erkenntnisse kann Wifredo Lam als Fallbeispiel für übergeordnete Fragestellungen dienen und zentrale Aspekte der cultural studies illustrieren. Denn Lams künstlerische Formgestaltung verweist auf ein alternatives ästhetisches Identitätsmodell, das Synkretismus und Hybridität nicht als Verlust von Identität, sondern als eine Praxis von Differenz versteht. Diese Ausrichtung der Lesart ermöglicht es, das Gesamtwerk als eine künstlerische Antwort auf Fragen kultureller Identität und Multikulturalität zu deuten.
Der Titel der Dissertation enthält bereits die inhaltlichen Vorgaben, die zu Grund gelegt werden. Wie nämlich gelingt es Eckhart insbesondere in seinen deutschen Predigten, den Erfahrungsbereich Gott zu verbalisieren? Bei der Untersuchung der Frage, wie Gott - dem eine eigene, den Menschen nur bedingt erfahrbare Wirklichkeit zugrunde liegt - wie er also zur Sprache gebracht werden kann, ist es erforderlich, sich über die Wirklichkeit und ihre Beziehungen zu Gott und den Menschen klar zu werden. Mir geht es darum, die Problematik des Verhältnisses von Mensch und Gott in Beziehung zum Glaubensleben in einer tiefen geistig-geistlichen Durchdringung transparent zu machen. Konkreter: Bei der Textuntersuchung geht es um die Interpretation sprachlicher Äußerungen im Hinblick auf die darin zur Sprache gebrachte Erfahrung der Wirklichkeit Gottes. Bereits in dieser groben Skizzierung wird deutlich, dass sich die Untersuchung nicht alleine auf eine wissenschaftliche Disziplin beschränkt, sondern in ihrem interdisziplinären Charakter Fragen der Germanistik, der Philosophie und Theologie gleichermaßen berührt. Die Aufgabenstellung der Dissertation an sich und der Versuch, sich Meister Eckhart und seiner Gedankenwelt in seinen deutschen Predigten zu nähern, implizierte bereits die dann zugrunde gelegte methodische Vorgehensweise. Im Mittelpunkt der Untersuchung stand zwangsläufig Eckharts deutsches Predigtkorpus. Als textliche Grundlage habe ich mich für die Largier-Ausgabe entschieden, weil sie m. E. die am besten handhabbare Ausgabe war. Wichtig war für mich, Eckhart so oft als möglich selbst zu Wort kommen zu lassen. Das bedeutete eine dezidiert intensive Auseinandersetzung mit seinen Predigten einerseits und andererseits einer kritischen Würdigung der Sekundärliteratur. Den Gedankengang dieser weiter zu verfolgen und neue Deutungsebenen zu erschließen, gehörten ebenso zum methodischen Procedere. Zuerst war aber das geistig-geistliche Umfeld ME-´s in den Blick zu nehmen. Grundsätzlich ist zum Gesamtverständnis seines Werkes wichtig, ihn als Dominikaner zu begreifen. Zum Selbstverständnis dieses Bettelordens gehört seine intellektuelle Ausrichtung, die für Eckharts Erkenntnislehre fundamental ist: Demnach ist das Erkennen die Grundlage von Gottes Sein und steht sogar höher als das Sein. Wort und Intellekt haben Vorrang vor dem Sein. Gott ist das Sein dadurch, weil er denkt. Alles Sein ist abgeleitet vom Intellekt. Die Auseinandersetzung mit den theologisch-philosophischen Strömungen seiner Zeit war maßgebend für das weitere Verständnis von Eckharts Gedankenwelt. So wurden zunächst Fragen geklärt, wie Eckhart in seiner Zeit, nämlich der Schwelle zum 14. Jahrhundert, zu verorten ist. Ebenso wurden die Denker in ihrer Beziehung und Rezeption Eckharts vorgestellt: Plotin, Dionysius Areopagita, auf theologischer Seite insbesondere Augustinus und Albertus Magnus. Gleiches gilt für die weiblichen Vordenkerinnen Margarete Porete, Mechthild von Magdeburg und Schwester Hadewijch von Antwerpen. Wie sich Eckharts Christologie und theologische Anthropologie in seinen Predigten niederschlägt, welche Bedeutung er des Menschen Durchbruch und Sprung in Gottes Sphäre zubilligt, wie sich Gottesgeburt im Menschen ereignet und damit neue Wirklichkeiten konstituiert, wurden weiterhin dargelegt. ME ist nicht leicht zu fassen und festzulegen. Er, der selbst kein eigenes Lehrsystem und keine Dogmen entwickelt hat, lässt sich in keine Schablone pressen. Am ehesten greifbar ist Eckhart, wenn man erkennt, dass für ihn Sprache mehr ist als ein Vehikel, um göttliche Botschaften in Alltägliche zu transformieren. Bei Eckhart transzendiert Sprache selbst: Sprache beschreibt eine Wirklichkeit, die selbst wiederum Teil der Wirklichkeit ist. Gott kommuniziert nicht nur informierend, sondern sich selbst, Kommunikation ist Beziehungstheologie im trinitarischen Sinne, die gleichzeitig neue Wirklichkeiten schafft.
Die Einführung leistungsorientierter Entgeltsysteme stellt Mitarbeiter und Unternehmen vor besondere Herausforderungen. Dabei verändert sich vor allem die Rolle des Mitarbeiters. War er vormals Ausführender der ihm übertragenen Arbeitsaufgaben, wird er zunehmend zum eigenverantwortlichen Gestalter und Mitunternehmer. Im Rahmen einer multiplen Fallstudie wird zunächst der Frage nachgegangen, wie die Mitarbeiter in drei karitativen Einrichtungen die Einführung einer leistungsorientierten Vergütungskomponente erleben. Dazu werden inhaltliche Gestaltungsmerkmale der Entgeltsysteme, Merkmale des Einführungsprozesses und ihre Auswirkungen untersucht. Die Ergebnisse zeigen, dass die Mitarbeiter in allen Einrichtungen dem Aspekt der Finanzierung des variablen Vergütungsanteils eine wesentliche Bedeutung beimessen. Wird dieser Anteil durch die Variabilisierung bisher garantierter, fixer Vergütungsanteile finanziert, entstehen unsichere Gehalts-anteile und es erhöht sich das Risiko von möglichen Gehaltsverlusten. In der Einrichtung mit dem höchsten Entgeltrisiko führte dieser Umstand dazu, dass Mitarbeiter und Vorgesetzte durch informelle Absprachen versucht haben, mögliche Verluste zu vermeiden. Wird der variable Entgeltanteil durch die Einrichtungen mitfinanziert, erhöhen sich hingegen die Chancen auf Einkommensgewinne, was auch zu einer höheren Akzeptanz der neuen Entgeltsysteme beiträgt. Aufbauend auf den Ergebnissen der Fallstudie werden in einer quantitativen Analyse die Auswirkungen eines erhöhten Entgeltrisikos auf die Zufriedenheit der Mitarbeiter mit ihrem variablen Vergütungsanteil (Bonuszufriedenheit) untersucht. Dabei wird das Entgeltrisiko durch drei konzeptuelle Facetten operationalisiert: die Variabilität der Entlohnung, das Ausmaß möglicher Verluste und das Verhältnis von Risiko und Chance (RCV). Entgegen der bisherigen Annahme in der Forschungsliteratur, dass vor allem die Variabilität der Entlohnung ausschlaggebend für die Auswirkungen von Entgeltrisiko ist, zeigen regressionsanalytische Ergebnisse, dass in der Einführungsphase neuer Entgeltsysteme vor allem das RCV einen signifikanten Effekt auf die Bonuszufriedenheit der Mitarbeiter hat. Die Ergebnisse einer multiplen Mediationsanalyse legen nahe, dass der Effekt von RCV auf die Bonuszufriedenheit zum Teil von Einstellungen der distributiven und prozeduralen Gerechtigkeit vermittelt wird. Wei-terführende Analysen ergeben, dass der Zusammenhang zwischen dem RCV und der Bonuszufriedenheit durch zwei moderierende Variablen beeinflusst wird: zum einen durch die partizipative Beteiligung der Mitarbeiter am Einführungsprozess und zum anderen durch die individuelle Präferenz für leistungsorientierte Entlohnung. Vor allem bei hoher partizipativer Beteiligung wirkt sich ein günstiges RCV positiv auf die Bonuszufriedenheit der Mitarbeiter aus. Außerdem sind jene Mitarbeiter unzufriedener mit einem risiko-reichen Entgeltsystem, die eine stark ausgeprägte Präferenz für leistungsorientierte Entlohnung besitzen.
Die Vertrauens-Trias erlaubt salutogentische Aussagen über personale Ressourcen. Die kulturvergleichende Anwendung der Vertrauens-Trias wurde bei Jugendlichen in drei Ländern (Deutschland, Luxemburg, Spanien) überprüft. Dabei wurde die Konstruktvalidität der Vertrauens-Trias als auch Zusammenhänge zu symptomatischen Belastungen insgesamt bestätigt. Vergleiche zwischen den Kulturen zeigen keine Unterschiede zwischen deutschen und luxemburgischen Schülern, jedoch zwischen deutschen und spanischen Schülern.
This dissertation focuses on the link between labour market institutions and precautionary savings. It is evaluated whether private households react to changes in social insurance provision such as the income replacement in case of unemployment by increased savings for precautionary reasons. The dissertation consists of three self-contained chapters, each focusing on slightly different aspects of the topic. The first chapter titled "Precautionary saving and the (in)stability of subjective earnings uncertainty" empirically looks at the influence of future income uncertainty on household saving behavior. Numerous cross-section studies on precautionary saving use subjective expectations regarding the income variance one year ahead as a proxy for income uncertainty. Using such proxies observed only at one point in time, however, may give rise to biased estimates for precautionary wealth if expectations are not stable over time. Survey data from the Dutch DNB Household Survey suggest that subjective future income distributions are not stable over the mid-term. Moreover, in this study I contrast estimates of precautionary wealth using the variation coefficient observed at one point in time with those using a simple mid-term average. Estimates of precautionary wealth based on the average are about 40% to 80% higher than the estimates using the variation coefficient observed only once. In addition to that, wealth accumulation for precautionary reasons is estimated for different parts of the income distribution. The share of precautionary wealth is highest for households at the center of the income distribution. By linking saving behaviour with unemployment insurance, the following chapters then shed some light on an issue that has largely been neglected in the literature on labour market institutions so far. Whereas the third chapter models the relevance of unemployment insurance for income uncertainty and intertemporal decision making during institutional reform processes, chapter 4 seeks to establish empirically a relationship between saving behavior and unemployment insurance. Social insurance, especially unemployment insurance, provides agents with income insurance against not marketable income risks. Since the early 1990s, reform measures like more activating policies as suggested by the OECD Jobs Study in 1994 have been observed in Europe. In the third chapter it is argued that such changes in unemployment insurance reduce public insurance and increase income uncertainty. Moreover, a simple three period model is discussed which shows a link between a welfare state reform and agents' saving decisions as one possible reaction of agents to self-insure against income risk. Two sources of uncertainty seem to be important in this context: (1) uncertain results of the reform process concerning the replacement rate, and (2) uncertainty regarding the timing of information about the content of the reform. It can be shown that the precautionary motive for saving explains an increased accumulation of capital in times of reform activities. In addition to that, early information about the expected replacement rate increases agents' utility and reduces under and oversaving. Following the argument of the previous chapters, that an important feature of labour market institutions in modern welfare states is to provide cash transfers as income replacement in case of unemployment, it is hypothesised that unemployment benefits reduce the motive to save for precautionary reasons. Based on consumer sentiment data from the European Commission's Consumer Survey, chapter four finally provides some evidence that aggregate saving intentions are significantly influenced by unemployment benefits. It can be shown that higher benefits lower the intention to save.
On the Influence of Ignored Stimuli: Generalization and Application of Distractor-Response Binding.
(2011)
In selection tasks where target stimuli are accompanied by distractors, responses to target stimuli, target stimuli and the distractor stimuli can be encoded together as one episode in memory. Subsequent repetition of any aspect of such an episode can lead to the retrieval of the whole episode including the response. Thus, repeating a distractor can retrieve responses given to previous targets; this mechanism was labeled distractor-response binding and has been evidenced in several visual setups. Three experiments of the present thesis implemented a priming paradigm with an identification task to generalize this mechanism to auditory and tactile stimuli as well as to stimulus concepts. In four more experiments the possible effect of distractor-response binding on drivers' reactions was investigated. The same paradigm was implemented using more complex stimuli, foot responses, go/no-go responses, and a dual task setup with head-up and head-down displays. The results indicate that distractor-response binding effects occur with auditory and tactile stimuli and that the process is mediated by a conceptual representation of the distractor stimuli. Distractor-response binding effects also revealed for stimuli, responses, and framework conditions likely to occur in a driving situation. It can be concluded that the effect of distractor-response binding needs to be taken into account for the design of local danger warnings in driver assistance systems.
Der Schwarzmeerraum stellte am Ende des Mittelalters einen Schnittpunkt unterschiedlichster Kulturbereiche dar. Hier trafen das zerfallende Byzantinische Reich, die Reste der Kreuzfahrerstaaten, verschiedene mongolische Reiche und das aufsteigende Osmanische Reich aufeinander. Wie sich aus diesem Aufeinandertreffen ein über Jahrzehnte trotz immer wieder entstehender Konflikte fruchtbares und bei aller Dynamik relativ stabiles Miteinander entwickelte, wird anhand der aufschlussreichen Register der genuesischen Massaria von Caffa untersucht. Dabei liegt der Fokus sowohl auf der Organisation des italienischen Netzwerks in der Region als auch auf dem Umgang mit den tatarischen und türkischen Nachbarn, auf deren Gebiet die Genuesen operierten, insbesondere auf den diplomatischen Aktivitäten. Wie sich unter diesen Umständen der Handel als Hauptaktivität entfaltete, wird am Beispiel des Sklavenhandels verdeutlicht.
Die Auswirkungen von Rahmenfehlern in Zensen werden bereits seit vielen Jahren untersucht. Eine Methode, um aktuelle Bevölkerungszahlen zu gewinnen, basiert auf Fortschreibung. Wegen Ungenauigkeiten in der Fortschreibung wurden aber auch andere Modelle entwickelt - die capture-recapture-Modelle. Am 29. August 2006 hat die Bundesregierung beschlossen, dass in Deutschland 2011 ein registergestützter Zensus durchgeführt wird. Der Schwerpunkt dieser Dissertation liegt in der Anwendung des capture-recapture-Modelles im deutschen Zensus 2011. Die Dissertation vergleicht den dual system estimator (DSE) und alternative Schätzer (Verallgemeinerter-Regressionsschätzer, Verhältnis-synthetischer Schätzer, Schätzer basierend auf dem Unit-level Modell) für die Schätzung der Anzahl der tatsächlich vorhandenen Personen. Die empirische Untersuchung der Güte der Schätzer basiert auf Monte Carlo Simulationen synthetischer Populationen des Bundeslandes Saarland.
This thesis centers on formal tree languages and on their learnability by algorithmic methods in abstractions of several learning settings. After a general introduction, we present a survey of relevant definitions for the formal tree concept as well as special cases (strings) and refinements (multi-dimensional trees) thereof. In Chapter 3 we discuss the theoretical foundations of algorithmic learning in a specific type of setting of particular interest in the area of Grammatical Inference where the task consists in deriving a correct formal description for an unknown target language from various information sources (queries and/or finite samples) in a polynomial number of steps. We develop a parameterized meta-algorithm that incorporates several prominent learning algorithms from the literature in order to highlight the basic routines which regardless of the nature of the information sources have to be run through by all those algorithms alike. In this framework, the intended target descriptions are deterministic finite-state tree automata. We discuss the limited transferability of this approach to another class of descriptions, residual finite-state tree automata, for which we propose several learning algorithms as well. The learnable class by these techniques corresponds to the class of regular tree languages. In Chapter 4we outline a recent range of attempts in Grammatical Inference to extend the learnable language classes beyond regularity and even beyond context-freeness by techniques based on syntactic observations which can be subsumed under the term 'distributional learning', and we describe learning algorithms in several settings for the tree case taking this approach. We conclude with some general reflections on the notion of learning from structural information.
Eine Vielzahl hydrophiler Xenobiotika wird in kommunalen Kläranlagen nur unvollständig abgebaut und stellt ein potentielles Risiko für aquatische Ökosysteme dar. Die Eliminationsleistung von Kläranlagen hat sich deshalb während des letzten Jahrzehnts zu einem Schwerpunkt in der aquatischen Umweltchemie entwickelt. Die vorliegende Arbeit untersucht in diesem Zusammenhang die Variation biologischer Abbauleistungen kommunaler Kläranlagen für polare Xenobiotika. Es soll überprüft werden, ob die Abbauleistung von Xenobiotika mit derer klassischer Nährstoffe in Beziehung gesetzt werden kann. Als zusätzlicher Faktor zur Erklärung von unterschiedlichen Eliminationsleistungen wurden Probenahmestrategien hinsichtlich der Erstellung von Massenbilanzen analysiert. Fünf Pharmaka sowie drei Aminopolycarbonsäuren wurden als Testsubstanzen ausgewählt. Diese umfassen ein Spektrum an mikrobiologischer Abbaubarkeit bedingt durch die Reaktivität ihrer unterschiedlichen molekularen Strukturen. Ein kombinierter Versuchsaufbau aus Respirometrie und Abbautests ermöglichte, neben der Bestimmung von Abbaukinetiken, auch die Charakterisierung von Belebtschlamm. Der Einfluss von Mischungsprozessen auf die Abbauleistungen von Kläranlagen wurde mittels hydraulischer Aufenthaltszeitverteilungen modelliert. Darauf basierend wurde eine Methode zur Beurteilung und Erstellung von Eliminationsleistungen aus Zulauf-Ablauf Massenbilanzen entwickelt. Die Resultate zeigen deutliche Unterschiede in den Belebtschlammcharakteristika und dem Abbaupotential von Xenobiotika zwischen verschiedenen Kläranlagen. Die aktive heterotrophe Biomasse wurde als steuernder Faktor für die Biodegradation der untersuchten leicht und moderat abbaubaren Xenobiotika identifiziert. Dies kann als Hinweis auf kometabolische Abbauprozesse durch unspezifische Enzymaktivitäten gewertet werden. Die beobachtete Abnahme der Eliminationsleistung mit steigendem Schlammalter konnte anhand modifizierter Kinetiken pseudo-erster Ordnung beschrieben werden. Die Modellierung von Mischungsprozessen mittels hydraulischer Aufenthaltszeitverteilungen macht deutlich, mit welcher Unsicherheit Massenbilanzen in Kläranlagen behaftet sind. Die Ergebnisse demonstrieren, dass dies vor allem auf inadäquate Probenahmestrategien zurückzuführen ist. Insbesondere Massenbilanzen auf der Basis von kurzen Probenahmezeiträumen und 24-h Mischproben resultieren in fehlerhafte Eliminationsraten. Der vorgestellte Ansatz benutzt die Verteilungen von Aufenthaltszeiten als Leitprinzip, um Zulauf- und Ablauffrachten zueinander in Beziehung zu setzen. Die Methode kann als Grundlage zur akkuraten Schätzung von Eliminationsleistungen herangezogen werden und bietet eine Erklärung für das Vorkommen negativer Eliminationsleistungen.
Psychiatric/Behavioral disorders/traits are usually polygenic in nature, where a particular phenotype is the manifestation of multiple genes. However, the existence of large families with numerous members who are affected by these disorders/traits steers us towards a Mendelian (or monogenic) possibility, where the phenotype is caused by a single gene. In order to better understand the genetic architecture of general psychiatric/behavioral disorders/traits, this thesis investigates large pedigrees that display a Mendelian pattern for attention-deficit/hyperactivity disorder, schizophrenia and bipolar disorder. Numerous challenges in the field of psychiatric and behavioral sciences have impeded the genetic investigation of such disorders/traits. Examples include frequent cross-disorders, genetic heterogeneity across subjects as well as the use of diagnostic tools that can be subjective at times. To overcome these challenges, this thesis investigates large multi-generational pedigrees, which comprise a significant number of members who exhibit specific psychiatric/behavioral phenotypes. These pedigrees provide high-resolution experimental setups that can dissect the genetic complexities of psychiatric/behavioral disorders/traits. This thesis adopts a classical two-stage genetic approach to investigate the various psychiatric/behavioral disorders/traits in large pedigrees. The classical two-stage genetic approach is commonly used by many human geneticists to study a wide spectrum of human physiological disorders but is only being applied to the field of psychiatric and behavioral genetics recently. Through the study of large pedigrees, this thesis discovers the genomic regions that may play a causative role in the expression of certain psychiatric/behavioral disorders/traits within the vast genome.
In addition to the well-recognised effects of both, genes and adult environment, it is now broadly accepted that adverse conditions during pregnancy contribute to the development of mental and somatic disorders in the offspring, such as cardiovascular disorders, endocrinological disorders, metabolic disorders, schizophrenia, anxious and depressive behaviour and attention deficit hyperactivity disorder (ADHD). Early life events may have long lasting impact on tissue structure and function and these effects appear to underlie the developmental origins of vulnerability to chronic diseases. The assumption that prenatal adversity, such as maternal emotional states during pregnancy, may have adverse effects on the developing infant is not new. Accordant references can be found in an ancient Indian text (ca. 1050 before Christ), in biblical texts and in documents originating during the Middle Ages. Even Hippocrates stated possible effects of maternal emotional states on the developing fetus. Since the mid-1950s, research examining the effects of maternal psychosocial stress during pregnancy appeared in the literature. Extensive research in this field has been conducted since the early 1990s. Thus, the relationship between early life events and long-term health outcomes was already postulated over 20 years ago. David Barker and colleagues demonstrated that children of lower birth weight - which represents a crude marker of an adverse intrauterine environment - were at increased risk of high blood pressure, cardiovascular disorders, and type-2 diabetes later in life. These provocative findings led to a large amount of subsequent research, initially focussing on the role of undernutrition in determining fetal outcomes. The phenomenon of prenatal influences that determine in part the risk of suffering from chronic disease later in life has been named the "fetal origins of health and disease" paradigm. The concept of "prenatal programming" has now been extended to many other domains, such as the effects of prenatal maternal stress, prenatal tobacco exposure, alcohol intake, medication, toxins, as well as maternal infection and diseases. During the process of prenatal programming, environmental agents are transmitted across the placenta and act on specific fetal tissues during sensitive periods of development. Thus, developmental trajectories are changed and the organisation and function of tissue structure and organ system is altered. The biological purpose of those "early life programming" may consist in evolutionary advantages. The offspring adapts its development to the expected extrauterine environment which is forecast by the clues available during fetal life. If the fetus receives signals of a challenging environment, e.g. due to maternal stress hormones or maternal undernutrition, its survival may be promoted due to developmental adaptation processes. However, if the expected environment does not match with the real environment, maladapation and later disease risk may result. For example, a possible indicator of a "response ready" trait, such as hyperactivity/inattention may have been advantageous in an adverse ancient environment. However, it is of disadvantage when the postnatal environment demands oppositional skills, such as attention and concentration " e.g. in the classroom, at school, to achieve academic success. Borderline personality disorder (BPD) is a prevalent psychiatric disorder, characterized by impulsivity, affective instability, dysfunctional interpersonal relationships and identity disturbance. Although many studies report different risk factors, the exact etiologic mechanisms are not yet understood. In addition to the well-recognised effects of genetic components and adverse childhood experiences, BPD may potentially be co-determined by further environmental influences, acting very early in life: during pre- and perinatal period. There are several hints that may suggest possible prenatal programming processes in BPD. For example, patients with BPD are characterized by elevated stress sensitivity and reactivity and dysfunctions of the neuroendocrine stress system, such as the hypothalamic pituitary adrenal (HPA) axis. Furthermore, patients with BPD show a broad range of somatic comorbidities " especially those disorders for which prenatal programming processes have been described. During infancy and childhood, BPD patients already show behavioural and emotional abnormalities as well as pronounced temperamental traits, such as impulsivity, emotional dysregulation and inattention that may potentially be co-determined by prenatal programming processes. Such temperamental traits - similar to those, seen in patients with ADHD - have been described to be associated with low birthweight which indicates a suboptimal intrauterine environment. Moreover, the functional and structural alterations in the central nervous system (CNS) in patients with BPD might also be mediated in part by prenatal agents, such as prenatal tobacco exposure. Prenatal adversity may thus constitute a further, additional component in the multifactorial genesis of BPD. The association between BPD and prenatal risk factors has not yet been studied in such detail. We are not aware of any further study that assessed pre- and perinatal risk factors, such as maternal psychoscocial stress, smoking, alcohol intake, obstetric complications and lack of breastfeeding in patients with BPD.
Diese Dissertation befasst sich mit anreiztheoretischen Konsequenzen der Reform der Professorenbesoldung. Dabei stehen vor allem die besonderen Leistungsbezüge im Mittelpunkt, die ökonomisch als relative Leistungsturniere zu betrachten sind. Das erste Papier mit dem Titel "Stufenmodell oder Leistungspunkte? Die Vergabe besonderer Leistungsbezüge an deutschen Universitäten" beschäftigt sich mit den Vergabeverfahren für besondere Leistungsbezüge auf Universitätsebene und zeigt, dass die existierenden Systeme unterschiedliche Turniertypen darstellen: Bei dem Stufenmodell handelt es sich um ein U-Typ Turnier, während das Leistungspunkte-Modell als J-Typ Turnier aufzufassen ist. Ein Vergleich dieser beiden Typen liefert modelltheoretische Empfehlungen für die Umsetzung. Diese werden empirisch für 60 deutsche Universitäten überprüft. Das zweite Papier "Searching for the best? Clubs and their admission decision" beschäftigt sich mit strategischen Entscheidungen in Berufungskommissionen. Mit der Einführung der W-Besoldung an deutschen Universitäten werden Professoren stärker leistungsabhängig entlohnt. Die so genannten besonderen Leistungsbezüge werden durch relative Leistungsturniere auf Fachbereichsebene vergeben. Im Zusammenspiel mit der Auswahl neuer Hochschullehrer in Berufungskommissionen können adverse Anreize entstehen, nicht den besten Bewerber auszuwählen. Die Fachbereiche sehen sich bei der Einstellungsentscheidung einem Trade-off gegenüber: Die Berufung eines sehr guten Kandidaten erzeugt Spill-over-Effekte. Zum einen können durch Kooperationen mit anderen (guten) Forschern des Fachbereichs neue Projekte entstehen, die Forschungsgelder und Drittmittel einbringen und somit auch die Reputation des Fachbereichs insgesamt (oder dieser Forschergruppe) steigern. Zum anderen führt diese Berufungsentscheidung dazu, dass bei der Vergabe der besonderen Leistungsbezüge die zusätzliche Konkurrenz durch einen besonders erfolgreichen Professor bedeutet, dass weniger erfolgreiche Fakultätsmitglieder geringere besondere Leistungsbezüge erhalten. Dieser Effekt kann als relative Deprivation verstanden werden. Welcher Effekt überwiegt, wird mit Hilfe eines zweistufigen Spiels untersucht. Das dritte Papier "Kooptation und Wettbewerb - Experimentelle Analyse" analysiert das Zusammenwirken von relativen Leistungsturnieren und Team-Arbeit experimentell. Dazu wird das Design von Irlenbusch/Ruchala (2008) um das Element der Kooptation eines neuen Mitspielers und Turniergegners erweitert. Es zeigt sich, dass die Anreizwirkung von Wettbewerben mit nur einem Preis (Stufenmodell) größer ist als bei mehreren, relativ vergebenene Preisen (Leistungspunkte-Verfahren). Bei der Zuwahl-Entscheidung gibt es zwei Spiel-Strategien: Neben der typischen Auszahlungsmaximierung gibt es Spieler, die bereit sind auf Einkommen zu Gunsten von Status zu verzichten. Diese Spieler wählen einen Bewerber, der ihre eigene Position im internen Ranking nicht gefährdet. Besonders anfällig für dieses Verhalten ist das Stufenmodell mit nur einem Siegerpreis. Das Leistungspunkte-Verfahren schneidet hier besser ab, da es dort nur wenige Fälle von Status sichernden Zuwahl-Entscheidungen gibt.
Wilhelm Windelband (1848-1915) gilt als ein wegbereitender Denker, der die wertphilosophische Ausrichtung der sogenannten Südwestdeutschen Schule vorzeichnet. Aufgrund dieser Vorreiterrolle sowie seiner fragmentarischen Denkweise gerät die Eigenständigkeit seines Philosophierens oft in Vergessenheit oder wird meistens im Schatten der Rezeptionsgeschichte gesehen. Die vorliegende Arbeit macht sich zur Aufgabe, Windelbands Philosophie zunächst in ihrer Eigentümlichkeit wiederherzustellen, um anschließend nach ihrer systematischen Bedeutung fragen zu können. Neben den entwicklungsgeschichtlichen Aspekten, anhand derer Windelbands gedanklicher Werdegang in drei Phasen (Psychologismus, Wertphilosophie und Kulturphilosophie) eingeteilt wird, geht die vorliegende Arbeit vor allem der Frage nach, in wie fern die von ihm konzipierte Wertphilosophie als Kulturphilosophie zu verstehen ist. Die Forderung des späten Windelbands, den Kantischen Kritizismus zu einer umfassenden Kulturphilosophie zu erweitern, dient dabei als roter Faden dieses Interpretationsversuchs. Die Herausarbeitung möglicher systematischer Ansatzpunkte innerhalb seiner Werttheorie, die dieser Forderung genügen, soll Windelbands Status als Kulturphilosoph untermauern.
Variational inequality problems constitute a common basis to investigate the theory and algorithms for many problems in mathematical physics, in economy as well as in natural and technical sciences. They appear in a variety of mathematical applications like convex programming, game theory and economic equilibrium problems, but also in fluid mechanics, physics of solid bodies and others. Many variational inequalities arising from applications are ill-posed. This means, for example, that the solution is not unique, or that small deviations in the data can cause large deviations in the solution. In such a situation, standard solution methods converge very slowly or even fail. In this case, so-called regularization methods are the methods of choice. They have the advantage that an ill-posed original problem is replaced by a sequence of well-posed auxiliary problems, which have better properties (like, e.g., a unique solution and a better conditionality). Moreover, a suitable choice of the regularization term can lead to unconstrained auxiliary problems that are even equivalent to optimization problems. The development and improvement of such methods are a focus of current research, in which we take part with this thesis. We suggest and investigate a logarithmic-quadratic proximal auxiliary problem (LQPAP) method that combines the advantages of the well-known proximal-point algorithm and the so-called auxiliary problem principle. Its exploration and convergence analysis is one of the main results in this work. The LQPAP method continues the recent developments of regularization methods. It includes different techniques presented in literature to improve the numerical stability: The logarithmic-quadratic distance function constitutes an interior point effect which allows to treat the auxiliary problems as unconstrained ones. Furthermore, outer operator approximations are considered. This simplifies the numerical solution of variational inequalities with multi-valued operators since, for example, bundle-techniques can be applied. With respect to the numerical practicability, inexact solutions of the auxiliary problems are allowed using a summable-error criterion that is easy to implement. As a further advantage of the logarithmic-quadratic distance we verify that it is self-concordant (in the sense of Nesterov/Nemirovskii). This motivates to apply the Newton method for the solution of the auxiliary problems. In the numerical part of the thesis the LQPAP method is applied to linearly constrained, differentiable and nondifferentiable convex optimization problems, as well as to nonsymmetric variational inequalities with co-coercive operators. It can often be observed that the sequence of iterates reaches the boundary of the feasible set before being close to an optimal solution. Against this background, we present the strategy of under-relaxation, which robustifies the LQPAP method. Furthermore, we compare the results with an appropriate method based on Bregman distances (BrPAP method). For differentiable, convex optimization problems we describe the implementation of the Newton method to solve the auxiliary problems and carry out different numerical experiments. For example, an adaptive choice of the initial regularization parameter and a combination of an Armijo and a self-concordance step size are evaluated. Test examples for nonsymmetric variational inequalities are hardly available in literature. Therefore, we present a geometric and an analytic approach to generate test examples with known solution(s). To solve the auxiliary problems in the case of nondifferentiable, convex optimization problems we apply the well-known bundle technique. The implementation is described in detail and the involved functions and sequences of parameters are discussed. As far as possible, our analysis is substantiated by new theoretical results. Furthermore, it is explained in detail how the bundle auxiliary problems are solved with a primal-dual interior point method. Such investigations have by now only been published for Bregman distances. The LQPAP bundle method is again applied to several test examples from literature. Thus, this thesis builds a bridge between theoretical and numerical investigations of solution methods for variational inequalities.
The role of cortisol and cortisol dynamics in patients after aneurysmal subarachnoid hemorrhage
(2011)
Spontaneous aneurysmal subarachnoid hemorrhage (SAH) is a form of stroke which constitutes a severe trauma to the brain and often leads to serious long-term medical and psychosocial sequels which persist for years after the acute event. Recently, adrenocorticotrophic hormone deficiency has been identified as one possible consequence of the bleeding and is assumed to occur in around 20% of all survivors. Additionally, a number of studies report a high prevalence of post-SAH symptoms such as lack of initiative, fatigue, loss of concentration, impaired quality of life and psychiatric symptoms such as depression. The overlap of these symptoms and those of patients with untreated partial or complete hypopituitarism lead to the suggestion that neuroendocrine dysregulations may contribute to the psychosocial sequels of SAH. Therefore, one of the aims of this work is to gain insights into the role of neuroendocrine dysfunction on quality of life and the prevalence of psychiatric sequels in SAH-patients. Additionally, as data on cortisol dynamics after SAH are scarce, diurnal cortisol profiles are investigated in patients in the acute and chronic phase, as well as the cortisol awakening response and feedback sensitivity in the chronic phase after SAH. As a result, it can be shown that some SAH patients exhibit lower serum cortisol levels but at the same time a higher cortisol awakening response in saliva than healthy controls. Also, patients in the chronic phase after SAH do have a stable diurnal cortisol rhythm while there are disturbances in around 50% of all patients in the acute phase, leading to the conclusion that a single baseline measurement of cortisol is of no substantial use for diagnosing cortisol dysregulations in the acute phase after SAH. It is assumed that in SAH patients endocrine changes occur over time and that a combination of adrenal exhaustion and a subsequent downregulation of corticosteroid binding globulin may be the most probable causes for the dissociation of serum cortisol concentrations and salivary cortisol profiles in the investigated SAH patients. These changes may be an emergency response after SAH and, as elevated free cortisol levels are connected to a better psychosocial outcome in patients in the chronic phase after SAH, this reaction may even be adaptive.
The demand for reliable statistics has been growing over the past decades, because more and more political and economic decisions are based on statistics, e.g. regional planning, allocation of funds or business decisions. Therefore, it has become increasingly important to develop and to obtain precise regional indicators as well as disaggregated values in order to compare regions or specific groups. In general, surveys provide the information for these indicators only for larger areas like countries or administrative divisions. However, in practice, it is more interesting to obtain indicators for specific subdivisions like on NUTS 2 or NUTS 3 levels. The Nomenclature of Units for Territorial Statistics (NUTS) is a hierarchical system of the European Union used in statistics to refer to subdivisions of countries. In many cases, the sample information on such detailed levels is not available. Thus, there are projects such as the European Census, which have the goal to provide precise numbers on NUTS 3 or even community level. The European Census is conducted amongst others in Germany and Switzerland in 2011. Most of the participating countries use sample and register information in a combined form for the estimation process. The classical estimation methods of small areas or subgroups, such as the Horvitz-Thompson (HT) estimator or the generalized regression (GREG) estimator, suffer from small area-specific sample sizes which cause high variances of the estimates. The application of small area methods, for instance the empirical best linear unbiased predictor (EBLUP), reduces the variance of the estimates by including auxiliary information to increase the effective sample size. These estimation methods lead to higher accuracy of the variables of interest. Small area estimation is also used in the context of business data. For example during the estimation of the revenues of specific subgroups like on NACE 3 or NACE 4 levels, small sample sizes can occur. The Nomenclature statistique des activités économiques dans la Communauté européenne (NACE) is a system of the European Union which defines an industry standard classification. Besides small sample sizes, business data have further special characteristics. The main challenge is that business data have skewed distributions with a few large companies and many small businesses. For instance, in the automotive industry in Germany, there are many small suppliers but only few large original equipment manufacturers (OEM). Altogether, highly influential units and outliers can be observed in business statistics. These extreme values in connection with small sample sizes cause severe problems when standard small area models are applied. These models are generally based on the normality assumption, which does not hold in the case of outliers. One way to solve these peculiarities is to apply outlier robust small area methods. The availability of adequate covariates is important for the accuracy of the above described small area methods. However, in business data, the auxiliary variables are hardly available on population level. One of several reasons for that is the fact that in Germany a lot of enterprises are not reflected in business registers due to truncation limits. Furthermore, only listed enterprises or companies which trespass specific thresholds are obligated to publish their results. This limits the number of potential auxiliary variables for the estimation. Even though there are issues with available covariates, business data often include spatial dependencies which can be used to enhance small area methods. Next to spatial information based on geographic characteristics, group-specific similarities like related industries based on NACE codes can be used. For instance, enterprises from the same NACE 2 level, e.g. sector 47 retail trade, behave more similar than two companies from different NACE 2 levels, e.g. sector 05 mining of coal and sector 64 financial services. This spatial correlation can be incorporated by extending the general linear mixed model trough the integration of spatially correlated random effects. In business data, outliers as well as geographic or content-wise spatial dependencies between areas or domains are closely linked. The coincidence of these two factors and the resulting consequences have not been fully covered in the relevant literature. The only approach that combines robust small area methods with spatial dependencies is the M-quantile geographically weighted regression model. In the context of EBLUP-based small area models, the combination of robust and spatial methods has not been considered yet. Therefore, this thesis provides a theoretical approach to this scientific and practical problem and shows its relevance in an empirical study.
There is a lot of evidence for the impact of acute glucocorticoid treatment on hippocampus-dependent explicit learning and memory (memory for facts and events). But there have been few studies, investigating the effect of glucocorticoids on implicit learning and memory. We conducted three studies with different methodology to investigate the effect of glucocorticoids on different forms of implicit learning. In Study 1, we investigated the effect of cortisol depletion on short-term habituation in 49 healthy subjects. 25 participants received oral metyrapone (1500 mg) to suppress endogenous cortisol production, while 24 controls received oral placebo. Eye blink electromyogram (EMG) responses to 105 dB acoustic startle stimuli were assessed. Effective endogenous cortisol suppression had no effect on short-term habituation of the startle reflex, but startle eye blink responses were significantly increased in the metyrapone group. The latter findings are in line with previous human studies, which have shown that excess cortisol, sufficient to fully occupy central nervous system (CNS) corticosteroid receptors, may reduce startle eye blink. This effect may be mediated by CNS mechanisms controlling cortisol feedback. In Study 2, we investigated delay or trace eyeblink conditioning in a patient group with a relative hypocortisolism (30 patients with fibromyaligia syndrome/FMS) compared to 20 healthy control subjects. Conditioned eyeblink response probability was assessed by EMG. Morning cortisol levels, ratings of depression, anxiety and psychosomatic complaints as well as general symptomatology and psychological distress were assessed. As compared to healthy controls FMS patients showed lower morning cortisol levels, and trace eyeblink conditioning was facilitated whereas delay eyeblink conditioning was reduced. Cortisol measures correlate significantly only with trace eyeblink conditioning. Our results are in line with studies of pharmacologically induced hyper- and hypocortisolism, which affected trace eyeblink conditioning. We suggest that endocrine mechanisms affecting hippocampus-mediated forms of associative learning may play a role in the generation of symptoms in these patients.rnIn Study 3, we investigated the effect of excess cortisol on implicit sequence learning in healthy subjects. Oral cortisol (30 mg) was given to 29 participants, whereas 31 control subjects received placebo. All volunteers performed a 5-choice serial reaction time task (SRTT). The reaction speed of every button-press was determined and difference-scores were calculated as a proof of learning. Compared to the control group, we found a delayed learning in the cortisol group at the very beginning of the task. This study is the first human investigation, indicating impaired implicit memory function after exogenous administration of the stress hormone cortisol. Our findings support a previous neuroimaging study, which suggested that the medial temporal lobe (including the hippocampus) is also active in implicit sequence learning, but our results may also depend on the engagement of other brain structures.
This work is concerned with two kinds of objects: regular expressions and finite automata. These formalisms describe regular languages, i.e., sets of strings that share a comparatively simple structure. Such languages - and, in turn, expressions and automata - are used in the description of textual patterns, workflow and dependence modeling, or formal verification. Testing words for membership in any given such language can be implemented using a fixed - i.e., finite - amount of memory, which is conveyed by the phrasing finite-automaton. In this aspect they differ from more general classes, which require potentially unbound memory, but have the potential to model less regular, i.e., more involved, objects. Other than expressions and automata, there are several further formalisms to describe regular languages. These formalisms are all equivalent and conversions among them are well-known.However, expressions and automata are arguably the notions which are used most frequently: regular expressions come natural to humans in order to express patterns, while finite automata translate immediately to efficient data structures. This raises the interest in methods to translate among the two notions efficiently. In particular,the direction from expressions to automata, or from human input to machine representation, is of great practical relevance. Probably the most frequent application that involves regular expressions and finite automata is pattern matching in static text and streaming data. Common tools to locate instances of a pattern in a text are the grep application or its (many) derivatives, as well as awk, sed and lex. Notice that these programs accept slightly more general patterns, namely ''POSIX expressions''. Concerning streaming data, regular expressions are nowadays used to specify filter rules in routing hardware.These applications have in common that an input pattern is specified in form a regular expression while the execution applies a regular automaton. As it turns out, the effort that is necessary to describe a regular language, i.e., the size of the descriptor,varies with the chosen representation. For example, in the case of regular expressions and finite automata, it is rather easy to see that any regular expression can be converted to a finite automaton whose size is linear in that of the expression. For the converse direction, however, it is known that there are regular languages for which the size of the smallest describing expression is exponential in the size of the smallest describing automaton.This brings us to the subject at the core of the present work: we investigate conversions between expressions and automata and take a closer look at the properties that exert an influence on the relative sizes of these objects.We refer to the aspects involved with these consideration under the titular term of Relative Descriptional Complexity.
Durch Bodendegradation werden jedes Jahr weltweit große Schäden verursacht. Die beiden Hauptverursacher für die globale Bodendegradation sind die Wind- und die Wassererosion. Für die Planung von effizienten Schutzmaßnahmen oder regionalen Managementplänen ist es deshalb wichtig zu verstehen, dass die beiden Prozesse nicht nur als abgekoppelte Phänomene auftreten. Auch wenn seit einiger Zeit das Bewusstsein hierfür zugenommen hat und eine steigende Anzahl von Bodenerosionsstudien auf diesen Sachverhalt eingehen, so bestehen vor allem bei der Abschätzung der relativen Bedeutung und dem Verständnis der vorhandenen Interaktionen zwischen der Wind- und Wassererosion noch substantielle Wissenslücken. Da indirekte Messverfahren, wie beispielsweise die Luftbildauswertung oder die Fernerkundung, für mikro-skalige Prozessstudien ungeeignet sind, beschränken sich die Studien zur Erfassung der Interaktion beider Prozesse zumeist auf die direkten und/oder experimentellen Messungen. Ein Vergleich der Abtragsraten und eine Untersuchung der Interaktionen zwischen der Wind- und der Wassererosion ist jedoch sehr schwierig, da es bislang kein Messinstrument gibt, dass einfach und schnell, die durch Wind, Wasser oder deren Zusammenwirken verursachten Erosionsraten auf natürlichen Oberflächen bestimmen kann. Aus diesem Grund wurde im Rahmen dieses Dissertationsprojekts erstmals, ein mobiler Windkanal mit integrierter Beregnungsanlage konzipiert und umgesetzt. Seine simulierten Wind- und Niederschlagseigenschaften wurden in Labormessungen mit einem Laserdistrometer, Niederschlagssammlern, Anemometern und Nebelversuchen bestimmt. Die beim Einsatz der Anlage in unterschiedlichen Messkampagnen gewonnenen Erkenntnisse zu seinem Aufbau flossen stetig in die Weiterentwicklung des Kanals ein. Die Qualität der simulierten Bedingungen im Kanal können nach den Modifikationen und unter Einbeziehung der Anforderungen an einen geländefähigen Kanal mit guter Mobilität, als sehr gut bezeichnet werden. Insbesondere die Reproduzierbarkeit der simulierten Bedingungen treten hier positiv hervor. Die angestrebten Ziele dieser Arbeit konnten weitestgehend erfüllt werden. Mit dem mobilen Windkanal mit integrierter Beregnungsanlage steht in Zukunft eine Anlage zur Verfügung, mit der die Abtragsraten der Wind- und Wassererosion im Gelände, getrennt und in ihrer gemeinsamen Wirkung, gemessen werden können. Durch den Einsatz der Anlage ist es möglich, einige der noch offenen wissenschaftlichen Fragen zur relativen Bedeutung und Interaktion der beiden Prozesse zukünftig zu untersuchen, um weitere Erkenntnisse über Ihren Einfluss auf die Bodendegradation, in Abhängigkeit von Landnutzungsänderungen und dem Klimawandel, zu erhalten.
By rodent studies it has been shown that the mineralocorticoid receptor (MR) is a candidate gene for the investigation of cognitive functions comparable to human executive function. The present work addresses the question if polymorphisms in the MR gene can act as a "probe" to explain a part of the interindividual variance of human executive functions. For this purpose, 72 healthy young participants were assigned to four equally sized groups, concerning their particular MR genotype for two common MR polymorphisms. They were investigated in an electroencephalogram (EEG) test session, accomplishing two cognitive tests while delivering saliva samples for subsequent cortisol measures. The two tests chosen for the assessment of executive functions were the Attention Network Task (ANT) and a modified version of the Wisconsin Card Sorting Test (WCST).Chapter 1 of the present work reports of the rational bases for the empirical approach, which were built up on a broad theoretical background presented in Chapter 2. In the third chapter, the investigation and results of the statistical analysis for behavioral data (i.e. reaction times, accuracy/error rates) are presented. No association with MR polymorphisms was found for the reaction times of both tests. For the accuracy rate, differences between genotype groups were found for ANT and WCST, indicating an association of MR polymorphisms and accuracy in the Alertness and Executive Control network of the ANT and during the detection of an intradimensional shift in the WCST. Data acquisition and the results for EEG data analyses are presented in Chapter 4. The results show that groups differing for MR genotype show different activity over prefrontal motor areas during the process of answering to the ANT. Those group differences again were prominent for the Alertness and Executive Control network. A tendency for further significant group differences was found for activity on frontopolar positions in extradimensional rule switching. Chapter 5 summarizes the findings for the analysis of salivary free cortisol, showing a tendency for an association between MR polymorphisms and a mildly stimulated Hypothalamus-pituitary-adrenal (HPA) axis during the test situation. The results of the different measures are integrated and discussed in Chapter 6 within the scope of novel findings in investigating the functionality of the chosen MR polymorphisms. Finally, Chapter 7 gives an outlook on the methodology and constraints of future research strategies to further describe the role of the MR in human cognitive function.
The article deals with the untenable overloading of German criminal trial court judges presenting the overloading in detail and analyzing its reasons and consequences. In this context, serious failures by the German federal and state executive and legislative organs as well as undesirable developments of the Federal Constitutional Court's (BVerfG and the Federal Supreme Court of Justice's BGH) case law.
Monatelange Wartezeiten auf einen ambulanten Psychotherapieplatz sind der Regelfall im deutschen Gesundheitssystem. Die Veränderung der Symptombelastung der Patienten in der Wartezeit ist bislang allerdings kaum empirisch untersucht worden. In der vorliegenden Arbeit wurden an einer Stichprobe ambulanter Psychotherapiepatienten die Ausprägungen und Veränderungen der allgemeinen psychischen Symptombelastung während der durchschnittlich sechsmonatigen Wartezeit auf den Psychotherapieplatz untersucht. Zudem wurde überprüft, mit welchen Merkmalen die Symptombelastungen zum Zeitpunkt der Anmeldung zur Therapie und zum Zeitpunkt des Erstgesprächs sowie ihre Veränderungen in der Wartezeit zusammenhängen. Die dabei untersuchten Persönlichkeitsmerkmale wurden aus theoretischen Rahmenmodellen abgeleitet. Hierzu gehören die aktionale Entwicklungspsychologie, das handlungstheoretische Partialmodell der Persönlichkeit mit der darin eingeordneten Vertrauens-Trias und das Androgynie-Modell der psychischen Gesundheit. Nach einem direkten Veränderungskriterium zeigten 48 % der Patienten in der Wartezeit keine bedeutsame Veränderung, 29 % eine Verbesserung und 23 % eine Verschlechterung. Durch die bei der Anmeldung erfassten Persönlichkeitsmerkmale konnten Verbesserungen, Verschlechterungen und gleichbleibende Symptombelastungen in der Wartezeit anhand einer multinomialen logistischen Regressionsanalyse für 60 % der Patienten korrekt vorausgesagt werden. Eine traditionelle normative Geschlechtsrollen-Orientierung stellt einen negativen Prädiktor für eine Verbesserung dar. Soziales Vertrauen konnte Verschlechterungen negativ vorhersagen. Bei Hoffnungslosigkeit handelt es sich um einen marginal negativen Prädiktor für eine Verbesserung. Ein hoch ausgeprägtes Selbstkonzept eigener Fähigkeiten ist ein positiver Prädiktor für eine Verschlechterung. Hinsichtlich der soziodemografischen und störungsbezogenen Merkmale konnten das Alter, das Geschlecht und die Anzahl der Diagnosen die Veränderungen der Symptombelastung in der Wartezeit zu 54 % korrekt vorhersagen. Das Alter ist ein positiver Prädiktor für eine Verschlechterung. Weibliches Geschlecht und die Anzahl an Diagnosen sind negative Prädiktoren für eine Verbesserung. Darüber hinaus wurden differenzierte Zusammenhänge zwischen den Persönlichkeitsmerkmalen und der Symptombelastung exploratorisch untersucht.
Primo ist ein Softwareprodukt der Firma Ex Libris und ermöglicht eine einheitliche Einschlitz-Suche im Bibliothekskatalog, Artikeldatenbanken und anderen Datenquellen wie etwa digitalen Repositorien. An der Universitätsbibliothek Trier wird Primo eingeführt und die Artikeldatenbank Primo Central lizenziert mit dem primären Ziel, Zeitschriftenartikel und Bibliotheksbestand über eine Suchoberfläche zu erschließen. Im Folgenden wird insbesondere auf diese Implementierung eingegangen und einige Beobachtungen aus der Projektphase wiedergegeben. Die Arbeiten an Primo laufen bei uns momentan noch und eine öffentlichernVersion zur Ablösung des Online-Katalogs ist für 2012 geplant. Nach einer kurzen Einführung und Beschreibung der Funktionsweise von Primo werde ich folgende Thesen weiter ausführen: (1) Eine einheitliche Einschlitz-Suche wird aufgrund der Heterogenität derrnMetadatenqualität nur bedingt erreicht. (2) Die Auswertung großer Treffermengen wird mit Primo insbesondere durch diernFacettierungen in einem großen Masse unterstützt. Allerdings suggerieren diernFacettenwerte eine Vollständigkeit, die in dieser Weise nicht gewährleistet wird. Ebenfalls können Facettenwerte abhängig von der Sortierreihenfolge verloren gehen. (3) Die Darstellung der Daten kann man auf vielseitige Weise anpassen, so dass auch lokale Besonderheiten abgebildet werden können. Es wird als Beispiel gezeigt, wie wir die lokalen Signaturen in Primo zur Anzeige gebracht haben.
The 22nd annual conference of the European Consortium for Church and State Research took place from 11 to 14 November 2010 in Trier, Germany. Founded in 1989, the Consortium unites experts of law and religion of all Member States of the European Union. In annual meetings, various topics of the relations between religions and states within the European Union are discussed. This year- conference was dedicated to the topic "Religion in Public Education". Scholars from 27 European countries discussed inter alia the role of religion in the European member states" educational systems, opting out of school obligations for religious reasons, home schooling as well as religious dress and symbols in public schools. The present proceedings contain the opening lectures, all country reports and a report on the European Union law.
Stress represents a significant problem for Western societies inducing costs as high as 3-4 % of the European gross national products, a burden that is continually increasing (WHO Briefing, EUR/04/5047810/B6). The classical stress response system is the hypothalamic-pituitary-adrenal (HPA) axis which acts to restore homeostasis after disturbances. Two major components within the HPA axis system are the glucocorticoid receptor (GR) and the mineralocorticoid receptor (MR). Cortisol, released from the adrenal glands at the end of the HPA axis, binds to MRs and with a 10 fold lower affinity to GRs. Both, impairment of the HPA axis and an imbalance in the MR/GR ratio enhances the risk for infection, inflammation and stress related psychiatric disorders. Major depressive disorder (MDD) is characterised by a variety of symptoms, however, one of the most consistent findings is the hyperactivity of the HPA axis. This may be the result of lower numbers or reduced activity of GRs and MRs. The GR gene consists of multiple alternative first exons resulting in different GR mRNA transcripts whereas for the MR only two first exons are known to date. Both, the human GR promoter 1F and the homologue rat Gr promoter 1.7 seem to be susceptible to methylation during stressful early life events resulting in lower 1F/1.7 transcript levels. It was proposed that this is due to methylation of a NGFI-A binding site in both, the rat promoter 1.7 and the human promoter 1F. The research presented in this thesis was undertaken to determine the differential expression and methylation patterns of GR and MR variants in multiple areas of the limbic brain system in the healthy and depressed human brain. Furthermore, the transcriptional control of the GR transcript 1F was investigated as expression changes of this transcript were associated with MDD, childhood abuse and early life stress. The role of NGFI-A and several other transcription factors on 1F regulation was studied in vitro and the effect of Ngfi-a overexpression on the rat Gr promoter 1.7 in vivo. The susceptibility to epigenetic programming of several GR promoters was investigated in MDD. In addition, changes in methylation levels have been determined in response to a single acute stressor in rodents. Our results showed that GR and MR first exon transcripts are differentially expressed in the human brain, but this is not due to epigenetic programming. We showed that NGFI-A has no effect on endogenous 1F/1.7 expression in vitro and in vivo. We provide evidence that the transcription factor E2F1 is a major element in the transcriptional complex necessary to drive the expression of GR 1F transcripts. In rats, highly individual methylation patterns in the paraventricular nucleus of the hypothalamus (PVN) suggest that this is not related to the stressor but can rather be interpreted as pre-existing differences. In contrast, the hippocampus showed a much more uniform epigenetic status, but still is susceptible to epigenetic modification even after a single acute stress suggesting a differential "state‟ versus "trait‟ regulation of the GR gene in different brain regions. The results of this thesis have given further insight in the complex transcriptional regulation of GR and MR first exons in health and disease. Epigenetic programming of GR promoters seems to be involved in early life stress and acute stress in adult rats; however, the susceptibility to methylation in response to stress seems to vary between brain regions.
In recent years, Islamic banking has been one of the fastest growing markets in the financial world. Even to German banks, Islamic finance is not as 'foreign' as one might think. Indeed, several banks are already operating so-called "Islamic windows" in various Arab countries. However, German banks are still reluctant to offer 'Islamic' products in Germany, despite the fact that approximately 3.5 million Muslims currently live there. Potential reasons for this reluctance include widespread misunderstanding of Islamic banking in Germany and prevailing cultural prejudice towards Islam generally. The author seeks to address these concerns and to take an objective approach towards understanding the potential for Islamic banking in Germany. Legally, Islamic law cannot be the governing law of any contract in Germany. Therefore, the aim must be to draft contracts that are both enforceable under German law and consistent with the principles of Shari'a " the Islamic law. In this paper, the author gives a detailed legal analysis of the most common Islamic banking products and how they could be given effect under German law, while attempting to address widespread concerns about arbitration or parallel Shari'a courts. This publication is one of the first legal analysis of Islamic banking products in Germany. As such, its goal is not to be the final word, but rather to begin the conversation about potential problems and conflicts of Islamic banking in Germany that require further investigation.
Die erst vor einigen Jahren als System zur Qualitätssicherung eingeführte Akkreditierung von Studiengängen steht aktuell auf dem Prüfstand des Bundesverfassungsgerichts. Wegen Zweifeln an der Verfassungsmäßigkeit derrnAkkreditierungspflicht in Nordrhein-Westfalen hat das Verwaltungsgericht Arnsberg ein Klageverfahren ausgesetzt und den Fall dem Bundesverfassungsgericht vorgelegt, das nun über die Vereinbarkeit der Vorschriften mit dem Grundgesetz zu entscheiden hat. Welchen verfassungsrechtlichen Bedenken begegnet das deutsche Akkreditierungssystem im Einzelnen? Welche Erfolgsaussichten hat die Vorlage an das Bundesverfassungsgericht? Welche Konsequenzen hätte es für das gesamtdeutschernAkkreditierungswesen, wenn das Bundesverfassungsgericht die Akkreditierungspflicht für verfassungswidrig erklärt? Diesen und anderen Fragen widmet sich der vorliegende Beitrag.
Recent non-comparative studies diverge in their assessments of the extent to which German and Japanese post-Cold War foreign policies are characterized by continuity or change. While the majority of analyses on Germany find overall continuity in policies and guiding principles, prominent works on Japan see the country undergoing drastic and fundamental change. Using an explicitly comparative framework for analysis based on a role theoretical approach, this study reevaluates the question of change and continuity in the two countries" regional foreign policies, focusing on the time period from 1990 to 2010. Through a qualitative content analysis of key foreign policy speeches, this dissertation traces and compares German and Japanese national role conceptions (NRCs) by identifying policymakers" perceived duties and responsibilities of their country in international politics. Furthermore, it investigates actual foreign policy behavior in two case studies about German and Japanese policies on missile defense and on textbook disputes. The dissertation examines whether the NRCs identified in the content analysis are useful to understand and explain each country- particular conduct. Both qualitative content analysis and case studies demonstrate the influence of normative and ideational variables in foreign policymaking. Incremental adaptations in foreign policy preferences can be found in Germany as well as Japan, but they are anchored in established normative guidelines and represent attempts to harmonize existing preferences with the conditions of the post-Cold War era. The dissertation argues that scholars have overstated and misconstrued the changes underway by asserting that Japan is undergoing a sweeping transformation in its foreign policy.
Cortisol is a stress hormone that acts on the central nervous system in order to support adaptation and time-adjusted coping processes. Whereas previous research has focused on slow emerging, genomic effects of cortisol likely mediated by protein synthesis, there is only limited knowledge about rapid, non-genomic cortisol effects on in vivo neuronal cell activity in humans. Three independent placebo-controlled studies in healthy men were conducted to test effects of 4 mg cortisol on central nervous system activity, occurring within 15 minutes after intravenous administration. Two of the studies (N = 26; N = 9) used continuous arterial spin labeling as a magnetic resonance imaging sequence, and found rapid bilateral thalamic perfusion decrements. The third study (N = 14) revealed rapid cortisol-induced changes in global signal strength and map complexity of the electroencephalogram. The observed changes in neuronal functioning suggest that cortisol may act on the thalamic relay of non-relevant background as well as on task specific sensory information in order to facilitate the adaptation to stress challenges. In conclusion, these results are the first to coherently suggest that a physiologically plausible amount of cortisol profoundly affects functioning and perfusion of the human CNS in vivo by a rapid, non-genomic mechanism.
Japanische Touristen in Deutschland : Analyse der Wahrnehmung der Destination Deutschland und der Kundenansprüche im interkulturellen Kontext. Auf der Angebotsseite steht die noch mittelständisch geprägte deutsche Hotellerie, mit der Tendenz einer zunehmenden Konzentration zur Groß- und Kettenhotellerie. Der japanische Kunde auf der Nachfragerseite wird aufgrund seiner kulturellen, sozialen, politischen und geschichtlichen Umgebung analysiert. Er bewegt sich in einer vorwiegend kollektivistisch und stark kontextorientierten, durch dichte Informationsnetze geprägten, maskulinen Gesellschaft. Beeinflusst durch die Lehre von Konfuzius bilden heute noch mora-lisches Handeln, Rechtschaffenheit, Höflichkeit, die Beachtung hierarchischer Beziehungen und Harmonie Handlungsgrundlage des gesellschaftlichen Lebens. Daneben hat Japan, als entwickeltes Industrieland, mit denselben Problemen wie westliche Industrienationen zu kämpfen, wie Überalterung, Wertewandel und konjunkturelle Auf- und Abschwünge. Der japanische Kunde stellt hohe Ansprüche an die Qualität des angebotenen Produktes und an den Service. Während die Hardware, z.B. die Qualität der Hotelzimmer in Deutschland positiv beurteilt wird, wird die Servicequalität hier oft als unzureichend empfunden. Dabei setzt der japanische Kunde, der an dichte Informationsnetze gewöhnt ist, viele Dinge als selbstverständlich voraus. Der Deutsche, der über diese Informationen nicht verfügt und sich stur an das Vereinbarte hält, wird als unhöflich empfunden. Als Einkaufsdestination hat Deutschland aufgrund fehlender Marken kaum Bedeutung. Japaner sind leidenschaftliche und experimentierfreudige Esser, die oft in Deutschland aufgrund der mangelnden Beachtung und Vermarktung lokaler Spezialitäten zu kurz kommen. Mittels der Methode Importance Grid konnten abgefragte Attribute in Basis-, Leistungs- und Begeisterungsfaktoren eingeteilt werden. Grundlegend und Ausschlusskriterium für einen Reiseantritt sind die öffentliche Sicherheit, die der Japaner nicht nur auf die Kriminalität sondern auch auf Lebensmittelsicherheit und Gesundheitswesen bezieht. Sehenswürdigkeiten sind wichtige Leistungsfaktoren. Das Hotelangebot, als Begeisterungsfaktor hat einen enormen Einfluss und damit großes Entwicklungspotential auf die Reisezufriedenheit. Begeisterung lösen weiterhin individuelle Begegnungen, eine originale und stimmige Atmo-sphäre und lokale Besonderheiten, aus. Der hoch kontextorientierte Japaner nimmt die Reise als Gesamterlebnis wahr und gibt seine Erinnerungen gern über Mund zu Mund Propaganda weiter. Folgereisen können sich wie ein Schneeballsystem entwickeln. Als Trends sind die zunehmende Bedeutung von Seniorenreisen, Hube-and-Spoke Reisen, Skeleton-Touren, der Furosato Trend und Honeymoonreisen zu nennen.
Das erste Beispiel einer so genannten universellen holomorphen Funktion stammt von Birkhoff, welcher im Jahre 1929 die Existenz einer ganzen Funktion beweisen konnte, die gewissermaßen jede ganze Funktion durch geeignete Translationen approximieren kann. In der Folgezeit hat sich der Bereich der "universellen Approximation" zu einem eigenständigen Gebiet innerhalb der komplexen Approximationstheorie entwickelt, und es gibt eine Vielzahl an Ergebnissen über universelle Funktionen. Hierbei wurde sich allerdings fast ausschließlich auf das Studium holomorpher und ganzer Funktionen beschränkt, insbesondere die Klasse der meromorphen Funktionen wurde bisher kaum auf das Phänomen der Universalität hin untersucht. Die vorliegende Arbeit beschäftigt sich mit universeller meromorpher Approximation, und geht der Fragestellung nach, ob meromorphe Funktionen mit gewissen Universalitätseigenschaften existieren, und ob die klassischen Ergebnisse aus der universellen holomorphen Approximation auf den meromorphen Fall erweiterbar sind. Hierbei wird zunächst zwischen Translations- und Streckungsuniversalität unterschieden und bewiesen, dass in beiden Fällen jeweils eine im Raum der meromorphen Funktionen residuale Menge an universellen Funktionen existiert. Weiterhin werden die Eigenschaften dieser Funktionen ausführlich studiert. Anschließend werden meromorphe Funktionen auf Ableitungsuniversalität hin untersucht. Hierbei wird einerseits gezeigt, dass im Allgemeinen keine positiven Ergebnisse möglich sind, während andererseits eine spezielle Klasse meromorpher Funktionen betrachtet wird, für welche universelles Verhalten der sukzessiven Ableitungen nachgewiesen werden kann.
The overall objective of this thesis was to gain a deeper understanding of the antecedents, processes, and manifestations of uniqueness-driven consumer behavior. To achieve this goal, five studies have been conducted in Germany and Switzerland with a total of 1048 participants across different demographic and socio-economic backgrounds. Two concepts were employed in all studies: Consumer need for uniqueness (CNFU) and general uniqueness perception (GUP). CNFU (Tian, Bearden, & Hunter, 2001), a mainly US"based consumer research concept, measures the individual need, and thus the motivation to acquire, use, and dispose consumer goods in order to develop a unique image. GUP, adapted from the two-component theory of individuality (Kampmeier, 2001), represents a global and direct measure of self-ascribed uniqueness. Study #1 looked at the interrelation of the uniqueness-driven concepts. Therefore, GUP and CNFU were employed in the study as potential psychological factors that influence and predict uniqueness-driven consumer behavior. Different behavioral measures were used: The newly developed possession of individualized products (POIP), the newly developed products for uniqueness display (PFUD), and the already established uniqueness-enhancing behaviors (UEB). Analyses showed that CNFU mediates the relationship between GUP and the behavioral measures in a German speaking setting. Thus, GUP (representing self-perception) was identified as the driver behind CNFU (representing motivation) and the actual consumer behavior. Study #2 examined further manifestations of uniqueness-driven consumer behavior. For this purpose, an extreme form of uniqueness-increasing behavior was researched: Tattooing. The influence of GUP and CNFU on tattooing behavior was investigated using a sample derived from a tattoo exhibition. To do so, a newly developed measure to determine the percentage of the body covered by tattoos was employed. It was revealed that individuals with higher GUP and CNFU levels indeed have a higher tattooing degree. Study #3 further explored the predictive possibilities and limitations of the GUP and CNFU concepts. On the one hand, study #3 specifically looked at the consumption of customized apparel products as mass customization is said to become the standard of the century (Piller & Müller, 2004). It was shown that individuals with higher CNFU levels not only purchased more customized apparel products in the last six months, but also spend more money on them. On the other hand, uniqueness-enhancing activities (UEA), such as travel to exotic places or extreme sports, were investigated by using a newly developed 30-item scale. It was revealed that CNFU partly mediates the GUP and UEA relationship, proving that CNFU indeed predicts a broad range of consumer behaviors and that GUP is the driver behind the need and the behavior. Study #4, entered a new terrain. In contrast to the previous three studies, it explored the so termed "passive" side of uniqueness-seeking in the consumer context. Individuals might feel unique because business companies treat them in a special way. Such a unique customer treatment (UCT) involves activities like customer service or customer relationship management. Study #4 investigated if individuals differ in their need for such a treatment. Hence, with the need for unique customer treatment (NFUCT) a new uniqueness-driven consumer need was introduced and its impact on customer loyalty examined. Analyses, for example, revealed that individuals with high NFUCT levels receiving a high unique customer treatment (UCT) showed the highest customer loyalty, whereas the lowest customer loyalty was found among those individuals with high NFUCT levels receiving a low unique customer treatment (UCT). Study #5 mainly examined the processes behind uniqueness-driven consumer behavior. Here, not only the psychological influences, but also situational influences were examined. This study investigated the impact of a non-personal "indirect" uniqueness manipulation on the consumption of customized apparel products by simultaneously controlling for the influence of GUP and CNFU. Therefore, two equal experimental groups were created. Afterwards, these groups either received an e-mail with a "pro-individualism" campaign or a "pro-collectivism" campaign especially developed for study #5. The conducted experiment revealed that, individuals receiving a "pro-individualism" poster campaign telling the participants that uniqueness is socially appropriate and desired were willing to spend more money on customization options compared to individuals receiving a "pro-collectivism" poster campaign. Hence, not only psychological antecedents such as GUP and CNFU influence uniqueness-driven consumer behavior, but also situational factors.
Aus dem Wunsch, die zentralen Prozesse im System Boden"Pflanze"Atmosphäre einschließlich der Auswirkungen verschiedener Bewirtschaftungspraktiken zu verstehen und nachzubilden, resultiert die Entwicklung verschiedener Pflanzenwachstumsmodelle. Ziel der vorliegenden Untersuchung ist zum einen, die im Realsystem auftretenden räumlichen Ertragsmuster zu identifizieren und zu charakterisieren. Mithilfe der Semivariogramm-Analyse ist eine räumliche Autokorrelation der Ertragsdaten von maximal 48 Meter abzuleiten. Die räumliche Analyse (GIS) zeigt, dass die Sommergerste ein leicht abweichendes Verhalten im Vergleich zu den Winterkulturen (Winterweizen, Winterraps) aufweist. Schließlich werden mithilfe der selbstorganisierenden Merkmalskarten die primär und sekundär für das Ertragsverhalten verantwortlichen Ursachen identifiziert. Eine abschließende hierarchische Clusteranalyse gliedert die in die Untersuchung eingehenden Standorte in vier spezifische Cluster mit charakteristischen Eigenschaften. Ein zweites Ziel ist die Klärung der Frage, ob die Pflanzenwachstumsmodelle STICS und DAISY bei entsprechender Parametrisierung in der Lage sind, das für ein detektiertes Muster charakteristische Verhalten von Pflanzenwachstum und Ertrag realitätsnah abzubilden. Den Modellanwendungen gehen eine Sensitivitätsanalyse und verschiedene Parametrisierungsansätze zur Erfassung des jeweiligen Modellverhaltens voraus. In beiden Modellen übt der Bodenwasserhaushalt einen starken Einfluss auf die Ertragsbildung aus. Des weiteren kommt in beiden Modellen den Stressfaktoren eine zentrale Bedeutung zu. Die Parametrisierung der Modelle auf der Grundlage der im Feld erhobenen Daten führt bei beiden Modellen nicht zu einem dem Realsystem entsprechenden Bild. Eine über die Sensitivitätsanalyse hinausreichende, vertiefte Modellkenntnis ist erforderlich, um die in die Modelle eingehenden Parameter bzw. deren spezifischen Einfluss auf das Modellverhalten beurteilen und interpretieren zu können. Dies betrifft insbesondere die Modellgrößen der Bodenmodule. Dieser Aspekt erschwert eine einfache räumliche Übertragung der Modelle STICS und DAISY.
Die Zielsetzung der vorliegenden Arbeit war die raumdifferenzierte und skalenübergreifende Untersuchung der Hochwasserentstehungsprozesse im Frankelbach-Einzugsgebiet, das ein Beispiel eines land- und forstwirtschaftlich genutzten Kleineinzugsgebiets in Mittelgebirgen der gemäßigten Breiten ist. Eine Kernaufgabe war die Quantifizierung der Beiträge einzelner Abflusskomponenten während des Scheiteldurchflusses eines Hochwassers. Zudem sollten Zusammenhänge zwischen der Bodenfeuchtedynamik und der Abflussreaktion herausgearbeitet werden. Zur Bodenfeuchtemessung wurde ein neu entwickeltes Spatial-TDR-Messsystem eingesetzt. Im Rahmen dieses pilothaften Einsatzes war zudem die Tauglichkeit des Messsystems zu überprüfen und zu bewerten. Das im Rotliegenden gelegene 5 km2 große Frankelbachgebiet mit Jahresniederschlägen von 750 mm a-1, steil eingeschnittenen, bewaldeten Kerbtälern und ackerwirtschaftlich genutzten Hochflächen liegt zwischen 200 und 450 m ü. NN. Auf schuttführenden Sand- und Schlufflehmen, deren Genese auf periglaziale Solifluktionsprozesse zurückgeht, sind hangabwärts mächtiger werdende Braunerden zu finden. Bemerkenswert sind die zahlreichen Quellen auf gleicher Höhenlage, die teilweise als Pipequellen ausgebildet sind. Beregnungs- und Infiltrationsversuche dienten der Beurteilung der Oberflächenabflussreaktion unterschiedlich bewirtschafteter Flächen. Durch stündliche Spatial-TDR-Messungen an 13 Standorten (60 cm lange vertikal installierte Dreistabsonden) konnten Hangwasserflüsse identifiziert werden. Zwischen 2005 und 2009 wurden die Abflüsse vier geschachtelter Einzugsgebiete sowie einer Quelle in 10min-Intervallen erfasst und 87 Hochwasserereignisse analysiert. Mittels Messungen der elektrischen Leitfähigkeit und eines Zweikomponenten-Mischungsmodells wurde der Ereigniswasseranteil für die höchsten Hochwasser abgeschätzt. Ergänzend zu den Geländeexperimenten wurde ein einfaches Modell konzipiert, das eine quantitative Abschätzung der ober- und unterirdischen Wasserflüsse in einen Gewässereinschnitt erlaubt. Zum Vergleich mit 31 anderen Untersuchungsgebieten wurde eine Codierung entwickelt, die eine Einordnung sowohl hinsichtlich der Geofaktoren der Gebiete als auch bezüglich der untersuchten Hochwasserereignisse ermöglicht. Das im hanghydrologischen Forschungsbereich als eher trocken einzuordnende Frankelbachgebiet, zeigte ein jahreszeitlich sehr unterschiedliches Abflussverhalten. Während in trockenen Sommern hohe Niederschläge im Gebiet gespeichert werden, liegen die Abflusskoeffizienten für einige schneeschmelzfreie Frühjahrsereignisse über 50 %. Das höchste beobachtete Hochwasser weist einen Abflusskoeffizient von 55 % bei einer relativ niedrigen Abflussspende von 140 l s-1 km-2 auf. Die Großberegnungsversuche, die Quellabflussmessungen, die Ereignisanalysen und die Modellierungsergebnisse weisen darauf hin, dass Dauerregen- und Schneeschmelz-Hochwasser zum Großteil aus Zwischenabfluss bestehen. Hier konnten zwei Abflusskomponenten differenziert werden: (i) eine oberflächen- und gerinnenahe Komponenten, die aufgrund des hohen Ereigniswasseranteils von etwa 60 % durch präferentielles Fließen erklärt werden kann, und (ii) eine ein bis zwei Tage verzögerte tiefere Komponente, die durch unterirdische Abflusskonzentration auf stauenden Schichten generiert wird. Letztere war in den Quellabfluss- und Spatial-TDR-Messungen erkennbar, hatte jedoch an den am Pegel beobachteten Scheiteldurchflüssen nur einen sehr kleinen Anteil. Während sehr intensiver Niederschläge könnte zusätzlich der Horton'sche Oberflächenabfluss von offen liegenden, hydraulisch angeschlossenen Äckern zum Scheiteldurchfluss beitragen. Für sämtliche Spatial-TDR-Messstandorte ist von hohen Infiltrations- und Sickerraten auszugehen. Eine Aufsättigung der Standorte war nicht erkennbar, für die nassen Wintermonate liegen jedoch nur sehr wenige Spatial-TDR-Messwerte vor. Eine in einer Tiefenlinie installierte Sonde (A08) zeigte das Umschalten des Gesamtgebiets in relativ nasse Zustände an. Hier nahm die Bodenfeuchte während zwei größerer Dauerregenereignisse infolge der unterirdischen Abflusskonzentration stark zu. In der vorliegenden Arbeit wurden die einbau- und substratbedingten Unsicherheiten sowie die Schwächen des Algorithmus zur Rekonstruktion der absoluten Bodenfeuchtewerte konkretisiert. Demzufolge wurde lediglich das Spatial-TDR-Rohsignal als Indikator für die aktuelle Bodenfeuchte verwendet. Durch eine Transformation des Spatial-TDR-Signals von der Zeit auf den Sondenort können dennoch Aussagen zur relativen Änderung der Bodenfeuchte in einer bestimmten Tiefe gemacht werden können. Diese Informationen sind hinreichend genau für die Untersuchung hanghydrologischer Prozesse und für die Ableitung von Gebietsfeuchtezuständen.
Caenorhabditis elegans Modelsysteme für Freiland und Labor Caenorhabditis elegans ist eines der am intensivsten untersuchten Tiermodelle, dabei weisen die nur unzureichenden Informationen über sein ursprüngliches Habitat eine Vielzahl offener Fragen auf. Deshalb beschäftigt sich der erste Teil vorliegender Arbeit mit einer Überprüfung der Freilandökologie und Biogeographie des Taxons. Nach den Untersuchungen spricht vieles dafür, dass die Ursprungsart der C. elegans Gruppe ein Begleiter von Gastropoden war, welche auch für ihre Ausbreitung häufig verantwortlich sind. Als Folge der Verschleppung durch Wirtstiere (u.a. die Weinbergschnecke Helix aspersa) erreichte sie ihr heutiges Areal, in allen Kontinenten. Ein nicht weniger wichtiges Ziel der vorliegenden Arbeit war die Etablierung von C. elegans als Biotest-System für die Indikation von Chemikalien-Wirkungen. In dieser Arbeit wurden ein ökotoxikologisches Testsystem entwickelt mit den C. elegans als Modellorganismus, das durch Messung von umweltbedingten intrazellulär gebildeten ROS im Gesamtorganismus eine Einschätzung der biologischen Aktivität von Chemikalien und Umweltmedien ermöglichen sollte. Als grundlegender biochemischer Parameter ist eine, die Kapazität der antioxidativen Schutzmechanismen übersteigende, ROS-Bildung ursächlich für oxidative Schädigungen der Zelle verantwortlich und damit Basis für zahlreiche pathologische Effekte. Aus den Resultaten als Bewertungsgrundlage lässt sich folgern, dass sich das erarbeitete Biotestsystem als adäquates Verfahren zur Messung von oxidativem Stress, als Folge exogener Belastung, einsetzen lässt. Damit leistet es einen Beitrag zur Beurteilung des Toxizitätspotentials von Chemikalien und Umweltproben. Zur Eignung des Einsatzes von C. elegans für Toxizitätstest wurden weitere Untersuchungen mit verschiedenen Chemikalien durchgeführt. Dabei ergibt sich bezogen auf molare Einheiten eine immer gleich bleibende Reihenfolge der Sensitivitäten gegenüber BaP > Cu2+ > AcL, ein Ergebnis welches mit Testergebnissen von anderen Versuchsorganismen zu vergleichen war. Die Wirkung von Atrazin auf die Entwicklung von C. elegans wurde auch untersucht. Es wurde festgestellt, dass Atrazin auf Wachstum und Reproduktion von C. elegans konzentrationsabhängig toxisch wirkt. Die bisherigen Ergebnisse zeigen jedoch, dass das Testsystem C. elegans hervorragend geeignet ist, um Chemikalienwirkungen frühzeitig sichtbar zu machen.
In a case of robbery, some people actually use violence to steal - but others may supply information or weapons, make the plans, act as lookouts, provide transport. Certainly the actual robbers are guilty - but what of the others? How does Hong Kong's version of the common law answer this question now? How should the question be answered in the future?
The main research question of this thesis was to set up a framework to allow for the identification of land use changes in drylands and reveal their underlying drivers. The concept of describing land cover change processes in a framework of global change syndrome was introduced by Schellnhuber et al. (1997). In a first step the syndrome approach was implemented for semi-natural areas of the Iberian Peninsula based on time series analysis of the MEDOKADS archive. In the subsequent study the approach was expanded and adapted to other land cover strata. Furthermore, results of an analysis of the relationship of annual NDVI and rainfall data were incorporated to designate areas that show a significant relationship indicating that at least a part of the variability found in NDVI time series was caused by precipitation. Additionally, a first step was taken towards the integration of socio-economic data into the analysis; population density changes between 1961 and 2008 were utilized to support the identification of processes related to land abandonment accompanied by cessation of agricultural practices on the one hand and urbanization on the other. The main findings of the studies comprise three major land cover change processes caused by human interaction: (i) shrub and woody vegetation encroachment in the wake of land abandonment of marginal areas, (ii) intensification of non-irrigated and irrigated, intensively used fertile regions and (iii) urbanization trends along the coastline caused by migration and the increase of mass tourism. Land abandonment of cultivated fields and the give-up of grazing areas in marginal mountainous areas often lead to the encroachment of shrubs and woody vegetation in the course of succession or reforestation. Whereas this cover change has positive effects concerning soil stabilization and carbon sequestration the increase of biomass involves also negative consequences for ecosystem goods and services; these include decreased water yield as a result of increased evapotranspiration, increasing fire risk, decreasing biodiversity due to landscape homogenization and loss of aesthetic value. Arable land in intensively used fertile zones of Spain was further intensified including the expansion of irrigated arable land. The intensification of agriculture has also generated land abandonment in these areas because less people are needed in the agricultural labour sector due to mechanization. Urbanization effects due to migration and the growth of the tourism sector were mapped along the eastern Mediterranean coast. Urban sprawl was only partly detectable by means of the MEDOKADS archive as the changes of urbanization are often too subtle to be detected by data with a spatial resolution of 1 km-². This is in line with a comparison of a Landsat TM time series and the NOAA AVHRR archive for a study area in the Greece that showed that small scale changes cannot be detected based on this approach, even though they might be of high relevance for local management of resources. This underlines the fact that land degradation processes are multi-scale problems and that data of several spatial and temporal scales are mandatory to build a comprehensive dryland observation system. Further land cover processes related to a decrease of greenness did not play an important role in the observation period. Thus, only few patches were identified, suggesting that no large-scale land degradation processes are taking place in the sense of decline of primary productivity after disturbances. Nevertheless, the land cover processes detected impact ecosystem functioning and using the example of shrub encroachment, bear risks for the provision of goods and services which can be valued as land degradation in the sense of a decline of important ecosystem goods and services. This risk is not only confined to the affected ecosystem itself but can also impact adjacent ecosystems due to inter-linkages. In drylands water availability is of major importance and the management of water resources is an important political issue. In view of climate change this topic will become even more important because aridity in Spain did increase within the last decades and is likely to further do so. In addition, the land cover changes detected by the syndrome approach could even augment water scarcity problems. Whereas the water yield of marginal areas, which often serve as headwaters of rivers, decreases with increasing biomass, water demand of agriculture and tourism is not expected to decline. In this context it will be of major importance to evaluate the trade-offs between different land uses and to take decisions that maintain the future functioning of the ecosystems for human well-being.
Extension of inexact Kleinman-Newton methods to a general monotonicity preserving convergence theory
(2011)
The thesis at hand considers inexact Newton methods in combination with algebraic Riccati equation. A monotone convergence behaviour is proven, which enables a non-local convergence. Above relation is transferred to a general convergence theory for inexact Newton methods securing the monotonicity of the iterates for convex or concave mappings. Several application prove the pratical benefits of the new developed theory.
During pregnancy every eighth woman is treated with glucocorticoids. Glucocorticoids inhibit cell division but are assumed to accelerate the differentiation of cells. In this review animal models for the development of the human fetal and neonatal hypothalamic-pituitary-adrenal (HPA) axis are investigated. It is possible to show that during pregnancy in humans, as in most of the here-investigated animal models, a stress hyporesponsive period (SHRP) is present. In this period, the fetus is facing reduced glucocorticoid concentrations, by low or absent fetal glucocorticoid synthesis and by reduced exposure to maternal glucocorticoids. During that phase, sensitive maturational processes in the brain are assumed, which could be inhibited by high glucocorticoid concentrations. In the SHRP, species-specific maximal brain growth spurt and neurogenesis of the somatosensory cortex take place. The latter is critical for the development of social and communication skills and the secure attachment of mother and child. Glucocorticoid treatment during pregnancy needs to be further investigated especially during this vulnerable SHRP. The hypothalamus and the pituitary stimulate the adrenal glucocorticoid production. On the other hand, glucocorticoids can inhibit the synthesis of corticotropin-releasing hormone (CRH) in the hypothalamus and of adrenocorticotropic hormone (ACTH) in the pituitary. Alterations in this negative feedback are assumed among others in the development of fibromyalgia, diabetes and factors of the metabolic syndrome. In this work it is shown that the fetal cortisol surge at the end of gestation is at least partially due to reduced glucocorticoid negative feedback. It is also assumed that androgens are involved in the control of fetal glucocorticoid synthesis. Glucocorticoids seem to prevent masculinization of the female fetus by androgens during the sexual gonadal development. In this work a negative interaction of glucocorticoids and androgens is detectable.
Die Ménage-Polynome (engl.: ménage hit polynomials) ergeben sich in natürlicher Weise aus den in der Kombinatorik auftretenden Ménage-Zahlen. Eine Verbindung zu einer gewissen Klasse hypergeometrischer Polynome führt auf die Untersuchung spezieller Folgen von Polynomen vom Typ 3-F-1. Unter Verwendung einer Modifikation der komplexen Laplace-Methode zur gleichmäßigen asymptotischen Auswertung von Parameterintegralen sowie einiger Hilfsmittel aus der Potentialtheorie der komplexen Ebene werden starke und schwache Asymptotiken für die in Rede stehenden Polynomfolgen hergeleitet.
Virtuelle Umgebungen erfreuen sich in den letzten Jahren einer großen Beliebtheit und können kontinuierlich wachsende Nutzerzahlen vorweisen. Deshalb wird erwartet, dass die ohnehin große Nutzergemeinde weiterhin wächst. Dieses Wachstum stellt jedoch die Entwickler und die Betreiber von virtuellen Umgebungen vor eine Herausforderung. Die meisten heutzutage erfolgreichen virtuellen Umgebungen basieren auf einer Client-Server-Infrastruktur, in der der Server für die Verwaltung der gesamten Umgebung zuständig ist. Bei einer gleichzeitigen Inanspruchnahme durch viele Nutzer werden die serverbasierten Umgebungen jedoch massiven Skalierbarkeits- und Lastverteilungsproblemen ausgesetzt. Diese Probleme führen beispielsweise dazu, dass Nutzer Wartezeiten beim Einloggen in Kauf nehmen müssen bzw. selbst im Falle eines erfolgreichen Logins die "überfüllten" virtuellen Regionen nicht betreten dürfen. Deshalb wird in dieser Arbeit untersucht, ob eine Verbesserung der Skalierbarkeit und der Lastverteilung in virtuellen Umgebungen durch die Verwendung alternativer Infrastrukturansätze erreicht werden kann. Außerdem werden Maßnahmen zur weiteren Entlastung der Basis-Infrastruktur entwickelt. Diese Verbesserung soll zum einen dadurch erzielt werden, dass anstelle eines Servers ein Server-Verbund (Peer-to-Peer-System) als eine Art Management-Schicht agieren soll, in der jeder Knoten nur einen bestimmten Teil der virtuellen Umgebung verwaltet. Dabei wird die gewünschte Lastverteilung durch die Aufteilung der Verantwortungsbereiche auf die Knoten der Management-Schicht erreicht. Gleichzeitig entsteht aber ein Mehraufwand für die Konstruktion bzw. Erhaltung einer solchen Management-Schicht. Deshalb werden in dieser Arbeit die Vor- und Nachteile eines Infrastrukturwechsels hin zu dezentralisierten Infrastruktur-Ansätzen untersucht. Zum anderen wird eine spürbare Entlastung der Management-Schicht und somit eine Verbesserung der Skalierbarkeit und der Lastverteilung durch die Übertragung einiger Verwaltungsaufgaben an die Clients angestrebt. Zu diesen Verwaltungsaufgaben zählen die Gruppenkommunikation und das Konsistenz-Handling. Dazu wird in dieser Arbeit erforscht, inwiefern die Clients, die sich innerhalb derselben virtuellen Region befinden, selbst die Gruppenkommunikation über eine Multicast-Infrastruktur regeln können bzw. in die Wahrung der Konsistenz eines gemeinsamen Zustandes und der gemeinsam genutzten Objekte involviert werden können. Bei dem clientbasierten Konsistenz-Handling sollte vor allem auf die besonderen Interaktivitäts- und Konsistenzanforderungen, die Nutzer an die virtuellen Umgebungen stellen, geachtet werden. Dazu wird ein neues Konsistenzmodell definiert, welches die Einhaltung der strengen Interaktivitätsanforderungen erzwingt und die Konsistenz mit einer bestimmten Wahrscheinlichkeit garantieren kann.
Im Fokus der Dissertation steht das Spannungsfeld zwischen betriebswirtschaftlichen Zielen und unternehmerischer Sozialverantwortung. Dieses wird im Hinblick auf die Ebene des Arbeitsmarktes und die Beschäftigung von Menschen mit Behinderung im Tourismus untersucht. Das Ziel der Untersuchung ist die Identifikation des durch die sozialwirtschaftlichen Intentionen integrativer Hotels entstehenden gesamtgesellschaftlichen Nutzens. Ob integrativen Hotels der Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen gelingt, wird hierbei ermittelt. Bei dem herangezogenen Untersuchungsobjekt integrativer Hotelbetrieb handelt es sich um Hotels, die Menschen mit und ohne Behinderung beschäftigen, als Integrationsprojekte anerkannt sind und vom Gesetzgeber als Unternehmen des allgemeinen Arbeitsmarktes definiert werden. Da es sich um ein in der Tourismuswissenschaft weitgehend unbekanntes Untersuchungsobjekt handelt, wird dieses grundlegend erläutert, sodass neben dem Konzept, den rechtlichen Rahmenbedingungen und den Fördermöglichkeiten auch eine situative Beschreibung integrativer Hotels in Deutschland Bestandteil der Arbeit ist. Da es sich um Betriebe handelt, die im Rahmen der Beschäftigung von Menschen mit Behinderung staatlich gefördert werden, ist darüber hinaus die fiskalische Bilanz der Beschäftigungssituation Integrationshotel Gegenstand der Untersuchung. Des Weiteren stehen die Werte, die integrative Hotels über monetär messbare Werte hinaus schaffen, im Mittelpunkt. Neben der sozial- und volkswirtschaftlichen Ebene findet auch die betriebswirtschaftliche Ebene Berücksichtigung. Sowohl Merkmale und interne Strukturen integrativer Hotelbetriebe als auch deren betriebswirtschaftliche Situation und deren Gäste werden in diesem Zusammenhang behandelt. Das Methodenspektrum der Untersuchung ist entsprechend des erläuterten Inhaltes der Arbeit vielschichtig. Neben der Analyse relevanter Literatur liefern Experteninterviews wesentliche Ergebnisse. Die Analyse der sozial- und volkswirtschaftlichen Ebene basiert zunächst auf der Sekundäranalyse vorhandener Daten und darüber hinaus auf der Analyse und Weiterentwicklung eines Bewertungsmodells. Im Rahmen der betriebswirtschaftlichen Analyse werden betriebliche/betriebsinterne Daten analysiert und die Methode der standardisierten Gästebefragung angewendet. Als Abschluss der Arbeit werden die Untersuchungsergebnisse zusammengefasst und die Übertragbarkeit sowie die gesellschaftliche Relevanz des Themas diskutiert. Durch die Zusammenfassung der zentralen Befunde wird der Nutzen, der durch das Wirken integrativer Hotels auf verschiedenen Ebenen entsteht, benannt. Mit der Identifikation des durch integrative Hotels entstehenden gesamtgesellschaftlichen Nutzens liefert die Arbeit einen erweiterten theoretischen Ansatz der Argumentationslinie für Integrationsprojekte in der Hotellerie und weist nach, dass diesen ein Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen gelingt. Die Balance zwischen den parallelen Motiven Wirtschaftlichkeit und Gemeinnützigkeit bzw. der Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen ist zugleich der kritischste als auch der für den Erfolg integrativer Hotels entscheidendste Punkt. Die Herstellung eines Ausgleiches zwischen konträren Zielen ist dementsprechend die Voraussetzung für den maximal erreichbaren Zusatznutzen. Die Schlussfolgerung der Arbeit zielt jedoch nicht auf die ausnahmslos überall umzusetzende Integration von Menschen mit Behinderung im Teilarbeitsmarkt Tourismus ab, sondern weist auf das Potential eines erfolgreichen Ansatzes hin, der für die Entstehung eines eigenständigen Hoteltyps geeignet ist. Die Wahrnehmung der sozialen Verantwortung sollte hierbei jedoch nicht in den Vordergrund rücken, denn auch unter Einsatz des Alleinstellungsmerkmals Beschäftigung von Menschen mit Behinderung muss die vom Gast gebuchte touristische Dienstleistung vordergründig sein.
WICHTIGER HINWEIS: Aufgrund eines Computerfehlers bei der Rohdatenaufbereitung, müssen die 5.2.3. Ergebnisse (S. 43 ff.) wie folgt korrigiert werden: Explizite Einstellungsmessung Die Ergebnisse ändern sich inhaltlich: Haupteffekt Wortvalenz F(1, 94) = 51.10, p < .001, η2 = .35, (Mpos= 5.06; Mneg= -28.51); Interaktionseffekt Wortvalenz und kognitive Belastung F(1, 94) = 7.90, p < .01, η2 = .08, (Mpos/load= -5.01; Mpos/kein load= 15.13; Mneg/load= -25.43; Mneg/kein load= -31.75); Haupteffekt Wortnegation F(1, 94) = 8.58, p < .01, η2 = .08, (Mkeine = -7.95; Mnegation= -15.58). Implizite Einstellungsmessung Die Ergebnisse bleiben inhaltlich gleich: Zweifach-Interaktion von Wortvalenz und Prime, F(1, 80) = 4.61, p < .05, η2 = .06, (Mpos/wahr= 20.33; Mpos/falsch= 3.85; Mneg/wahr= 4.44; Mneg/falsch = 14.14). ABSTRACT: Ziel der vorliegenden Arbeit war es Evidenz für die Existenz einer Antonymie-Heuristik bei der Falsifikation valenter Information zu finden. Es wird angenommen, dass die vorherige Ankündigung, dass eine nachfolgende valenzhafte Information falsch ist, zu einer Änderung der Enkodierungsstrategie der valenzhaften Information führt. Dies bedeutet, dass zu der Valenz der gegebenen Information automatisch eine Gegenvalenz oder antonyme Valenz aktiviert werden sollte. Dementsprechend sollten falsche positive Informationen negativer und falsche negative Informationen positiver beurteilt werden als ihre wahren Entsprechungen. In vier Studien konnte dieser Effekt nachgewiesen werden. Die Ankündigung, dass eine valenzhafte Information falsch ist, beeinflusst, unabhängig von kognitiver Belastung, die Valenzübertragung in einem evaluativen Konditionierungsparadigma in vorhergesagter Weise (Experiment1). Ebenso führen generierte Gegenvalenzen, wenn eine Information als falsch angekündigt wurde, zu einem Verarbeitungsvorteil in einer Valenzkategorisierungs-Aufgabe, bei welcher positive Informationen als negativ und negative Informationen als positiv eingeschätzt werden sollten (Experiment 2). Die Ankündigung, dass eine nachfolgende Information falsch ist, führt außerdem dazu, dass positive (negative) Eigenschaften schnell und effizient negativer (positiver) eingeschätzt werden als bei einer Ankündigung der Informationen als wahr (Experiment 3 und 4). Zusammenfassend werden diese Befunde als Evidenz für die Existenz einer Antonymie-Heuristik im Zuge der Falsifikation valenter Information interpretiert.
The brain is the central coordinator of the human stress reaction. At the same time, peripheral endocrine and neural stress signals act on the brain modulating brain function. Here, three experimental studies are presented demonstrating this dual role of the brain in stress. Study I shows that centrally acting insulin, an important regulator of energy homeostasis, attenuates the stress related cortisol secretion. Studies II and III show that specific components of the stress reaction modulate learning and memory retrieval, two important aspects of higher-order brain function.